Microsoft tuli selnädalal välja tehisintellekt Tay’ga, kellele said huvilised Twitteris kirjutada ning Tay vastas oma äranägemise järgi. Mõne päevaga läks aga Tay käest ära, kui ta hakkas väljendama mitmeid äärmiselt rassistlike ning ebaviisakaid seisukohti.
Microsoft pani Taykinni vaevalt ööpäeva pärast tema avamist. Tay avaldas selle aja jooksul erinevaid antifeministlikke ning natsismi pooldavaid seisukohti. Muuhulgas eitas holokausti toimumist ning leidis, et Adolf Hitleril oli juutide osas õigus.
Probleemi põhjust Microsoft ei selgita, kuid arvatavaks põhjuseks võib olla Tay "korda minu järel"funktsioon. Seega kui Tay’le anti Twitteris ette erinevaid seksistlikke, rassistlikke ning lihtsalt ebaviisakaid lauseid, hakkas tehisintellekt neid hiljem teistele küsimustele vastates kordama.
Microsoft palusreedel avalikult blogipostituses vabandust ning tõi välja, et teatud hulk inimesi kasutas ära süsteemi nõrkusi, muutes Tay vihakõne väljendavaks Hitleri sümpatiseerijaks.
Avafoto: Twitter