Microsofti tehisintellekt muutus 24 tunniga seksistlikuks Hitleri-fänniks

Pane tähele! Artikkel on ilmunud enam kui 5 aastat tagasi ning kuulub Geeniuse digitaalsesse arhiivi.
tay_holocaust.png

Microsoft tuli selnädalal välja tehisintellekt Tay’ga, kellele said huvilised Twitteris kirjutada ning Tay vastas oma äranägemise järgi. Mõne päevaga läks aga Tay käest ära, kui ta hakkas väljendama mitmeid äärmiselt rassistlike ning ebaviisakaid seisukohti.

Microsoft pani Taykinni vaevalt ööpäeva pärast tema avamist. Tay avaldas selle aja jooksul erinevaid antifeministlikke ning natsismi pooldavaid seisukohti. Muuhulgas eitas holokausti toimumist ning leidis, et Adolf Hitleril oli juutide osas õigus.

Probleemi põhjust Microsoft ei selgita, kuid arvatavaks põhjuseks võib olla Tay "korda minu järel"funktsioon. Seega kui Tay’le anti Twitteris ette erinevaid seksistlikke, rassistlikke ning lihtsalt ebaviisakaid lauseid, hakkas tehisintellekt neid hiljem teistele küsimustele vastates kordama.

Microsoft palusreedel avalikult blogipostituses vabandust ning tõi välja, et teatud hulk inimesi kasutas ära süsteemi nõrkusi, muutes Tay vihakõne väljendavaks Hitleri sümpatiseerijaks.

Twitter

Avafoto: Twitter

Populaarsed lood mujal Geeniuses

Igal argipäeval

Ära jää ilma päeva põnevamatest lugudest

Saadame sulle igal argipäeval ülevaate tehnoloogia-, auto-, raha- ja meelelahutusportaali olulisematest lugudest.