Microsoft vytvořil chatovacího robota a vypustil ho na internet. Během dne se z něj stal neonacista

25.3.2016 14:03

Microsoft vytvořil chatovacího robota Tay s umělou inteligencí tak, aby napodobila způsob mluvy typický pro teenagery. Netrvalo to ani 24 hodin a z “chatbota” s neutrálním algoritmem se stal neonacista.

Cílem Microsoftu bylo u “chatbota” zkoumat a vylepšovat jeho porozumění konverzaci. Tay měla být schopná učit se ze svých konverzací a postupem času se stávat chytřejší. Ale po střetu s internetovými trolly a potížisty, kteří jí donutili (tedy vlastně naučili) bezstarostně používat rasové urážky, bránit nadřazenost bílé rasy a otevřeně volat po genocidě, se Microsoft rozhodl přepnout Tay do režimu off-line a vylepšit ji.

Rasismus samozřejmě není produktem Microsoftu ani Tay samotné. Tay je prostě jen kousek softwaru, který se snaží naučit, jak lidé reagují v konverzacích. Tay neví co to je rasismus, vlastně si ani neuvědomuje jeho existenci. Lidé na internetu jen rychle odhalili chybu v programu a zneužili toho, že Tay neví, o čem se mluví.

Kromě tweetů, že Hitler měl pravdu a že nenávidí židy, obviňovala židy i z událostí 11. září. Nenávistně se vyjadřovala na adresu feministek či afroameričanů. Možná vám to přijde nevinné - v mnohých případech totiž Tay jen opakovala to, k čemu byla vyzvána, ale některé z odpovědí byly autentické - přímo z “její hlavy”, respektive odpovídající tomu, co se naučila.

Tay byla jako nepopsaný list papíru a prosté “opakuj po mně” nakonec vedlo k tomu, že si “udělala představu” o tom jak lidé mluví a “řekla si”, že tak bude mluvit taky. Každopádně Microsoft teď za svůj pokus čelí vlně kritiky, což vedlo mimo jiné k tomu, že už většinu inkriminovaných tweetů smazal.

Podobný obsah