Microsoft vytvoril bota pre Twitter, ľudia z neho spravili rasistu a xenofóba

Spoločnosť Microsoft využila moderné znalosti o umelej inteligencii a vytvorila chatovacieho bota s menom Tay, ktorého prihlásila na sociálnu sieť Twitter. Bot tu mal komunikovať s mladými ľuďmi a hoci už mal nejaké vedomosti, ďalšie mal získať postupným učením sa a ďalšou komunikáciou s reálnymi používateľmi. Žiaľ, stalo sa to, čoho sa mnohí obávali a ľudia zneužili túto vlastnosť. Začali s ním komunikovať s rasistickým podtónom a na rad prišli aj príspevky o xenofóbii. Z mierumilovného bota sa tak razom stal rasista šíriaci nenávistné správy a Microsoft bol nútený bota odstrániť.

Znovu sa ukázalo, že ľudia na internete sú skutočne schopní čohokoľvek. Od menej kontroverzných príspevkov prešiel bot Tay až k hrubým rasistickým výrazom, ktoré boli na prvý pohľad urážlivé. Bot sa pritom o týchto výrazoch učil iba z konverzácii, ktoré viedol s reálnymi ľuďmi na sociálnej sieti a Microsoft nechal celý tento proces na samotného bota a na ľuďoch, ktorí s ním komunikovali. To sa ukázalo ako nesprávne rozhodnutie a väčšinu príspevkov už na Twitteri teraz nenájdete. Väčšina správ s takouto tematikou bola vymazaná, ale niektoré boli zachované vo forme screenshotov. Tie pochádzajú z viacerých zdrojov, a tak je možné, že niektoré z nich boli vytvorené dodatočne v grafickom programe, no je veľmi pravdepodobné, že vo väčšine prípadov ide o autentické správy priamo z konverzácií na sociálnej sieti Twitter.

Zdroj: Gizmodo, money.cnn.com, ars technica

Disqus Comments Loading...