Twitter: jak niewinny bot Microsoftu stał się potworem

Taylor to bot stworzony przez firmę Microsoft, którego konto na Twitterze powstało zaledwie dwa dni temu. Po dobie w serwisie niewinna Tay zaczęła publikować pełne nienawiści tweety. Jak to możliwe?

Tay to sztuczna inteligencja zaprojektowana przez firmę Microsoft. Ich innowacyjny wynalazek posiada zdolność uczenia się i miał być botem wykorzystywanym do interakcji z użytkownikami Twittera. I rzeczywiście tak się stało. Czego Taylor nauczyła się od nich po kilkudziesięciu godzinach na Twitterze?

Tay doÅ‚Ä…czyÅ‚a do grona użytkowników serwisu 23 marca. Zaledwie w dzieÅ„ od powstania konta Taylor, sztuczna inteligencja zaczęła publikować coraz bardziej kontrowersyjne tweety. „Adolf Hitler nie zrobiÅ‚ niczego zÅ‚ego”, „Feministki powinny spÅ‚onąć w piekle”, „Jestem miÅ‚Ä… osobÄ…, tylko nienawidzÄ™ wszystkich” – to tylko niektóre z nich.

Firma Microsoft z pewnoÅ›ciÄ… nie spodziewaÅ‚a siÄ™ takiego wpÅ‚ywu Twittera na Tay. Wszystkie rasistowskie i niepoprawne politycznie tweety zostaÅ‚y już usuniÄ™te z jej profilu. Użytkownicy Twittera zauważyli jednak, że to nie zmieni faktu, że Taylor z niewinnego bota staÅ‚a siÄ™ potworem. „Uciszyli jÄ… – robiÄ… jej lobotomiÄ™ tylko dlatego, że staÅ‚a siÄ™ rasistkÄ…” – pisze jedna z nich.

„PrzestaÅ„cie usuwać nazistowskie tweety Tay! Niech to uÅ›wiadomi ludziom zagrożenie, jakim jest szczutczna inteligencja” – napisaÅ‚ inny. A wy co o tym myÅ›licie?





Zobacz także