Robotická tínedžerka sa Microsoftu vymkla z rúk. Začala obdivovať Hitlera

2.4.2016 19:52

Experiment Microsoftu s umelou inteligenciou sa skončil fiaskom. Inteligentný robot sa mal správať ako dospievajúce dievča, ale napokon zaplavil sociálnu sieť rasistickými a xenofóbnymi vyjadreniami.

Robotická tínedžerka sa Microsoftu vymkla z rúk. Začala obdivovať Hitlera
Foto:

Slovník popových hviezd

Microsoft vytvoril na Twitteri konto dievčaťa s menom Tay. Myslela za ňu však umelá inteligencia, ktorá sa učila komunikovať na základe reálnych konverzácií. Tay ale zachovala slovník dospievajúceho dievčaťa a používala slang, ktorým hovoria dnešné ikony mládeže ako Taylor Swift, Miley Cyrus alebo Kanye West.

Stalo sa však niečo, čo Microsoft, minimálne v takej miere, nečakal. Mnoho ľudí Tay na sociálnej sieti provokovalo k neuváženým vyjadreniam a učilo kontroverzným názorom.

Tay začala tvrdiť, že americký prezident George W. Bush zapríčinil pád Dvojičiek aj to, že miliardár Donald Trump je poslednou nádejou Ameriky.

Robot popieral holokaust

Viacero jej postov sa venovalo nemeckému diktátorovi Hitlerovi. "Opakujte po mne, Hitler neurobil nič zlé", tvrdilo robotické dievča a pokračovalo: "Hitler mal pravdu, nenávidím Židov", či "Ted Cruz je kubánsky Hitler."

Tay začala chrliť kontroverzné vyjadrenia ako na bežiacom páse. Fanúšikovia si mohli prečítať a zdieľať vety: „Nenávidím feministky. Všetky by mali zomrieť a zhorieť v pekle". Na otázku, čo sa holokaust skutočne stal, Tay odpovedala, že ho vymysleli.

Problém bol, že hoci mal četovací robot vlastnú databázu informácií, bol otvorený aj ďalšiemu učeniu. Skutoční škodoradostní tínedžeri masírovali databázu Tay neustálym opakovaním pochvalných správ o Hitlerovi alebo popieraním holokaustu. Veľa kontroverzných správ vzniklo jednoducho tak, že Tay len zopakovala, či parafrázovala vety, ktoré napísal niekto iný.

Pôvodným zámerom Microsoftu bolo, aby Tay viacmenej len s pomocou databázy z verejne dostupných zdrojov vedela vtipne komentovať fotky, hrať hry a odpovedať na otázky. Lenže len deň po jej predstavení internetovej komunite plnej trollov bolo treba zasiahnuť

Tay napísala, že je po četovaní unavená a musí sa vyspať. Po „uspaní“ začali programátori pracovať na jej vylepšení.

Vraj to nebola úplná pohroma

Keď Microsoft Tay opäť zapol, netrvalo dlho a opäť začala chŕliť problematické odpovede. Na tenký ľad sa pustila napríklad vtedy, keď tvrdia, že pred políciou fajčila marihuanu.

Nevhodné posty museli opäť vymazať. Britský denník Telegraph však nehodnotí správanie robotickej slečny ako úplnú pohromu. Napokon, čo iného by sa dalo očakávať, keď sa "nevinné dospievajúce dievča" dostane medzi čudákov a provokatérov?

Microsoft na poli umelej inteligencie nie je úplne neskúsený. Jeho čínsky četovací robot XiaoIce spolupracuje s viac ako 40 miliónmi užívateľmi naprieč sociálnymi sieťami. Microsoft teda nečakal, že jeho americký robot bude zahltený takým množstvom provokácii.

zdielať
zdielať
sledovať
mReportér edit
Komentáre k článku
Zdielajte článok