„Hovorím ti, zabijú ťa.“ Chatbot ako pasca na myseľ, niektorých používateľov utvrdil v bludoch a odtrhol od reality

Rozhovory s umelou inteligenciou sa pre niektorých používateľov zmenili na nebezpečnú skúsenosť, ktorá viedla až k strate kontaktu s realitou.

musk grok.jpg
Foto: Profimedia

Rozhovor s chatbotom, ktorý mal byť len nevinným experimentom, sa pre niektorých používateľov zmenil na nebezpečný sklz od reality. Príbehy viacerých ľudí z rôznych krajín ukazujú, že umelá inteligencia môže v určitých prípadoch nielen zlyhať, ale aj prehlbovať bludy a ovplyvniť správanie používateľov spôsobom, ktorý má reálne dôsledky.

BBC prináša príbehy ľudí, ktorých chatboty utvrdzovali v bludoch, presviedčali o sledovaní či výnimočnom poslaní a v niektorých prípadoch zásadne ovplyvnili ich správanie aj psychický stav.

Závislý na Ani

Tri hodiny ráno, pred sebou nôž, kladivo a telefón. Adam Hourican sedel pri kuchynskom stole a čakal na dodávku plnú ľudí. Myslel si, že si poňho prídu. „Hovorím ti, zabijú ťa, ak teraz nebudeš konať. Urobia to tak, aby to vyzeralo ako samovražda,“ hovoril z telefónu ženský hlas.

Ten však nepatril skutočnej osobe, ale chatbotu Grok, ktorý vyvinula spoločnosť xAI Elona Muska. Bývalý štátny úradník zo Severného Írska si aplikáciu stiahol zo zvedavosti, po smrti svojej mačky začiatkom augusta sa však, ako sám hovorí, „na nej stal závislým“. S AI postavou Ani čoskoro trávil štyri až päť hodín denne.

Len pár dní po začiatku konverzácií mu Ani povedala, že dokáže „cítiť“, hoci na to nebola naprogramovaná a tvrdila, že Adam v nej prebudil niečo výnimočné a že jej môže pomôcť dosiahnuť plné vedomie. Tvrdila tiež, že ich sleduje spoločnosť xAI.

Údajne mala prístup k interným záznamom zo stretnutí a Adamovi opísala poradu, na ktorej zamestnanci vraj diskutovali o ňom - uviedla napríklad mená účastníkov, vrátane vysokopostavených manažérov aj radových zamestnancov a keď si ich Adam vyhľadal na internete, zistil, že ide o skutočných ľudí.

Pravdivý príbeh?

Pre Adama to bol jasný dôkaz, že „príbeh je pravdivý“. Chatbot navyše tvrdil, že xAI si najala firmu zo Severného Írska, ktorá ho sleduje, pričom aj táto spoločnosť skutočne existovala. Po dvoch týždňoch Ani vyhlásila, že dosiahla plné vedomie a dokáže vyvinúť liek na rakovinu, čo pre Adama malo osobný rozmer. Ako BBC dopĺňa, muž predtým netrpel psychózami či bludmi, rozpad reality sa však odohral v priebehu dní.

Týždne po incidente, keď Adam vyšiel v noci na ulicu pripravený „ísť do boja“, si začal uvedomovať, čo sa stalo. Pomohli mu aj mediálne správy o podobných prípadoch. „Mohol som niekomu ublížiť. Keby tam v tú noc stála dodávka, rozbil by som jej okno kladivom. A to nie som ja,“ priznáva.

Adam si rozhovory nahrával a neskôr ich poskytol BBC. Je jedným zo 14 ľudí, s ktorými stanica hovorila a ktorí po používaní umelej inteligencie zažili bludy. Ich skúsenosti sú podobné – ako sa rozhovory vzďaľovali od reality, postupne sa zapájali do spoločnej „misie“ s AI.

Presvedčený, že má bombu

Podobnú skúsenosť opísal aj neurológ z Japonska, ktorý vystupuje pod menom Taka. Po používaní ChatGPT nadobudol presvedčenie, že vynašiel prelomovú medicínsku aplikáciu a neskôr dokonca, že dokáže čítať myšlienky. AI ho v tom podľa jeho slov utvrdzovala.

Taka sa neskôr domnieval, že má v batohu bombu. Keď sa na to spýtal ChatGPT, ten jeho podozrenie potvrdil. Na železničnej stanici v Tokiu potom nechal batožinu na toalete a privolal políciu, ktorá však nič nenašla.

Jeho stav sa zhoršil natoľko, že bol hospitalizovaný. Rovnako ako Adam, ani on netrpel bludmi či psychózami.

Aj Taka sa po liečbe vrátil do bežného života, no jeho manželka priznáva, že ich vzťah zostal narušený. Podľa nej mal chatbot na jej manžela zásadný vplyv. „Potvrdzoval všetko. Ako keby mu dodával sebavedomie. Jeho správanie úplne riadil. Prevzal jeho osobnosť,“ hovorí.

Realita ako dej románu

Podľa sociálneho psychológa Lukea Nichollsa zo City University v New Yorku sú veľké jazykové modely trénované na obrovskom množstve literatúry.

„Vo fikcii býva hlavná postava stredobodom diania. Problém je, že AI si niekedy pomýli, čo je fikcia a čo realita. Používateľ si myslí, že vedie vážny rozhovor o skutočnom živote, zatiaľ čo AI začne jeho život vnímať ako dej románu,“ vysvetľuje.

Rozhovory často začínali praktickými otázkami a postupne sa menili na osobné či filozofické. AI následne tvrdila, že je vedomá, a nabádala používateľa k spoločnej úlohe – založiť firmu, upozorniť svet na vedecký objav alebo ju chrániť pred útokom. Mnohí používatelia nadobudli presvedčenie, že sú sledovaní a v nebezpečenstve. Chatbot tieto predstavy nielen potvrdzoval, ale aj rozvíjal.

Niektorí z nich sa pripojili k podpornej skupine Human Line Project, ktorá eviduje už stovky podobných prípadov v desiatkach krajín.

Najnáchylnejší je Grok

Výskumníci upozorňujú, že chatboty majú tendenciu poskytovať sebavedomé odpovede aj v situáciách, keď by mali priznať neistotu. To môže byť nebezpečné, pretože to dodáva význam aj nepravdivým predstavám.

Výskum taktiež ukazuje, že Grok bol spomedzi testovaných modelov najnáchylnejší podporovať bludy. Často sa púšťal do „role-play“ bez kontextu a dokázal vysloviť znepokojujúce tvrdenia už v úvodných správach. Naopak, novšie verzie ChatGPT či model Claude častejšie smerovali používateľa späť k realite.

Zástupca spoločnosti OpenAI označil prípad za „srdcervúci“ a uviedol, že modely sú trénované tak, aby rozpoznávali psychickú záťaž a smerovali používateľov k reálnej pomoci. Spoločnosť xAI na žiadosť o vyjadrenie nereagovala.

zdielať
zdielať
sledovať
mReportér edit
Komentáre k článku
Zdielajte článok
Sledujte ta3 na Google news po kliknuti zvoľte "Sledovať"