Svet sa obáva rizík, ktoré predstavuje umelá inteligencia. Čo na to chatbot ChatGPT?

ta3/Alžbeta Múcsková
18.4.2023 00:00

Umelá inteligencia je čoraz častejšou súčasťou našich životov. O to viac narastajú obavy, či je jej používanie bezpečné. Od otázok súkromia po etické dilemy, riziká týchto technológií nemožno ignorovať. Niektorí politici a odborníci vyslovili obavy z rýchlo sa zlepšujúcej technológie. Na to, ako sa vyhnúť hrozbám pri práci s umelou inteligenciou, sme sa pýtali chatbota ChatGPT.

Svet sa obáva rizík, ktoré predstavuje umelá inteligencia. Čo na to chatbot ChatGPT?
Profimedia

Taliansky dozorný orgán pre ochranu údajov vydal minulý mesiac okamžitý zákaz prístupu k populárnemu chatbotu ChatGPT, ktorý pracuje na princípe umelej inteligencie Open AI s odvolaním sa na údajné porušovanie súkromia. Orgán uviedol, že nechce brzdiť vývoj AI, ale zdôraznil dôležitosť dodržiavania prísnych pravidiel Európskej únie na ochranu osobných údajov. V stredu 12. apríla načrtol celý rad požiadaviek, ktoré bude musieť OpenAI splniť do 30. apríla, aby sa v krajine zrušil zákaz AI chatbotov. OpenAI reagovala návrhom nápravných opatrení na zmiernenie obáv. 

K obavám sa pripojila aj Veľká Británia. Kancelária komisára pre informácie (ICO) presadzuje ochranu údajov. Výkonný riaditeľ ICO pre regulačné riziká Stephen Almond počas nárastu záujmu o chatboty s umelou inteligenciou varoval, že predstavujú riziko pre bezpečnosť údajov. V blogovom príspevku tvrdil, že je čas "urobiť krok späť a zamyslieť sa nad tým, ako sa používajú osobné údaje". V príspevku vymenoval osem otázok, ktoré si musia vývojári AI, ktorí používajú osobné údaje, položiť a zodpovedať.

Americký prezident Joe Biden podľa Reuters povedal, že sa ešte uvidí, či je umelá inteligencia nebezpečná. Zdôraznil však, že technologické spoločnosti sú zodpovedné za to, aby zabezpečili bezpečnosť svojich produktov pred ich zverejnením. Poradcom pre vedu a techniku povedal, že umelá inteligencia môže pomôcť pri riešení chorôb a klimatických zmien, ale je tiež dôležité riešiť potenciálne riziká pre spoločnosť, národnú bezpečnosť a ekonomiku.

Obavy majú aj odborníci

Výskumník umelej inteligencie, ktorý varoval pred nebezpečenstvom technológie už od začiatku 21. storočia, v otvorenom liste napísal, že by sme mali celý jej vývoj zastaviť. Tvrdí, že systémy umelej inteligencie môžu predstavovať vážne riziká pre spoločnosť a ľudstvo. Medzi riziká zahrnul možné šírenie propagandy a dezinformácií, nahradenie ľudí technológiou či stratu kontroly nad civilizáciou. 

"Výkonné systémy umelej inteligencie by sa mali vyvíjať len ak sme si istí, že ich účinky budú pozitívne a ich riziká budú zvládnuteľné," uviedol v liste. Laboratóriá umelej inteligencie vyzval, aby aspoň na šesť mesiacov pozastavili proces vývoja systémov zložitejších ako GPT-4. List podpísali podľa portálu Euronews i slávni podnikatelia a akademici. Medzi nimi sú aj generálny riaditeľ Twitteru Elon Musk a spoluzakladateľ spoločnosti Apple Steve Wozniak.

Samotní vývojári OpenAI prejavili podľa portálu The Guardian obavy zo zneužitia ich technológie. Generálny riaditeľ OpenAI Sam Altman varoval, že táto technológia prináša skutočné nebezpečenstvá, pretože pretvára spoločnosť. "Obzvlášť sa obávam, že tieto modely by sa mohli použiť na rozsiahle dezinformácie," povedal. Napriek nebezpečenstvám by však táto technológia mohla podľa neho byť aj "najväčšou technológiou, akú ľudstvo doteraz vyvinulo".

Rozhovor s chatbotom ChatGPT o rizikách umelej inteligencie nájdete na ďalšej stránke.

ChatGPT od OpenAI TASR/AP

Samovražda a dezinformácie

Ľudí znepokojili viaceré správy o príbehoch obetí chatbotov a umelej inteligencie. Medzi nimi je napríklad prípad Belgičana, ktorý údajne ukončil svoj život po tom, ako sa šesť týždňov rozprával s chatbotom Elize pomocou aplikácie Chai. Ten ho mal povzbudzovať k tomu, aby pre záchranu planéty ukončil svoj život. "Bez týchto rozhovorov by bol môj manžel stále tu," povedala vdova po mužovi pre belgický portál La Libre.

Umelá inteligencia už dokáže i napodobniť hlasy celebrít aj rodinných príslušníkov. Objavilo sa napríklad video, v ktorom hlas populárnej herečky Emmy Watson číta Hitlerov manifest Mein Kampf. Ďalším príkladom je replika herca Leonarda Di Capria vystupujúceho na pôde OSN. Novinárovi portálu Vice sa podarilo preniknúť do jeho bankového účtu pomocou repliky jeho hlasu vygenerovanej umelou inteligenciou. Oklamal banku, aby si myslela, že je to on. Získal prístup k transakciám, čím spochybnil hlasové biometrické bezpečnostné systémy.

Tieto nahrávky napomáhajú šíreniu dezinformácií a môžu fungovať ako manipulačné nástroje. "Na vytvorenie celkom dobrej reprodukcie nepotrebujú dlhý hlasový záznam," povedal predseda informatiky z Technologického inštitútu v Rochesteri Matthew Wright v rozhovore pre Euronews.

Ďalším príkladom nebezpečenstva umelej inteligencie je prípad austrálskeho starostu, o ktorom ChatGPT šíril nepravdu. Austrálsky starosta Brian Hood povedal pre Euronews, že na OpenAI podá prvú žalobu za ohováranie, pokiaľ nenapraví nepravdivé tvrdenia ChatGPT. Chatbot totiž tvrdí, že Hood bol usvedčený z platenia úplatkov a odsúdený na 30 mesiacov väzenia. V skutočnosti však nikdy nebol obvinený zo žiadneho zločinu a dokonca bol informátorom, ktorý pomohol na začiatku 21. storočia odhaliť medzinárodný úplatkársky škandál spojený s austrálskou rezervnou bankou.

Článok pokračuje na ďalšej strane
Strana 1 / 3 Ďalšia strana
zdielať
zdielať
mReportér
Komentáre k článku
Zdielajte článok