Ako vytvoriť zlomyseľnú umelú inteligenciu? Stačí prekonať pár bariér

TA3
4.6.2016 19:49

Diskusiu inteligentných strojoch už dlhší čas ovplyvňuje strach, že sa obrátia proti ľudstvu. Výskumníci sa na problém rozhodli pozrieť z nového uhla – čo ak budú už pri svojom vzniku zlé?

Ako vytvoriť zlomyseľnú umelú inteligenciu? Stačí prekonať pár bariér
SITA/AP

Dlhý zoznam možných zločincov

Nad vytvorením zlomyseľnej umelej inteligencie sa zamysleli dvaja americkí výskumníci: Federico Pistono a Roman Yampolskiy. Vychádzali z predpokladu, že zatiaľ si nikto nepoložil otázku, ako navrhnúť „zlý“ stroj. V tom vidia veľký problém.

Pistono a Yampolskiy vytvorili zoznam skupín, ktoré by umelú inteligenciu mohli zneužiť. Súpis nie je vôbec krátky, podľa neho sa zdá, že nebezpečenstvo môže číhať za každým rohom. Zoznamu tróni už tradične armáda, ktorá by sa mohla pokúsiť vytvoriť kybernetických vojakov. Strašiakom zostáva vláda hlavne pre svoje úsilie kontrolovať svojich občanov. O zlomyseľnú inteligenciu by podľa výskumníkov mohli mať záujem aj obchodné korporácie, ktoré by stroje mohli zneužiť na dosiahnutie výhodného monopolu. V zozname figuruje aj takzvaní black hat hackeri, ktorí sa neštítia narušiť bezpečnosť len zo škodoradosti alebo pre osobný prospech.

Podozreniu neunikli ani osamelí psychopati, ktorí sa chcú zapísať do histórie, alebo prívrženci siekt hľadajúci spôsoby, ako priblížiť koniec sveta. Za hrozbu sa považujú aj neopatrní experti, ktorí odmietajú nebezpečenstvo umelej inteligencie, a preto sa cielene správajú rizikovo a nedodržiavajú bezpečnostný kódex.

Uľahčujeme cestu?

K ostražitosti pri vytváraní inteligentných strojov dlhodobo nabádajú ľudia ako geniálny fyzik Stephen Hawking či zakladateľ Tesly a SpaceX Elon Musk.

Zločincom, ktorí by chceli vyvinúť umelé zlo, veľa netechnologických bariér v ceste nestojí. Chýba dohľad, napríklad v podobe medzinárodného výboru, ktorý by vývoj umelej inteligencie kontroloval.

Problémom môže byť aj manipulácia verejnej mienky. Americkí vedci upozorňujú, že niektoré skupiny ju môžu zámerne ovplyvňovať tak, že zľahčujú možnosti inteligentných strojov a tak bránia vytvoreniu účinného dohliadacieho orgánu.

Druhou podmienkou, ktorá výrazne zvyšuje nebezpečenstvo, je existencia uzatvoreného zdroja kódu. K takémuto kódu nemá prístup verejnosť alebo viac skupín odborníkov, zostáva nedosiahnuteľný pre akékoľvek úpravy.

"Medzi kryptografmi a počítačovými expertmi je dobre známe, že softvér so zatvoreným kódom a algoritmom je menej bezpečný ako náprotivok s voľným otvoreným zdrojom (open source). Každá existencia softvéru a hardvéru s uzatvoreným kódom vystavuje ľudstvo väčšiemu riziku," tvrdia analytici.

Manipulácia provokatérmi

Ak má program licenciu open source, viacero ľudí môže vznikajúce chyby opravovať. Na druhej strane je tu riziko, že do kódu, ktorý by vytváral vedomie inteligentného stroja, budú vstupovať hackeri s kriminálnymi úmyslami.

Umelá inteligencia sa v súčasnosti vyvíja oboma smermi a úspechy žnú aj systémy s uzatvoreným kódom.

Robot Googlu triumfoval nad majstrom v starej ázijskej hre go. Facebooku sa darí tiež, i keď sa vo vývoji umelej inteligencie zameriava hlavne na lepšie cielenie reklamy a obsahu.

Väčšina súčasnej umelej inteligencie sa považuje za neškodnú, pretože úlohy, ktoré rieši, nevyzerajú vôbec nebezpečne. Nepredvídanosť inteligentných systémov však dokazuje aj nedávny príklad chatbotu od Microsoftu. Naprogramovaná inteligencia mala na Twitteri priateľsky komunikovať s tínedžermi, ale namiesto toho ju provokatéri zmanipulovali, aby chrlila rasistické poznámky. Incident neohrozil svetový mier, nespôsobil paniku na burze ani nikto neutrpel zranenia. Ukázal však na nestabilitu systému a jeho príliš ľahkú ovplyvniteľnosť.

zdielať
zdielať
mReportér
Komentáre k článku
Zdielajte článok