Algoritmy války: Když mezinárodní politiku řídí umělá inteligence

MAGAZÍN - Magazín autor: Miloš Krejčí

Facebook nedávno patentoval algoritmus, který věřitelům umožňuje odmítnout žadatele o půjčku jen na základě toho, jak jsou "kredibilní" jeho přátelé. Algoritmy využívají i bezpečnostní složky, třeba k plánování vojenských akcí. A na chuť jim přicházejí i vlády a jejich diplomatické sbory. Co se ale stane, když o mezinárodní politice necháme rozhodovat stroje s jejich chladnou logikou?

Ilustrační snímek

Ilustrační snímek , zdroj: ThinkStock

Počítačové programy dnes ovlivňují mnohem více, než si uvědomujeme. Včetně světa mezinárodní politiky. Dlouhá staletí se vztahy mezi státy řídily především diplomatickým protokolem, dnes však jeho místo přebírají počítače – a výsledky mohou být zničující.

V době studené války měli američtí a sovětští politici alespoň pár minut na to, aby kontaktovali zpravodajské služby, zda opravdu došlo k jadernému útoku a rozhodli se, jestli a jak na to zareagovat. Během nejžhavější fáze Kubánské krize zobrazila chyba v softwaru sovětského protiraketového radaru mylnou informaci, že Spojené státy zahájily masivní nukleární útok.

Naštěstí se jeden sovětský důstojník rozhodl postupovat proti protokolu a trvat na tom, že jde pouze o planý poplach. Jeho rozhodnutí tak zabránilo odvetnému sovětském útoku a začátku třetí světové války. Pokud by k takové softwarové chybě došlo v blízké budoucnosti, může se stát, že algoritmy mylnou informaci neodhalí a zahájí odvetná opatření. 

Algoritmy jsou čím dál sofistikovanější a spojení "umělá inteligence" je jen jiným označením jejich komplexity. Společnosti čím dál více využívají technologie typu "deep learning", takže počítače zpracovávají informace čím dál rychleji a efektivněji. Na základě získaných zkušeností se programy dokážou rozvinout až za hranice schopností stanovených programátory.

V budoucnu se tak může stát, že se komplexní algoritmy dostanou za hranice, kdy je jejich tvůrci nebudou schopni pochopit, natož ovládnout. Technologičtí i právní experti varují, že programátoři nebudou schopni vysvětlit chování autonomních programů. Podle některých by se dokonce mělo k takto komplexním umělým inteligencím přistupovat jako k samostatným osobnostem.

Nejdále s implementací umělé inteligence do mezinárodních vztahů zatím došli v Jižní Koreji. Hranice se Severní Koreou hlídají podle zpráv BBC vojáci, kteří nepotřebují spánek - autonomní roboti, kteří na základě algoritmů rozhodují i o tom, zda začnou střílet. Společnosti, jako je americká Palantir Technologies, používají programy k analýze dat a odhalení teroristických buněk nebo plánování vojenských akcí. S algoritmickými výpočty se čím dál víc setkáváme také u bezpilotních letadel, které tak určují správný cíl pro nálet. 

Diskuze nad plně autonomními zbraněmi se dostala i na půdu OSN, kde se především zástupci Spojených států a Velké Británie snaží paralyzovat veškeré pokusy o všeobecnou dohodu o zákazu takovýchto zařízení. Jenže kdo pak bude zodpovídat za chybné rozhodnutí takových zařízení? Pokud chybu udělá voják, může být potrestán podle domácího i mezinárodního práva. Ale co v případě autonomní zbraně?  Nese pak zodpovědnost země, která zbraň nasadila, nebo společnost, která ji postavila? 

Technologie, velká data a algoritmy mohou zákonodárcům pomoci s pochopením složitějších problémů a ulehčit jim rozhodování. Ale v mezinárodních vztazích jde víc než jen o matematické rovnice. Dokud se počítačové programy nenaučí chápat psychologii, interpretovat řeč těla a číst mezi řádky diplomatických depeší, měli bychom být opatrní. Přílišná závislost a důvěra v "inteligenci" autonomních systémů nás může připravit o to nejcennější, co máme – náš vlastí život. 

Tagy: zahraničí věda a technika mezinárodní vztahy mezinárodní politika zajímavosti a kuriozity geopolitika inovace a technologie

Zdroje: Slate.com