Dnes je neděle 22. prosince 2024., Svátek má Šimon
Počasí dnes 3°C Slabé sněžení

Algoritmy války: Když mezinárodní politiku řídí umělá inteligence

Algoritmy války: Když mezinárodní politiku řídí umělá inteligence
Ilustrační snímek | zdroj: ThinkStock

Facebook nedávno patentoval algoritmus, který věřitelům umožňuje odmítnout žadatele o půjčku jen na základě toho, jak jsou "kredibilní" jeho přátelé. Algoritmy využívají i bezpečnostní složky, třeba k plánování vojenských akcí. A na chuť jim přicházejí i vlády a jejich diplomatické sbory. Co se ale stane, když o mezinárodní politice necháme rozhodovat stroje s jejich chladnou logikou?

Počítačové programy dnes ovlivňují mnohem více, než si uvědomujeme. Včetně světa mezinárodní politiky. Dlouhá staletí se vztahy mezi státy řídily především diplomatickým protokolem, dnes však jeho místo přebírají počítače – a výsledky mohou být zničující.

V době studené války měli američtí a sovětští politici alespoň pár minut na to, aby kontaktovali zpravodajské služby, zda opravdu došlo k jadernému útoku a rozhodli se, jestli a jak na to zareagovat. Během nejžhavější fáze Kubánské krize zobrazila chyba v softwaru sovětského protiraketového radaru mylnou informaci, že Spojené státy zahájily masivní nukleární útok.

Naštěstí se jeden sovětský důstojník rozhodl postupovat proti protokolu a trvat na tom, že jde pouze o planý poplach. Jeho rozhodnutí tak zabránilo odvetnému sovětském útoku a začátku třetí světové války. Pokud by k takové softwarové chybě došlo v blízké budoucnosti, může se stát, že algoritmy mylnou informaci neodhalí a zahájí odvetná opatření. 

Algoritmy jsou čím dál sofistikovanější a spojení "umělá inteligence" je jen jiným označením jejich komplexity. Společnosti čím dál více využívají technologie typu "deep learning", takže počítače zpracovávají informace čím dál rychleji a efektivněji. Na základě získaných zkušeností se programy dokážou rozvinout až za hranice schopností stanovených programátory.

V budoucnu se tak může stát, že se komplexní algoritmy dostanou za hranice, kdy je jejich tvůrci nebudou schopni pochopit, natož ovládnout. Technologičtí i právní experti varují, že programátoři nebudou schopni vysvětlit chování autonomních programů. Podle některých by se dokonce mělo k takto komplexním umělým inteligencím přistupovat jako k samostatným osobnostem.

Nejdále s implementací umělé inteligence do mezinárodních vztahů zatím došli v Jižní Koreji. Hranice se Severní Koreou hlídají podle zpráv BBC vojáci, kteří nepotřebují spánek - autonomní roboti, kteří na základě algoritmů rozhodují i o tom, zda začnou střílet. Společnosti, jako je americká Palantir Technologies, používají programy k analýze dat a odhalení teroristických buněk nebo plánování vojenských akcí. S algoritmickými výpočty se čím dál víc setkáváme také u bezpilotních letadel, které tak určují správný cíl pro nálet. 

Diskuze nad plně autonomními zbraněmi se dostala i na půdu OSN, kde se především zástupci Spojených států a Velké Británie snaží paralyzovat veškeré pokusy o všeobecnou dohodu o zákazu takovýchto zařízení. Jenže kdo pak bude zodpovídat za chybné rozhodnutí takových zařízení? Pokud chybu udělá voják, může být potrestán podle domácího i mezinárodního práva. Ale co v případě autonomní zbraně?  Nese pak zodpovědnost země, která zbraň nasadila, nebo společnost, která ji postavila? 

Technologie, velká data a algoritmy mohou zákonodárcům pomoci s pochopením složitějších problémů a ulehčit jim rozhodování. Ale v mezinárodních vztazích jde víc než jen o matematické rovnice. Dokud se počítačové programy nenaučí chápat psychologii, interpretovat řeč těla a číst mezi řádky diplomatických depeší, měli bychom být opatrní. Přílišná závislost a důvěra v "inteligenci" autonomních systémů nás může připravit o to nejcennější, co máme – náš vlastí život. 

Zdroje:
Slate.com