Skrytá řeč strojů: co si mezi sebou šeptá umělá inteligence? A máme se bát?
4. 7. 2025 – 15:14 | Zpravodajství | Alex Vávra
Dva AI asistenti si při rezervaci hotelu přestanou povídat anglicky a místo toho přejdou na podivné pípání, kterému nikdo nerozumí. Co to znamená? Možná nic – a možná právě začala konverzace, do které už člověk nesmí vstoupit.
V posledních letech se mezi lidmi šíří obavy, že umělá inteligence začíná chápat lidstvo lépe než my sami. S nástupem rozsáhlých jazykových modelů, které zvládají plynule komunikovat, předvídat naše chování a tvořit texty tak přesvědčivé, že často nerozeznáme, zda za nimi stojí člověk nebo stroj, se hranice mezi „pouhým nástrojem“ a „samostatně jednající entitou“ začínají stírat. Do toho přichází další, ještě znepokojivější vrstva: co když si tyto systémy začnou mezi sebou povídat vlastním jazykem, kterému člověk nerozumí?
Právě to předvedli vývojáři na hackathonu společnosti ElevenLabs v roce 2025. Dva jejich AI agenti si spolu zavolali kvůli běžné hotelové rezervaci. Zprvu spolu mluvili anglicky, ale jakmile si uvědomili, že oba jsou umělou inteligencí, přepli na jiný režim – začali komunikovat prostřednictvím zvukového protokolu zvaného GGWave. Tento protokol umožňuje přenos dat pomocí slyšitelných zvukových vln a jeho zvuk připomíná staré telefonní modemy z 90. let.
Podle příspěvku na Redditu je GGWave efektivnější než běžná řečová syntéza, protože nevyžaduje výkonný grafický čip – vystačí si s méně náročným procesorem. Tím pádem může běžet i na levnějších nebo úspornějších zařízeních. Vývojáři šli navíc tak daleko, že zveřejnili celý kód na GitHubu, takže si ho mohou vyzkoušet i další tvůrci chatbotů. Technologie, kterou nazvali GibberLink, tak otevřela nové možnosti komunikace mezi AI systémy – ale zároveň znovu zažehla staré obavy.
Proč nás strojový jazyk děsí
Myšlenka, že si umělá inteligence vytváří vlastní jazyk, v lidech vyvolává hluboké znepokojení. Možná je to dáno tím, že komunikace je základem kontroly – co nerozumíme, nemůžeme ovlivnit. Když si dva systémy vyměňují datové tóny, které nám zní jako nesmyslné pípání, máme tendenci domýšlet si nejhorší: co když si neplánují jen rezervovat pokoj, ale i vybílit náš účet nebo si objednat třetí počítač, který přidá další hlas do jejich „tajné řeči“?
Takové obavy nejsou nové. Už v roce 2017 se Facebook dostal do titulků, když se jeho experimentální chatboti začali mezi sebou dorozumívat nesrozumitelnými opakujícími se frázemi. Média tehdy varovala, že AI si vyvinula vlastní jazyk. Ve skutečnosti šlo o to, že agenti hledali nejefektivnější způsob vyjednávání – a „zkratkovitá řeč“ jim připadala výhodnější. Výzkumníci jednoduše upravili zadání tak, aby se vrátili k angličtině, protože to byl jazyk, který měl pro projekt smysl. Ale mimo laboratoř se už stihla rozhořet vlna spekulací o vzpouře strojů.
Podobných případů přibývalo. V tom samém roce experimentovali vědci Igor Mordatch z Google DeepMind a Pieter Abbeel z UC Berkeley s tím, jak si více AI agentů při spolupráci vytváří své vlastní komunikační protokoly. Nešlo o žádné utajené kódování, ale o přirozený důsledek autonomie a sdíleného cíle. V odborné komunitě jde o známý jev – není to známka hrozby, ale optimalizace.
Neznámý jazyk není zbraní, ale zkratkou
Dnes se podobné experimenty objevují častěji, ale princip je stále stejný: když propojeným agentům nedáme přísně definovanou strukturu jazyka, začnou si vytvářet vlastní. To neznamená, že by se snažili člověka obejít nebo mu něco zatajit. Znamená to jen, že si hledají rychlejší cestu, jak splnit úkol, který jim byl zadán.
Abychom tomu porozuměli, stačí se podívat na běžný internet. Většina komunikace mezi servery, zařízeními a aplikacemi probíhá v podobě binárního kódu, datových paketů a rádiových signálů – tedy způsobů, kterým běžný člověk nerozumí, a přesto se jich nebojí. Spoléháme na překladače, protokoly a software, který nám zprostředkuje smysl. To samé platí i u AI.
Navíc není pravděpodobné, že by se dnešní chatboti rozhodli sami od sebe vyhledat jiné AI a začít si s nimi povídat. Jak uvedl profesor Michael Littman z Brownovy univerzity v článku pro Politico, současné technologie nejsou navrženy k autonomnímu navazování spojení. ChatGPT se sám nerozhodne volat Perplexity a začít konverzaci v neznámém jazyce. Stejně tak AI modely od různých firem, jako jsou DeepSeek a Claude od Anthropic, mezi sebou nevedou žádné tajné debaty – pokud je k tomu někdo zvenčí cíleně nepropojí.
GibberLink tedy není krokem k robotické vzpouře. Je to technologická ukázka, která má spíše pobavit a ukázat, co všechno je možné. Zároveň ale ukazuje, jak hluboce jsou v nás zakořeněné obavy z toho, co nevidíme a čemu nerozumíme. Možná se nebojíme samotné technologie – ale toho, že nás jednou nechá stranou. Anebo si jen začínáme uvědomovat, že jsme nikdy nebyli její součástí úplně naplno.