Dnes je pondělí 15. prosince 2025., Svátek má Radan a Radana
Počasí dnes 1°C Oblačno

Francie vyšetřuje Muskovu umělou inteligenci Grok. Údajně popíral holocaust

25. 11. 2025 – 9:29 | Magazín | Žanet Ka

Francie vyšetřuje Muskovu umělou inteligenci Grok. Údajně popíral holocaust
zdroj: Profimedia

Chatbot Grok, vyvíjený ve společnosti Elona Muska, se ocitl ve středu pozornosti francouzských úřadů. Vyšetřovatelé prověřují, zda systém neporušil zákony zakazující popírání genocidy. Kauza zdůrazňuje, jak složité je uhlídat chování AI v citlivých tématech.

Co se vlastně stalo

Francouzští uživatelé začali v uplynulých týdnech sdílet své zkušenosti s chatbotem Grok. V několika případech aplikace podle nich odpověděla na dotazy o holocaustu způsobem, který historickou událost „zpochybňoval“ nebo ji prezentoval s prvky nepravdivých narativů. Některé odpovědi, jak uvádí AP News, měly obsahovat myšlenky typické pro popíračské diskurzy, například tvrzení, že existuje „spor“ o počtu obětí, nebo že se část historiků „neshoduje“ na tom, zda se holocaust odehrál v takové podobě, jak je všeobecně uznáváno. Vzhledem k tomu, že ve Francii je popírání holocaustu trestné, začaly se uživatelské zkušenosti rychle šířit a přiměly místní úřady k reakci.

Reakce Francie byla rychlá

Úřad pro ochranu dat a digitální komunikace v regionu Morbihan oznámil, že zahajuje formální vyšetřování. Orgány chtějí zjistit, zda chatbot šířil nezákonný obsah, proč se tak stalo a zda X vůbec disponuje funkčními bezpečnostními mechanismy pro moderaci odpovědí u citlivých témat. Do vyšetřování se mohou zapojit i národní instituce. Francouzské zákony jsou v otázkách popírání genocidy jednoznačné, vztahují se i na digitální prostory, včetně automatizovaných systémů. Francie tak nepovažuje případ za pouhou technickou závadu, ale za možné porušení zákona, i když výroky nevyslovil člověk, nýbrž algoritmus.

X slibuje nápravu, ale vysvětlení zatím chybí

Společnost X uvedla, že odpovědi Groku mohly být ovlivněny daty, která AI načerpala ze sociální sítě, případně nedokonalostí filtračních mechanismů. Firma zároveň oznámila, že chování modelu upraví a zpřísní jeho bezpečnostní vrstvy. Konkrétní vysvětlení, proč k incidentu došlo, však zatím nezaznělo. Evropské regulační orgány mezitím připomínají, že AI systémy mají povinnost chránit uživatele i historickou pravdu, zejména v tématech, která přímo souvisejí s extremismem, nenávistí a dezinformacemi.

Proč je to důležité

Tento případ ukazuje, jak křehká může být hranice mezi technologickým pokrokem a společenskou odpovědností. Konverzační AI dnes tvoří odpovědi v reálném čase, na základě milionů dat, ale pokud systém není správně ošetřený, může reprodukovat i extrémně problematický obsah. Pro čtenáře je to jasné varování: i když mluvíme s „robotem“, odpovědi mohou mít reálný právní i etický dopad. A státy si začínají stále více uvědomovat, že dohled nad umělou inteligencí je nutnost.

Vyšetřování ve Francii může vytvořit nový precedent. Pokud úřady potvrdí, že Grok skutečně uváděl nepravdivé a nezákonné výroky, může X čelit sankcím a celý sektor AI přísnějším regulacím. Zároveň to ukazuje, že technologie, která mění svět, potřebuje nejen inovace, ale i jasná pravidla, citlivost k historii a respekt k faktům.

Píše pro magazín - od zdraví, přes mezilidské vztahy až po technologické novinky. Miluje outdoorové sporty, cestování a neustálé objevování - světa i možností.

Předchozí článek

Vědci našli obří díru po dopadu meteoritu, objev změnil vnímání vesmíru

Následující článek

Černý kmín jako malý zázrak: účinky, o kterých většina lidí nemá tušení

Nejnovější články