Dá se vůbec ještě věřit videozáznamům?
O problematice takzvaných deepfake videí, tedy mnohdy opravdu autenticky působících videomontáží, jejichž kvalita se stále posouvá, se mluví již několik let. Nyní byl překročen další pomyslný milník v jejich využívání.
Deepfake technologie dokáže pomocí umělé inteligence a dostatečného množství podkladů (jako jsou například fotografie, videa a nahrávky jednotlivých osob) uměle vytvořit falešná videa, kde zaznamenané osoby mohou říkat prakticky cokoliv, co se autorům zamane. Především pro laiky pak mohou být podobná deepfake videa těžko rozeznatelná (nebo ověřitelná) od reálných záznamů.
V únoru byla v otázce této kontroverzní technologie překročena další hranice. Manoj Tiwari - předseda indické vládní strany Bharatiya Janata Party - využil jako vůbec první politik na světě technologii deepfake ve své oficiální předvolební kampani.
Marketingová společnost The Ideaz Factory pro Tiwariho vytvořila na základě jeho skutečného videa, kde oslovuje voliče, další verze, kde předseda BJP zdánlivě mluví autenticky jazyky a dialekty, které ale reálně neovládá.
To se v jazykově velmi různorodé Indii opravdu hodí, a politik tak může snáze získat přízeň jednotlivých jazykových skupin. V jedné z videomontáží tak Tiwari mluví například dialektem haryanvi, který pro něj namluvil najatý herec, a technologie pak na sebe naroubovala projev a předsedovu tvář.
Watch how BJP used #deepfake in Delhi elections where a voice mimicking Manoj Tiwari is used, making it look like he is speaking.
— Gaurav Pandhi (@GauravPandhi) February 19, 2020
Vid 1: Deepfake in English
Vid 2: Deepfake in Haryanvi
Vid 3: Original Video
Report: https://t.co/8zcKwnSxbL
This is dangerous, should be illegal! pic.twitter.com/WEXb0zaXdl
Video, které se v různých podobách stalo virálním a zvládlo rychle oslovit více než patnáct milionů lidí, se pochopitelně kvůli kontroverzní technologii dočkalo i silné kritiky a volání po zákazech využívaní podobných metod.
Nejen humor a porno
Deepfake technologie za těch několik let prošla už velkou proměnou a o rizicích spojených s ní se mluvilo již od roku 2017. Původně se na internetu rozšířila především jako "zábavná" forma pro tvorbu video parodií. A jak to tak s novými technologiemi bývá, uchytila se rovněž v pornografii. V temných koutech internetu tak začaly ve velkém vznikat nejrůznější erotické videomontáže roubující obličeje oblíbených celebrit na těla pornohvězd.
U nás jsme mohli ze soudku humorných videí na konci loňského roku vidět například prezidenta Miloše Zemana zastávajícího se novinářů, což je něco opravdu nečekaného. Ve skutečnosti se ale jednalo o herce Jana Vlasáka, který na konci ukázal skutečnou tvář.
Krátký klip, který pro HBO vytvořil slovenský umělec vystupující pod přezdívkou Ctrl Shift Face, měl právě humornou formou upozornit na problematiku deepfake videí a zodpovědnou práci s informacemi.
Ctrl Shift Face je ostatně svou humornou prací na internetu proslulý. Jeho youtube kanál, který odebírá skoro 400 tisíc lidí, je plný nejrůznějších parodických deepfake videí, jejichž zhlédnutí jdou někdy až do několika milionů. Velmi oblíbené je například jeho "Home Stallone", kde jako hlavní postava filmu Sám doma vystupuje Sylvester Stallone.
V tomto ohledu je deepfake jistě opravdu zábavná věc, která navíc díky své viralitě ukazuje lidem, že podobné videomontáže nejsou nemožné, a ti se tak mohou snáz vyvarovat falešným videím sloužícím k manipulaci.
Kurzy
Finance
Kurzovní lístek: 2.11.2024 Exchange s.r.o.
EUR | 25,270 | 25,350 |
USD | 23,290 | 23,430 |