Falešná videa, deepfaky a další digitální manipulace dnes představují reálnou hrozbu pro každého z nás. Doba, kdy jsme mohli věřit tomu, co vidíme na videu, je definitivně pryč. S nástupem AI nástrojů jako je Sora, Heygen nebo Synthesia vznikají videa, která vypadají velmi reálně – ale nejsou. Často se tváří, že je vytvořil důvěryhodný zdroj nebo že zachycují známou osobnost.
Stejně jako u jiných témat kolem kybernetické bezpečnosti i zde platí, že uživatel je nejslabším článkem řetězce a základní znalosti jsou klíčem k bezpečí. Jak poznat, že jde o podvrh? A co s tím můžete dělat, i když nejste ajťák?
Nevěřte všemu, co vidíte
Deepfake technologie umí vytvořit video, ve kterém třeba Tom Cruise hází mincí (i když to nikdy neudělal) nebo politik vyzývá k něčemu, co nikdy neřekl. AI nástroje dnes zvládnou nasadit cizí tvář do cizího kontextu, vygenerovat hlas, který zní jako originál, a to všechno během pár minut. Nemá problém ani s celými scénami nebo generováním videí z fotek tak, že je běžný uživatel jen těžko odhalí. Důsledky mohou být závažné – od šíření dezinformací až po poškození pověsti konkrétních osob.
Ukázky falešných videí
- Viral AI trend depicts Americans as factory workers after Trump’s tariff pledge
- Deepfake Tom Cruise magic trick
- Full Queen Elizabeth II song
- Will Smith AI pasta eating (past vs present)
- Jak skvělá je Praha anglicky
- Jak skvělá je Praha japonsky
- Mona Lisa mluví o AI
Jak poznat falešné video – 5 základních otázek
AI videa poznáte podle jemných detailů. Často nejde o očividné chyby. Spíš o drobnosti – zvláštní pohyby očí, “nalepený” obličej, nesoulad mezi mimikou a hlasem. Při sledování podezřelého videa se zkuste soustředit na těchto 5 oblastí:
- Obraz – Je pohyb rtů přirozený? Mrká ta osoba normálně? Není obličej rozmazaný kolem okrajů? Sledujte detaily obličeje: AI manipulace často selhávají v detailech – například u pohybu očí, úst nebo v odrazech světla na pokožce.
- Zvuk – Nezní hlas roboticky nebo příliš čistě? Odpovídá tón emocím, které vidíte? Všímejte si nesrovnalostí ve zvuku. Nesoulad mezi pohybem rtů a zvukem je častým znakem falešného videa. Nebo zkontrolujte pozadí. Umělá inteligence mívá problém s přesným vykreslením pozadí nebo s objekty v pohybu.
- Obsah – Nedává to video až moc smysl? Není až moc dramatické nebo šokující?
- Zdroj – Najdete stejné video i jinde? Např. na ČT24, BBC nebo Reuters? Ověřte zdroj: Stejně jako u jiných typů obsahu, i zde platí, že důvěryhodnost zdroje je zásadní.
- Kontext – Je video aktuální? Nejde o záběr vytržený z jiného prostředí?
Nástroje na odhalování falešných videí
Podle zdrojů z univerzity v Mnichově dokáží pokročilé algoritmy, jako je například FaceForensics++, odhalit manipulace s přesností až 78 % – což je výrazně více než běžný uživatel, který má úspěšnost jen kolem 50 %.
Když si tedy nejste jistí, zkuste použít například některý z následujících nástrojů:
- Deepware Scanner – zkontroluje, jestli video nevykazuje znaky deepfaku
- InVID – rozdělí video na snímky a pomůže ověřit jejich původ
- Google Lens – reverzní vyhledávání obrázků
- YouTube DataViewer – získá metadata o videu
- Reality Defender – profesionální detekce AI obsahu v reálném čase
Co dělat, když vám někdo pošle podezřelé video
- Zeptejte se sami sebe: Proč mi to ten člověk posílá?
- Zkuste video najít na důvěryhodných platformách.
- Nahrajte snímek z videa do nějakého AI asistenta (Gemini, ChatGPT atd.) a nechte si ho analyzovat.
Není třeba panikařit, jen být ve střehu
Cílem není propadnout paranoie. Spíš si osvojit jednoduché návyky, které vás ochrání. Stejně jako jsme se naučili neklikat na každý e-mail od „banky“, můžeme se naučit rozeznávat i podivná videa. A nebojte – nemusíte být hacker, stačí používat selský rozum.
Zaujalo vás toto téma? Pokud ano, tak sledujte můj blog, kde najdete další praktické tipy, jak zůstat v digitálním světě v bezpečí. Nebo mrkněte na nabídku kurzů.