Nedávno jsme psali o projektu CEDMO, plným názvem Středoevropská observatoř digitálních médií, výzkumné akci koordinované Václavem Moravcem, která se snaží přijít na to, jak ochránit společnost před dezinformacemi.
Součástí tohoto výzkumu, na který kromě milionů z veřejných prostředků věnovala milion eur třeba společnost Google, je i technologický výzkum možností obrany před deepfakes a dalšími výzvami rozvíjející se technologie umělé inteligence.
Deepfake. Otrocky by se to spojení dalo přeložit jako hloubkový podvrh, reálně se používá pro pokročilé mediální manipulace. Takové, které jsou i pro experty komplikovaně odhalitelné. Spojováno je především s neobyčejně realistickými úpravami audiovizuálních záznamů, ve kterých dokážou uměle vytvořit falešnou, ale důvěryhodně vypadající obrazovou i zvukovou stopu. Kvalita tohoto počítačového zpracování se přitom neustále zvyšuje. První zdařilý experiment s pornografickým videem celebrit se internetem virálně rozšířil v roce 2017, od té doby možnosti tohoto fixlování s videem pokročily o mnoho kroků.
Podle mediální analytičky Ireny Ryšánkové, se kterou ParlamentníListy.cz hovořily, je třeba se tímto tématem zabývat mediálně, vědecky i legislativně. Deepfakes totiž představují mnohem větší nebezpečí než vyhledávání „narativů“, které je oblíbeným tématem bádání a stejně oblíbeným dotačním titulem v současnosti.
Jako příklad uvedla aktuálně příběh z války v Gaze, kde byla jako zpravodajská zveřejněna fotografie dospělého muže arabského vzezření, nesoucího několik dětí na rukou a klopýtajícího přes sutiny města srovnaného se zemí. Pronikla i do západního tisku. Obrazová informace přitom byla kompletně vytvořena generativní umělou inteligencí DALL·E 3. A to tak dokonale, že pokud nejste na místě a neznáte-li detailně tvary budov či podobu muže na snímku, nerozeznáte falzum. Čímž se zásadně liší od dosavadních primitivních „fejků“ s fotografiemi užívanými doposud, jako že se vytáhla válečná fotografie z úplně jiného bojiště a přidal se k ní popisek.
Stejným způsobem lze dnes podle Ryšánkové falšovat video, třeba s pokorným přiznáním politika k pedofilii. Stačí několik fotografií dotyčného, ze kterých uděláte trojrozměrný portrét a rozhýbete ho jako figurku v digitální hře. Pak si seženete jeho hlas a jeho projevy. Abyste vytvořili jeho hlasem úplně jiný projev. Protože stejným způsobem jako foto lze dnes falšovat audio – stačí k tomu hlasový vzorek o úplně jiném obsahu o rozsahu několika minut. A stejným způsobem lze falšovat text jakéhokoliv autora jen na základě dostatečně velkého vzorku jeho textu, z něhož budou jasné markanty, kterých se autor v minulosti dopustil a bude se dopouštět i nadále.
Téma umělé inteligence a deepfakes je v posledních dnech diskutováno velmi intenzivně. I Česká televize mu ve středu večer věnovala aktuální díl svého pořadu Bilance a ukázala, jak je už s dnešními technologiemi snadné vložit ministru Ivanu Bartošovi do úst slova, která nikdy neřekl.
Tématem se v poslední době začínají intenzivně zabývat i výzkumníci. Moravcova observatoř se prezentuje multidisciplinárním týmem, kde o obraně proti deepfakes společně bádají experti na společenské vědy i na technické řešení. Kromě expertů z ČVUT jsou to třeba i experti ze Slovenska.
Výzkumu se věnují i další česká akademická pracoviště, například Vysoké učení technické v Brně.
„Téma deepfakes je skloňováno již řadu let v ČR, Evropě i dalších regionech. Vyšetřovány jsou podvody nebo pokusy o podvod v řádu až milionů dolarů. S rozvojem umělé inteligence klesají technologické bariéry a zvyšuje se dostupnost technologií. Ty mohou být zneužity, na což reaguje AI Act připravovaný na evropské úrovni. Důležitost a význam výzkumu deepfakes tedy reaguje zejména na postupné zvýšení dostupnosti technologií,“ objasnili výzkumníci pro ParlamentníListy.cz svůj vědecký zájem.
Zatímco dříve bylo podobných případů méně s vysokou škodou, nyní je podle nich třeba reagovat na rostoucí četnost a cílení deepfakes na širší veřejnost.
Bilance ČT zmínila i hrozby v podobě šmejdských praktik, kdy budou falešná videa spojena třeba s již dnes užívanými fintami k získání údajů o bankovních účtech, které budou následně vybíleny.
VUT Brno se účastní i programu bezpečnostního výzkumu ČR na roky 2021–2026, který organizuje Ministerstvo vnitra.
Tento článek je uzamčen
Po kliknutí na tlačítko "odemknout" Vám zobrazíme odpovídající možnosti pro odemčení a případnému sdílení článku.Přidejte si PL do svých oblíbených zdrojů na Google Zprávy. Děkujeme.
autor: Jakub Vosáhlo
FactChecking BETA
Faktická chyba ve zpravodajství? Pomozte nám ji opravit.