U videí nemusí vždy jít jen o takzvaná deepfake videa, kde například vystupuje někdo jiný, ale o videa, která na první pohled vypadají normálně a jejich sledující si ani neuvědomí, že jsou vygenerovaná.
Podle Tomáše Pohla, majitele agentury Justmighty, jsou videa generovaná umělou inteligencí obrovským problémem a velkým tématem. Neřeší ani tak, že by AI mohla lidem vzít práci, to vidí jako přirozenou ruku trhu, pokud to zvládne, ale vidí zásadní problém ve společenských dopadech takového obsahu a má strach o nás jako o společnost.
Jan Skovajsa, CEO, investor a zakladatel společnosti myTimi, říká, že deepfake technologie posouvají hranice kreativního vyprávění, ale zároveň rozmazávají hranici mezi realitou a fikcí. Není tak hlavním problémem samotná technologie, ale kontext a upřímnost jejího použití.
Videa s nulovými hranicemi
Na sociálních sítích je možné narazit na nejrůznější videa. Od těch vtipných a očividně nereálných až po ta, co jdou opravdu těžce rozeznat. Například na jednom z nich se odehrává dramatická scéna ze safari:
Tomáš Pohl je člověk z oboru, inteligentní a zkušený, a přesto přiznává, že pravidelně i několikrát týdně narazí na video, u kterého mu nedojde, že není reálné. I já občas podlehnu fake news, deep fakeu apod. Toto už není jako moje babička, která věří tomu co jí přišlo v řetězovém e-mailu. Toto je alternativní realita. A je otázka kdo ji tvoří a proč,
doplňuje.
Ten, kdo bude umět s těmito nástroji pracovat, si podle Pohla vytvoří svoji realitu. A kdo to bude? Rusko? Čína? KLDR? Tomio Okamura? Nebo jen někdo kdo se bude nudit a stráví na tom 30 minut a bude ho to stát 20$? Nebo žárlivá bejvalka vytvoří video jak podvádím svoji novou holku a tu to semele tak, že si třeba ublíží? To je možné už dnes, nic kromě morálního kreditu lidí tomu nebrání. Jsme natolik morálně silní?,
popisuje dále.
Při rozpoznávání se může člověk někdy řídit tím, že je na videu zřetelně vidět nějaký vodoznak, případně název AI modelu. Jako zde v případě videa vytvořeného pomocí modelu Sora:
Druhý problém s AI generovaným obsahem, zejména u krátkosekvenčních videí je podle Tomáše Pohla kvantita a kvalita obsahu, která se hrne do lidí a nulové hranice v tom, co na nich je. Chceš vidět jak někdo ochutnává kávu? Chceš vidět Stephena Hawkinga na U-rampě? Chceš vidět jak kosatka zachránila surfaře?,
ptá se s tím, že tato videa v těchto dnech skutečně viděl.
Dále se Tomáš Pohl zamýšlí nad tím, kdo to potřebuje a proč s tím, že z toho budeme úplně vygumovaní jako společnost. Dokážete si představit až toto bude běžné v pornografii? V kombinaci s VR už člověk nebude vycházet z domu? Film Ready Player One není science fiction. Je to realita, která nás čeká v příští dekádě,
myslí si.
A víte co je na tom nejvtipnější? Nás nikdo AI videi neoklamává. My se naprosto dobrovolně chceme nechat oklamávat. My se na to těšíme. My toužíme po tom, abychom byli oklamáni co nejlépe a kdo nás oklame nejlíp, tomu zaplatíme nejvíc,
shrnuje Tomáš Pohl.
Technologie může být přínosná
Jan Skovajsa podotýká, že když je technologie takových videí využita se souhlasem všech zúčastněných a s jasným záměrem, může být přínosná a legitimní. Problém podle něj nastává ve chvíli, kdy klame publikum nebo využívá identitu bez vědomí a svolení. Pokud používám deepfake technologii s vědomím všech zúčastněných a záměr je jasný, je to legitimní. Jakmile ale technologie klame publikum nebo využívá identitu bez souhlasu, je to manipulace — bez ohledu na to, jak působivě to vypadá,
upozorňuje.
V závěru pak Skovajsa připomíná, že aby si firmy zachovaly důvěryhodnost i v době generativní AI, měly by přijmout několik principů:
- Transparentnost: jasně označit, že jde o AI-generovaný nebo upravený obsah.
- Ověřitelnost: přidávat metadata, watermarky nebo systémy pro ověření původu.
- Souhlas: nikdy nepoužívat tvář, hlas či jméno bez svolení.
- Auditovatelnost: archivovat původní materiály a dokumentovat tvorbu.