Technologie, která dokáže během pár sekund napsat text, vytvořit grafiku nebo analyzovat data, budí nadšení a obrovská očekávání. To je pochopitelné: sama vidím, jak dramaticky dokáže AI práci ulehčit.
Co se dozvíte v článku
- Kdo pracuje s AI, musí vědět, co dělá
- Komu patří to, co AI vytvoří?
- Bez autorské ochrany není užívací právo
- Není jasné, jak AI dochází k výsledkům
- Pozor na licenční podmínky
- Jaká data tedy nedoporučuji zadávat do nástrojů umělé inteligence?
- Bez jasných pravidel je používání AI ve firmě hazard
- Tip redakce
Jenže na druhé straně stojí právní realita, která je často mnohem méně populární než samotná technologie. Generativní AI má neuvěřitelný potenciál, ale zároveň představuje rizika, která mnoho firem podceňuje.
Denně slýchám případy o zaměstnancích, kteří do AI bezhlavě nahrávají osobní údaje, konkurenční dokumenty, interní strategie nebo know-how, aniž by si uvědomili, že z právního hlediska je to totéž, jako by je vyložili veřejně na stůl. Vnímám velké riziko v tom, že firmy AI používají rychleji, než stíhají pochopit, co všechno její používání znamená.
Kdo pracuje s AI, musí vědět, co dělá
Situace se ještě více změnila 2. února 2025, kdy začala platit první část povinností podle evropského AI Actu. A ta přináší jasný vzkaz: kdo pracuje s AI, musí vědět, co dělá. Nestačí rychlý onboardingový e-mail nebo jednorázové školení. Je potřeba skutečné porozumění: omezením AI, jejím chybám, rizikům práce s daty i odpovědnosti, která padá na zaměstnavatele.
Právě tato kombinace, fascinace AI a nepochopení jejích právních dopadů, mě vede k tomu, abych na jednom místě shrnula, co považuji za největší rizika používání generativní AI jako tvůrce firemního obsahu, s čím se reálně setkávám v praxi a jak se tomu dá účinně předejít. Protože generativní AI není jen nový nástroj. Je to technologie, která může firmě ušetřit hodiny práce, nebo způsobit problémy, které bude zaměstnavatel řešit měsíce.
Komu patří to, co AI vytvoří?
Pokud využíváte tvorbu AI pro vaše marketingové materiály, obsah vašich sociálních sítí, nebo dokonce jako součást svého produktu, je nutné se ptát: Komu vlastně patří to, co AI vytvoří?
Na první pohled jednoduchá otázka, ale většinu lidí překvapí, když uslyší odpověď:
Nikomu.
Když ve firmách sleduji, jak se pracuje s generativní AI, pravidelně narážím na stejný omyl: mnoho lidí automaticky předpokládá, že výstupy AI mají podobný status jako text či obrázek vytvořený člověkem. Český autorský zákon je ovšem v jedné věci naprosto nekompromisní: autorem může být vždy jen člověk. Ne software, ne algoritmus, ne model, byť sebechytřejší. Autorské právo stojí na myšlence, že za dílem stojí lidská tvořivost. Nějaký osobní vklad, rozhodnutí, individuální rukopis. Sama umělá inteligence dle českého autorského práva a rozhodnutí soudů nic z toho nemá. A to je důvod, proč se na výstup AI nevztahuje ochrana jako na běžné autorské dílo.
Pravidelně se setkávám s otázkou, zda by autorem nemohl být alespoň člověk, který AI zadává prompt. Je pravda, že kvalita promptu často zásadně ovlivní, co model vygeneruje. Ale právně jde stále o instrukci, nikoli o tvůrčí vyjádření díla. V roce 2023 to ostatně výslovně potvrdil Městský soud v Praze, když uvedl, že prompt je pouze námět či myšlenka a myšlenky se podle zákona nechrání. I velmi propracovaný prompt je pořád jen pokyn: směr, ne finální tvůrčí výsledek.
Zajímavým kontrastem je několik zahraničních rozhodnutí, zejména z Číny, kde soudy přiznaly autorství uživateli, pokud jeho zásahy do výsledku byly natolik výrazné, že určovaly podobu díla více než samotná umělá inteligence. Tento přístup sleduji s velkým zájmem: ukazuje, že hranice mezi „kliknutím na tlačítko“ a skutečným tvůrčím přínosem se může v budoucnu posouvat. V českém prostředí však podobná rozhodnutí zatím nepadla a soudní praxe je velmi konzistentní: samotné zadání promptu nestačí a autorské právo uživateli nevzniká.
Tuto debatu může do budoucna významně ovlivnit i žádost o přezkum ve věci Thaler, kterou aktuálně posuzuje Nejvyšší soud USA. Pokud by Nejvyšší soud USA tuto žádost přijal k projednání, mohl by se poprvé přímo vyjádřit k tomu, zda je pro vznik autorského práva nezbytné, aby autorem byl člověk a případně tento dosavadní přístup změnit.
Občas se v diskusích objevuje i teorie, že autorské právo by mohlo vzniknout samotnému vývojáři nebo poskytovateli konkrétní služby AI. Tuto možnost je ovšem rovněž nutno vyloučit. Vývojář dle práva poskytuje pouze nástroj, nic víc. Je to podobné, jako kdybychom tvrdili, že výrobce štětců je autorem každého s nimi namalovaného obrazu. A pak jsou tu občasné úvahy o tom, zda by autorem nemohla být rovnou samotná AI. Umělá inteligence ovšem dle práva není autorem. Nemůže tedy nést autorská práva.
Když to celé shrnu jednoduše: výstup generativní AI dnes není v českém právním řádu autorským dílem. Nevzniká k němu autorské právo. Nikomu. Ne uživateli, ne vývojáři, ne poskytovateli. Je to výsledek technického procesu.
Bez autorské ochrany není užívací právo
A v praxi to má jeden velmi důležitý následek, který si firmy často neuvědomují:
k něčemu, co nemá autorskoprávní ochranu, nemůže existovat ani výlučné užívací právo. Výstup lze používat. Lze s ním pracovat. Lze ho zahrnout do vlastních materiálů. Ale nelze tvrdit, že je „váš“ v tom smyslu, jak jsme zvyklí u klasických autorských děl.
Dle mého názoru je právě tato šedá zóna něco, co si musí uvědomit každý, kdo chce umělou inteligenci v byznysu používat. Nadšení pro AI je skvělé, ale vždy by k němu mělo patřit i pochopení jejích právních limitů. A autorskoprávní status výstupů je tou úplně první hranicí, kterou je potřeba znát.
A tady se dostáváme k jednomu z největších nepochopení v praxi. Mnoho firem se domnívá, že výstupy jsou jejich. Že když je vytvoří AI v rámci pracovního procesu, mohou s nimi zacházet jako s jakýmkoli jiným podkladovým materiálem. Jenže tento pocit nemá žádnou oporu v zákoně. Výstup není chráněný a tím pádem není ani výlučný. Vámi vygenerovaný materiál tedy může „beztrestně“ užívat i váš největší konkurent, kterému se podaří z generativní umělé inteligence dostat obdobný výsledek.
Není jasné, jak AI dochází k výsledkům
Zároveň je nutné pamatovat na skutečnost, že nikdo nedokáže přesně říci, jak umělá inteligence dochází ke svým výsledkům. V praxi to znamená, že i když výstup vypadá originálně, může být nepříjemně podobný něčemu, co už dávno existuje. V USA se právě kvůli tomuto problému už rozjela první vlna žalob na vývojáře umělé inteligence. Velká filmová studia tvrdí, že generativní modely byly trénovány na jejich chráněných filmech, scénářích a jiných materiálech bez souhlasu. Podle jejich argumentace tak AI vytváří obsah, který je postavený na dílech, k nimž nikdo neudělil potřebnou licenci. A protože nikdo neví, co přesně bylo součástí trénovacích dat, není možné vyloučit, že výstup AI nevědomky zasahuje do cizích práv.
Tato nejistota je jedním z největších praktických rizik. Jako uživatel prostě nemáte možnost ověřit, jestli AI nepracovala s materiály, které byste bez licence od autora správně nesměli použít. A pokud by výstup skutečně připomínal cizí dílo nebo jej neoprávněně kopíroval, odpovědnost nedopadne na vývojáře, ale na toho, kdo jej použil, tedy na vás. To je realita, se kterou je potřeba počítat při každodenní práci s AI.
Pozor na licenční podmínky
To vede k dalšímu problému, který považuji za kritický: podnikatelé často vůbec nečtou licenční podmínky nástrojů, které používají. Přitom zrovna u AI je to jedna z nejdůležitějších věcí. Poskytovatelé si totiž velmi často vyhrazují široká práva k užívání výstupů uživatelů i k datům, která se do AI vloží. Někteří mohou obsah dále analyzovat, uchovávat, nebo využívat k tréninku modelů.
Mnoho nástrojů, typicky třeba ChatGPT od OpenAI vám sice ve svých smluvních podmínkách slibuje, že si ponecháváte práva k obsahu, který vygenerujete, nebo že veškerá práva na vás převádí. Ale když budete číst poctivě, zjistíte, že poskytovatel této umělé inteligence si zároveň nechává poměrně široké možnosti, jak s tímto obsahem pracovat. Výstupy může používat k provozu a zlepšování služby, může je uchovávat, analyzovat a někdy i využívat k tréninku modelů.
Podle mého názoru je proto naprosto zásadní řídit se tím, co stojí v podmínkách používání. To, co na první pohled vypadá jako váš obsah, může mít v praxi řadu háčků. Omezení mohou být skrytá v tom, jaké licence vlastně poskytovatel získává, jak přistupuje k vašim datům nebo do jaké míry může generovat podobné výstupy i jiným uživatelům. A to vše se přímo dotýká vašeho byznysu.
A tím se dostáváme k tomu, čím AI raději vůbec „nekrmit“. Většina generativních modelů si ve svých podmínkách výslovně vyhrazuje právo dále používat vše, co do nich zadáte, nejen výsledky, ale i vstupní data. Nikdo vám férově neřekne, kolik lidí nebo systémů se k těmto datům může v nějaké podobě dostat. Proto osobně vždy doporučuji přístup: co byste nepověsili na nástěnku u recepce, to nedávejte ani do AI.
To platí obzvlášť ve světle toho, že v českém právním prostředí zatím neexistuje speciální úprava odpovědnosti za používání AI. Uplatní se klasická pravidla: občanskoprávní odpovědnost za škodu a pracovněprávní odpovědnost zaměstnance vůči zaměstnavateli. V praxi to znamená, že firma, která nástroje generativní AI používá, nese primární odpovědnost za škody způsobené jejich použitím. Ať už jde o únik dat, diskriminační rozhodnutí, nebo třeba použití cizího autorského díla bez licence.
Jaká data tedy nedoporučuji zadávat do nástrojů umělé inteligence?
1. Autorská díla třetích osob
Pokud si řeknete: „Tahle konkurenční brožura je skvělá, nahrajeme ji do AI a necháme si udělat něco podobného,“ je to přesně situace, kdy si koledujete o problém. Samotné nahrání cizího díla do AI, jeho kopírování či napodobování bez souhlasu může znamenat zásah do autorských práv. Rozhodně neplatí kouzelná formulka „ať to není poznat“.
V praxi doporučuji pracovat s legálním podkladovým obsahem: fotobanky, videobanky, oficiálně licencované materiály, kde jsou licence a podmínky užití jasně dané.
2. Osobní údaje
GDPR platí i v době AI stejně jako dřív. Osobní údaje je možné zpracovávat jen tehdy, když je jasné, kdo je zpracovává, k jakému účelu a jakým způsobem. U generativní AI je tohle často neprůhledné. Není zřejmé, kde data končí, kdo k nim má přístup a jak dlouho se uchovávají. To představuje zásadní riziko dlouhodobých úniků nebo zneužití.
Praktické doporučení mám jednoduché: citlivá a osobní data vždy anonymizovat, až potom případně pracovat s AI.
3. Obchodní tajemství a interní informace
Know-how, specifické receptury, strategické plány, cenové modely, připravované projekty nebo návrhy smluv – to vše tvoří podstatu konkurenční výhody firmy. Pokud je někdo bez rozmyslu vloží do AI, vzniká reálné riziko, že se tyto informace časem „rozpustí“ v datech, ze kterých model čerpá při svém učení. I když poskytovatel slibuje ochranu soukromí a bezpečnosti, v praxi je často velmi těžké zjistit, jak přesně jsou data uchovávána, kdo je může zpracovávat a zda se nevyužívají při dalším tréninku. Pro firmy, které stojí na unikátním know-how, je to až existenční riziko.
4. Citlivé informace
Do AI mohou nenápadně odtékat i jiné citlivé informace, které nejsou osobními údaji, ale mají velkou hodnotu. Typicky finanční údaje, interní strategie a plány, výzkum a vývoj nebo detailní podmínky smluv s partnery. Pokud se takové informace dostanou ven nebo se v nějaké podobě objeví jinde, může to mít dopady od ztráty reputace, přes poškození vztahů s partnery, až po velmi konkrétní finanční škody. A z právního pohledu se velmi rychle dostáváme do režimu porušení mlčenlivosti a případných náhrad škody či smluvních pokut.
Bez jasných pravidel je používání AI ve firmě hazard
Z toho plyne jednoduché, ale zásadní ponaučení: bez jasných interních pravidel je používání AI ve firmě hazard. Nestačí říct: používejte to s rozumem. Je potřeba zaměstnancům srozumitelně vysvětlit, jaká data do AI patří a jaká ne, jaká rizika vznikají při nahrávání dokumentů, jak funguje odpovědnost a co hrozí, pokud se něco pokazí.
AI Act na to navazuje tím, že zdůrazňuje povinnost firem zajistit odpovídající úroveň znalostí a dovedností lidí, kteří s AI pracují.
Je proto ideální kombinace tří věcí: pravidelné školení, rozumně napsaná interní směrnice a jasně určené odpovědné osoby. Školení proto, aby lidé věděli, co dělají. Směrnice proto, aby měli jasná pravidla. A odpovědné osoby proto, aby měli na koho se obrátit, když si nejsou jistí.
Teprve tehdy přestává být generativní AI náhodným rizikem a stává se nástrojem, který lze používat efektivně a zároveň bezpečně: pro firmu i pro její zaměstnance.
Tip redakce
Třetina firem není připravena na velké změny. V roce 2026 je čeká krize komunikace. Přečtěte si další komentář.
Podcast Teorie bulharské konstanty ŽIVĚ, pojďte se s námi potkat v Klubovně
Vstupenky jsou k dostání na webu GoOut. Těším se na vás.