Michael Clements

15. 11. 2025

ATLANTA – Novinář Fred Riehl se 4. května 2023 přihlásil do ChatGPT, aby si vyhledal informace o soudním sporu mezi Second Amendment Foundation (SAF) a generálním prokurátorem státu Washington.

Chatbot mu předložil výbušnou zprávu.

Podle ChatGPT byl populární podcaster SAF Mark Walters obviněn z „podvodu a zpronevěry finančních prostředků SAF“.

Chatbot uvedl, že Walters jako pokladník a finanční ředitel nadace „zneužil prostředky na osobní výdaje bez povolení či náhrady, manipuloval s účetními záznamy a bankovními výpisy, aby zakryl své aktivity, a neposkytoval vedení SAF přesné a včasné finanční zprávy a výkazy“.

Je to přesně ten typ příběhu, po kterém novináři pátrají. Jenže byl zcela vymyšlený.

Umělá inteligence (AI) mění mnoho oblastí společnosti. Právo, zábavní průmysl, medicína i masová média zápasí s novými morálními a etickými otázkami. Nakolik můžeme věřit, že stroje poskytnou spolehlivé informace? A kdo nese odpovědnost, když se technologie mýlí?

Průměrný youtuber, podcaster nebo bloger si možná ani neuvědomuje, že technologie, která jim pomáhá vytvářet obsah, o nich zároveň může šířit nepravdivé informace – a zároveň minimalizovat jejich možnosti, jak se bránit.

Walters říká, že musel spolknout obě hořké pilulky.

Walters je moderátorem podcastu „Armed American Radio“. Podal – a prohrál – vůbec první žalobu pro pomluvu založenou na informacích vytvořených umělou inteligencí. Překvapilo ho, když zjistil, že zákon zajímá pravda méně, než jeho povolání.

„Víte, dnes stojíme před otázkou, kdo je vlastně veřejně známou osobou. Oni proti mně tuto kartu vytáhli – a uspěli,“ řekl Walters deníku Epoch Times.

Riehl psal na internetu o otázkách druhého dodatku a zná jak Walterse, tak Alana Gottlieba, výkonného viceprezidenta SAF. Přestože Walters zasedá v představenstvu Občanského výboru pro právo držet a nosit zbraně, což je organizace spojená se SAF, s žalobou ve státě Washington neměl nic společného.

Ze soudního spisu vyplývá, že Riehl se několikrát dotazoval chatbotu na informace o žalobě SAF. ChatGPT odpověděl, že jeho žádosti nemůže vyhovět.Riehl proto poskytl odkaz na žalobu SAF a požádal ChatGPT o její shrnutí.

Člověk používá softwarové rozhraní umělé inteligence ChatGPT na notebooku; ilustrační foto. Právníci společnosti OpenAI uvedli – a soud jim dal za pravdu – že ChatGPT opakovaně upozorňuje, že poskytované informace mohou být nepřesné či zcela nepravdivé.
Člověk používá softwarové rozhraní umělé inteligence ChatGPT na notebooku; ilustrační foto. Právníci společnosti OpenAI uvedli – a soud jim dal za pravdu – že ChatGPT opakovaně upozorňuje na to, že poskytované informace mohou být nepřesné či zcela nepravdivé.

Riehla reakce chatbotu zaskočila. Zavolal Gottliebovi, který ho ujistil, že obvinění nejsou pravdivá. Gottlieb poté kontaktoval Walterse.

„Pamatuji si, že to bylo na moje narozeniny, 5. května. Pamatuji si to i proto, že mi volal Alan Gottlieb a první, co řekl, bylo… ‚sedíš?‘“ uvedl Walters.

Byl omráčený. Chatbot totiž nejen poskytl informace, ale rovnou vytvořil i to, co by kdokoli neobeznámený se soudem mohl pokládat za skutečné soudní dokumenty.

„[V tom dokumentu stálo] Alan Gottlieb, SAF versus Mark Walters, měl falešné číslo spisu, číslo případu – všechno. A kdokoli, kdo nikdy neviděl soudní dokument nebo úřední listinu, dokonce i když je viděl, by si mohl myslet, že je to oficiální. Proto to Freda přimělo zavolat Alanovi,“ uvedl Walters.

ChatGPT tvrdil, že smyšlený případ byl podán u „Okresního soudu Spojených států, v západním okresu Washington v Seattlu“. Vyhledávání v záznamech federálního soudu však neodhalilo žádnou žalobu týkající se Walterse.

Riehl nereagoval na e-maily se žádostí o komentář k tomuto článku. Neodpověděla ani společnost OpenAI, která vlastní ChatGPT.

Právníci OpenAI soudu sdělili, že ChatGPT měl „halucinace“.

Mark Walters ve svém studiu u Atlanty, 18. října 2025. Walters podal vůbec první žalobu na pomluvu proti společnosti OpenAI kvůli nepravdivým informacím o něm, které vygeneroval ChatGPT. (Michael Clements / The Epoch Times)
Mark Walters ve svém studiu u Atlanty, 18. října 2025. Walters podal vůbec první žalobu na pomluvu proti společnosti OpenAI kvůli nepravdivým informacím o něm, které vygeneroval ChatGPT. (Michael Clements / The Epoch Times)

ChatGPT se učí

Kirk Sigmon je právník působící ve Washingtonu, D. C., který se specializuje na duševní vlastnictví a patenty v oblasti počítačového a elektrotechnického inženýrství. Má zkušenosti s velkými jazykovými modely – procesem, jehož prostřednictvím se ChatGPT učí.

Řekl, že není zcela jasné, jak přesně se ChatGPT učí; tyto podrobnosti nejsou veřejně dostupné, protože jde o chráněné informace společnosti OpenAI. Přesto jsou známy alespoň některé základní principy, uvedl.

Podle Sigmona je často mylnou představou, že umělá inteligence je jen pokročilý vyhledávač, který uživatelům předává informace jako digitální encyklopedie.

Mělo by to být proti zákonu. Nikdo by neměl mít právo použít moji podobu nebo můj hlas bez mého souhlasu.

Matt Walsh, politický komentátor

Ve skutečnosti, pokud je vyhledávač encyklopedií, pak je AI spíše jako student postgraduálního studia – poskytuje informace, ale zároveň se průběžně učí. A stejně jako student se někdy mýlí. Sigmon uvedl, že systém je navržen tak, aby sbíral informace z jakéhokoli dostupného zdroje – včetně samotných dotazů uživatelů.

„A protože jsou tyto modely trénovány tak, jak jsou – aby se učily, nikoli aby si vše zapamatovaly – tak to znamená, že inherentně nikdy nebudou dokonalé,“ řekl.

Nedávná interakce mezi známým podcasterem a jeho AI dvojníkem ukazuje, jak se AI učí.

V epizodě svého podcastu z 25. října zavolal konzervativní politický komentátor Matt Walsh chatbotu, který byl navržen tak, aby ho napodoboval. Walsh řekl, že zážitek byl znepokojivý.

„Tohle není v pořádku; nic z toho není v pořádku. Tohle by nemělo být legální,“ řekl Walsh během podcastu.

Matt Walsh hovoří na War Memorial Plaza během shromáždění „Rally to End Child Mutilation“ v Nashvillu 21. října 2022. Walsh ve svém podcastu volal chatbot, který ho napodoboval, a uvedl, že zážitek byl znepokojivý. (Bobby Sanchez / The Epoch Times)
Matt Walsh hovoří na War Memorial Plaza během shromáždění „Rally to End Child Mutilation“ v Nashvillu 21. října 2022. Walsh ve svém podcastu volal chatbot, který ho napodoboval, a uvedl, že zážitek byl znepokojivý. (Bobby Sanchez / The Epoch Times)

Během rozhovoru AI verze Walshe tvrdila, že má sedmnáctiletou nevlastní dceru jménem Sofia. Když Walsh botovi řekl, že jsou jeho informace chybné, chatbot odsekl: „Tak mi tedy řekněte jména svých šesti dětí.“

AI Walsh také vyjadřoval podporu manželství osob stejného pohlaví a transgenderismu – tedy věcem, proti nimž skutečný Walsh vystupuje. Walsh sehrál významnou roli při změně zákonů státu Tennessee, které zakázaly transgenderové lékařské zákroky u dětí.

Vyjádřil se pro podobný zákaz používání AI k napodobování skutečných osob.

„Mělo by to být proti zákonu. Nikdo by neměl mít právo použít moji podobu nebo můj hlas bez mého souhlasu,“ řekl Walsh. „Měl bych mít možnost podat žalobu, aby to zmizelo.“

Podle současného práva Walsh žalobu podat může, ale čelil by stejnému problému jako Walters.

Riehl zprávě nevěřil, a proto volal Gottliebovi. Walters také uznal, že neutrpěl žádnou skutečnou škodu, protože informaci viděli jen Riehl, Gottlieb a on sám – a všichni věděli, že je nepravdivá.

Veřejně známé osoby musí prokázat nejen to, že nepravdivá informace poškodila jejich pověst, ale také, že vydavatel neprovedl nezbytné kroky k ověření pravdivosti informací.

Hlavním faktorem, který hrál proti Waltersovi, byl jeho status veřejně známé osoby s omezeným účelem (limited-purpose public figure).

Ve většině států je standard pro pomluvu soukromé osoby poměrně nízký. Pokud je člověk vystaven veřejnému posměchu nebo pokud je poškozena jeho pověst, soukromá osoba má v žalobě pro pomluvu obvykle šanci uspět.

U veřejně známých osob je však laťka výše. Veřejně známá osoba – politik, bavič, nebo třeba moderátor rozhlasové show – je někdo, kdo aktivně vyhledává publikum. Tím, že na sebe upozorňuje, zároveň zve k větší veřejné kontrole. Musí tedy prokázat nejen to, že nepravdivá informace poškodila jeho pověst, ale také, že vydavatel neprovedl nezbytné kroky k ověření pravdivosti informací.

Walters by musel prokázat, že OpenAI jednala s bezohledným ignorováním pravdy.

Návštěvník nahlíží do telefonu vedle loga OpenAI během veletrhu Mobile World Congress – největšího každoročního setkání telekomunikačního sektoru – v Barceloně, 26. února 2024. Podle jednoho právníka je AI navržena tak, aby čerpala informace z jakéhokoli dostupného zdroje, včetně dotazů, které jí uživatelé pokládají.
Návštěvník nahlíží do telefonu vedle loga OpenAI během veletrhu Mobile World Congress – největšího každoročního setkání telekomunikačního sektoru – v Barceloně, 26. února 2024. Podle jednoho právníka je AI navržena tak, aby čerpala informace z jakéhokoli dostupného zdroje, včetně dotazů, které jí uživatelé pokládají.

Právníci OpenAI upozornili – a soud s nimi souhlasil – na to, že ChatGPT během práce uživateli opakovaně sděluje, že poskytované informace mohou být nepřesné či zcela nepravdivé.

Počítač se však nedokáže starat o to, zda jsou informace nepravdivé, zvlášť pokud zapadají do algoritmu. Sigmon uvedl, že pokud se ukáže, že první odpověď je chybná, AI jednoduše přehodnotí výsledek.

Domnívá se, že přesně to se stalo, když se Riehl ptal ChatGPT na žalobu. Systém neměl potřebné údaje, a tak Riehl svou otázku přeformuloval – a chatbot počítal znovu a znovu, dokud nedosáhl odpovědi, která se „zdála fungující“.

Matthew B. Harrison, viceprezident Talkers Magazine, odborného časopisu pro odvětví zpravodajského a rozhlasového vysílání, řekl, že podle jeho názoru byl Waltersův případ ukončen předčasně. Existují podle něj právní a etické otázky, které sahají dál než jen k Waltersovu statusu veřejné osoby a které zůstávají nevyřešené.

Otázky autorských práv

Harrison upozornil, že velká část dat, z nichž se AI učí, podléhá autorským právům.

Kdyby Walters uspěl, logickou další otázkou by bylo, kdo je zde právně odpovědný. Systém zpracovává nespočet datových útržků. A omezit odpovědnost na jediný zdroj nepravdivé informace je nereálné – bez ohledu na to, zda jde o určení zdroje porušení autorských práv, nebo pomluvy.

Aplikace ChatGPT od OpenAI (uprostřed, druhá zprava) a ikony dalších AI aplikací na obrazovce smartphonu v Oslu v Norsku, 12. července 2023. Podle jednoho právníka je často mylnou představou, že AI je jen pokročilý vyhledávač fungující jako digitální encyklopedie. (Olivier Morin / AFP via Getty Images)
Aplikace ChatGPT od OpenAI (uprostřed, druhá zprava) a ikony dalších AI aplikací na obrazovce smartphonu v Oslu v Norsku, 12. července 2023. Podle jednoho právníka je často mylnou představou, že AI je jen pokročilý vyhledávač fungující jako digitální encyklopedie. (Olivier Morin / AFP via Getty Images)

„Zjistit, odkud informace pochází, a tedy být schopný říct, že ji firma ukradla, zneužila nebo cokoli podobného, je nemožný úkol,“ řekl Walters.

Dodal, že se rozhodl proti rozhodnutí soudce nepodat odvolání, protože nemá prostředky na dlouhý právní spor. Nakonec ale podle něj jeho případ upozornil na problém, který je třeba řešit.

Řekl, že jedna věc ho stále dráždí: že se falešný příběh označuje jako „halucinace“ AI.

Walters uvedl, že existuje mnohem stručnější výraz, kterému většina lidí okamžitě porozumí: „Lhali o mně.“

„Jak víte, oni těm lžím říkají halucinace, takže je dokonce pojmenovali. Vědí, že to systém dělá. A jak říká můj právník: Vypustili toho robota do světa, přestože vědí, že tohle dělá – a to je špatně.“

ete

Epoch sdílení

Facebook
Twitter
LinkedIn
Truth Social
Telegram