Umělá inteligence (AI) je marketingově prezentována jako vše – od revoluce produktivity až po téměř autonomního rozhodovatele.
S tím, jak se však nástroje AI začleňují do každodenního provozu, sílí obavy z toho, co nastane, když se sliby po zakoupení AI produktů nenaplní.
Problémy – od nadsazených tvrzení o přesnosti až po neprůhledné metriky výkonu – vedly některé k otázce: jaké možnosti nápravy existují, když systémy AI podávají horší výkon, než bylo slibováno?
Tento rozpor upoutal pozornost úřadů na ochranu spotřebitele, právníků i expertů na AI, kteří upozorňují, že marketingová tvrzení je třeba reálně vymáhat.
V roce 2025 vedly spekulace o průlomech v generativní AI – jedné z nejpoužívanějších podob této technologie – k tomu, co Neil Sahota, hlavní vynálezce IBM a poradce OSN pro AI, označil za „falešné marketingové taktiky“.
Tento jev se nazývá „AI washing“.
Podobně jako pojem „greenwashing“, který označuje klamavé prezentování produktu jako ekologického či udržitelného, znamená AI washing praxi, kdy firmy uvádějí nepravdivá tvrzení nebo zveličují schopnosti modelů AI, aby tyto modely působily vyspěleji, přilákaly investice nebo získaly konkurenční výhodu na trhu.
Federální obchodní komise USA (FTC) se proto ujala vedoucí role v iniciativách, jejichž cílem je hnát společnosti zabývající se AI k odpovědnosti za jejich produkty. V roce 2024 agentura představila operaci Operation AI Comply, v jejímž rámci oznámila kroky v oblasti vymáhání práva proti firmám využívajícím „humbuk v oblasti AI“.
Cílem iniciativy bylo zakročit proti používání nástrojů AI ke „klamání, uvádění v omyl nebo podvodům“.
„FTC se zaměřuje na to, aby společnosti v oblasti AI mohly rychle inovovat a zároveň byla zachována bezpečnost, zabezpečení a objektivita platforem AI v souladu s Prezidentským akčním plánem pro AI,“ uvedl pro deník Epoch Times zástupce ředitele oddělení veřejných záležitostí FTC Christopher Bissex.
Bissex dodal, že mezi nedávné kroky agentury patří mimo jiné vydávání příkazů proti firmám, které uvádějí nepravdivá tvrzení o přesnosti či účinnosti svých AI produktů, podávání žalob na společnosti s klamavými marketingovými tvrzeními a také provádění studií zaměřených na to, jak firmy přistupují k potenciálním rizikům spojeným s AI chatboty, zejména pokud jde o děti.

Právní rámec
Christopher Trocola, zakladatel kyberbezpečnostní společnosti ARC Defense Systems, uvedl, že mezera v odpovědnosti není způsobena nedostatkem regulací.
„Jde o nedostatek pochopení, že stávající zákony se na AI už vztahují. Firmy si myslí: ‚Neexistuje žádná specifická legislativa pro AI, takže nejsme odpovědní,‘“ řekl pro Epoch Times.
Trocola uvedl, že chápe úskalí vznikajících odvětví a po zkušenostech z roku 2017, kdy podobné „vzorce selhání“ málem zničily solární průmysl, nyní buduje rámce pro dodržování předpisů v oblasti AI. Tehdy vedl poradenskou činnost v oblasti compliance, která ochránila kontrakty v hodnotě milionů dolarů, a spolupracoval s FTC.
Firmy nechápou, že jejich AI v reálném čase vytváří porušení předpisů podle zákonů, které jsou vymahatelné už desítky let.
Christopher Trocola,
zakladatel, ARC Defense Systems
Dnes je jeho cíl poněkud jiný.
„Dohlížím na to, aby AI neničila lidi,“ řekl.
Podle něj lze na modely AI uplatnit řadu existujících regulací.
Skutečný problém podle Trocoly spočívá v tom, že „firmy nechápou, že jejich AI v reálném čase vytváří porušení předpisů podle zákonů, které jsou vymahatelné už desítky let“.
„Soudy nečekají na ‚zákony o AI‘. Uplatňují stávající rámce už teď,“ uvedl.
„Dobrovolné závazky nabízejí jen malou ochranu, pokud jsou porušovány platné zákony, a většina firem nemá žádnou auditní stopu, která by prokazovala, že nejednaly nedbale.“
Bob Gourley, technický ředitel kyberbezpečnostní a AI poradenské společnosti OODA, uvedl: „Vymáhání v oblasti klamavých tvrzení, například v rámci ochrany spotřebitele, je v příštích letech pravděpodobné, protože už existují zavedené mechanismy.“

„Na druhou stranu by bylo obtížné vymáhat nedodržování bezpečnostních záruk, protože neexistují žádné předpisy týkající se nedodržování [AI] v této oblasti,“ řekl Gourley pro Epoch Times.
Daňový právník Chad Silver, zakladatel společnosti Silver Tax Group, uvedl, že se s problémy spojenými s regulací slibů AI firem setkal přímo v praxi.
„Dobrovolné samoregulační dohody mezi technologickými giganty a vládou dnes nemají v americkém federálním právu žádnou právní sílu,“ řekl Silver pro Epoch Times. „Můj tým je svědkem toho, jak vývojáři softwaru ujišťují o souladu s daňovými předpisy a současně se vyhýbají odpovědnosti prostřednictvím agresivních licenčních smluv, které zbavují firmy veškeré odpovědnosti. Tyto podniky tvrdí, že jejich algoritmy splňují pokyny daňového úřadu IRS, přesto však nejsou schopny vytvořit auditní stopu, když úřad vydá formální předvolání.“
„Dostali jsme se z dluhu ve výši 167 000 dolarů, protože jsme prokázali, že klient jednal na základě doporučení automatizovaného systému, který mu poskytl nepravdivé informace,“ uvedl. „Nejúčinnější formou odpovědnosti je zatím soudní řízení, protože soudy nařizují dokazování a přiznávají skutečné náhrady škody poškozeným spotřebitelům.“
V roce 2025 zveřejnil výzkumný projekt Massachusettského technologického institutu s názvem Networked AI Agents in Decentralized Architecture, že navzdory investicím do generativní AI přesahujícím 40 miliard dolarů, získalo 95 procent podniků nulovou návratnost investic.
Na základě systematického přezkumu více než 300 iniciativ v oblasti AI, rozhovorů s 52 organizacemi a odpovědí ze šetření mezi 153 lídry v odvětví nabídla analýza střízlivý pohled na realitu AI za hranicemi marketingových kampaní.
Analýza společnosti RAND Corporation přinesla podobné závěry a zjistila, že více než 80 procent projektů v oblasti AI selže – což je dvojnásobná míra neúspěšnosti oproti IT projektům bez využití AI.
Obhájci AI produktů poukazují na nedostatečné manažerské porozumění a zkreslené metriky používané k měření úspěšnosti technologie po jejím nasazení. Platforma pro hodnocení softwaru a služeb G2 zveřejnila studii, podle níž má 57 procent firem již nasazené AI agenty v produkčním provozu – nikoli pouze v pilotní fázi – a vykazují krátký cyklus mezi testováním a škálováním technologie.
95 %
Navzdory investicím přesahujícím 40 miliard dolarů do generativní umělé inteligence, 95 procent firem získalo z těchto investic nulovou návratnost, vyplývá z výzkumného projektu MIT z roku 2025.

Analýza G2 dále uvádí, že 83 procent dotázaných kupujících uvedlo spokojenost s výkonem svých AI agentů.
Naproti tomu Boston Consulting Group provedla v roce 2025 studii mezi více než 1 250 firmami po celém světě a zjistila, že pouze 5 procent z nich dosahovalo získané hodnoty z AI ve velkém měřítku. Navíc 60 procent společností uvedlo, že nezískává žádnou hmatatelnou hodnotu nebo hlásí jen minimální příjmy navzdory „značným investicím“.
Současný přístup je obrácený naruby. Všichni auditují ‚řízení AI‘, což znamená sledování zaměstnanců používajících AI. To je špatný cíl. Musíme auditovat bezpečnost AI – tedy to, co samotná AI dělá.
Christopher Trocola,
zakladatel, ARC Defense Systems
Někteří odborníci tvrdí, že klíčem k tomu, aby firmy dokázaly rozpoznat, zda byly ve svých AI investicích uvedeny v omyl, je větší transparentnost a audity.
„Důvěryhodný audit by zahrnoval zkoumání modelu na úrovni samotného jádra, bezpečnostní kontroly, prověření původu dat i organizační řízení,“ uvedl Gourley.
„Audit by měl rovněž zkoumat tréninková data, výkon, zkreslení, odolnost vůči zneužití a strategie zmírňování rizik. Měl by probíhat pravidelně, například jednou ročně, přičemž část výsledků by měla být zveřejněna ve formě shrnutí, zatímco specifické organizační otázky by zůstaly neveřejné, protože představují obchodní tajemství.“
Trocola uvedl, že je přesvědčen, že způsob auditování AI je třeba změnit.
„Současný přístup je obrácený naruby. Všichni auditují ‚řízení AI‘, což znamená sledování zaměstnanců používajících AI. To je špatný cíl. Musíme auditovat bezpečnost AI – tedy to, co samotná AI dělá.“

Podle něj by tento typ auditu měl zahrnovat například tzv. AI drift – postupné zhoršování výkonu a přesnosti modelu AI v průběhu času, včetně halucinací, úniků informací a zkreslení.
„Právě proto selhává 70 až 80 procent podnikových projektů v oblasti AI. Sledují špatnou věc,“ řekl Trocola.
Silver uvedl, že se domnívá, že jsou nezbytné audity výkonu prováděné třetími stranami.
„Regulační prostředí poskytovatelů průlomových [AI] modelů je konfliktní, protože státní zákony od nich vyžadují podávání zpráv o roční spotřebě energie a tréninkových datech,“ uvedl. „Třetí strana by měla každých šest měsíců auditovat váhy a zkreslení modelu a tento proces by měl být důvěryhodný.“
Gourley výrazně zdůraznil význam transparentnosti AI.
„Standardy by měly přesně vymezovat dokumentaci návrhu modelu, zdrojů dat, omezení, analýzy rizik a plánů jejich zmírňování, přičemž tyto požadavky by měly být přizpůsobeny každé z oblastí s vysokým dopadem,“ uvedl.
Dodal, že certifikaci by měl zajišťovat hybridní orgán nebo veřejná instituce USA, například Národní institut pro standardy a technologie (NIST), případně regulátoři AI spolupracující s nezávislými odborníky.
Dne 11. prosince 2025 vydal Bílý dům exekutivní příkaz s názvem „Zajištění národního politického rámce pro umělou inteligenci“, který slíbil „minimálně zatěžující“ regulační strukturu zahrnující pracovní skupinu pro soudní spory v oblasti AI, vyhodnocení státních zákonů o AI a možné federální standardy pro podávání zpráv a zveřejňování informací.

Výzkumníci z Institutu pro umělou inteligenci zaměřenou na člověka při Stanfordově univerzitě předpověděli, že po letech „miliardových sázek“ by rok 2026 mohl být zlomovým okamžikem pro AI – obdobím, kdy bude skutečná užitečnost technologie podrobena detailnímu zkoumání.
„Nadcházející rok vyžaduje důslednost místo humbuku,“ uvádí článek Stanfordu. „Otázka už nezní ‚Dokáže to AI?‘, ale ‚Jak dobře, za jakou cenu a pro koho?‘“
Světové ekonomické fórum v prosinci 2025 uvedlo, že pokud byl rok 2025 rokem „AI humbuku“, pak by tento rok mohl být rokem jeho „zúčtování“.
–ete–
