Autumn Spredemann

30. 10. 2025

Zatímco se u malých i velkých firem rozbíhá celosvětový závod o zavedení umělé inteligence (AI), odborníci varují před rostoucími obavami o bezpečnost dat.

S ohledem na to, jak schopnosti AI rychle rostou, upozorňují odborníci na kybernetickou bezpečnost a ochranu soukromí, že stejné modely, které dokážou odhalovat podvody, zabezpečovat sítě či anonymizovat záznamy, mohou zároveň zpětně odhalovat identity, znovu sestavovat odstraněné údaje a odhalovat citlivé informace. Vyplývá to ze zprávy společnosti McKinsey & Company zveřejněné v květnu.

Podle zprávy o míře odolnosti firem v oblasti kybernetické bezpečnosti od Accenture z roku 2025 postrádá 90 procent firem moderní technologie potřebné k obraně proti hrozbám využívajícím AI. Zpráva obsahuje poznatky 2 286 odborníků na bezpečnost a technologie z 24 odvětví ve 17 zemích, kteří hodnotili připravenost na útoky využívající umělou inteligenci.

Od začátku letošního roku centrum Identity Theft Resource Center potvrdilo 1 732 případů narušení dat. Upozornilo také, že „stále častější phishingové útoky poháněné umělou inteligencí“ jsou čím dál sofistikovanější a obtížněji rozpoznatelné. Nejvíce postihují finanční služby, zdravotnictví a odborné profese.

„Je to předvídatelný důsledek technologie, která byla nasazena závratnou rychlostí – často rychlejším tempem, než s jakým dokázal držet krok organizační řád, regulační předpisy a ostražitost uživatelů. Základní způsob konstrukce většiny generativních systémů AI činí tento výsledek téměř nevyhnutelným,“ uvedl pro deník Epoch Times přehledně Danie Strachan, hlavní právník pro ochranu soukromí ve společnosti VeraSafe.

Protože jsou systémy AI navrženy tak, aby pro trénink vstřebávaly obrovské objemy dat, vytváří to zranitelnosti.

„Když zaměstnanci – často s nejlepším úmyslem – poskytnou systémům AI citlivé firemní informace, ať už jde o strategické dokumenty, důvěrná data klientů nebo interní finanční záznamy, tato data se stanou součástí systému, nad nímž má poté firma jen malou nebo žádnou kontrolu,“ vysvětlil Strachan.

To platí zejména v případech, kdy jsou používány běžné uživatelské verze těchto nástrojů a nejsou aktivována ochranná opatření.

„Je to velmi podobné tomu, jako kdybyste své důvěrné soubory připnuli na veřejnou nástěnku a doufali, že si je nikdo neokopíruje,“ uvedl Strachan.

Aplikace Grok, DeepSeek a ChatGPT zobrazené na obrazovce smartphonu v Londýně 20. února 2025. Od začátku roku potvrdilo centrum Identity Theft Resource Center 1 732 případů narušení dat. (Justin Tallis / AFP / Getty Images)
Aplikace Grok, DeepSeek a ChatGPT zobrazené na obrazovce smartphonu v Londýně 20. února 2025. Od začátku roku potvrdilo centrum Identity Theft Resource Center 1 732 případů narušení dat. (Justin Tallis / AFP / Getty Images)

Mnohovrstevná hrozba

Existuje několik způsobů, jak se mohou osobní údaje člověka dostat do nepovolaných rukou nebo být odhaleny prostřednictvím nástrojů s umělou inteligencí.

Kromě známých útoků hackerů a krádeží se to může dít i jistým mechanismem, který výzkumníci označují jako „únik soukromí“ (privacy leakage).

Veřejně přístupné velké jazykové modely (LLM) jsou právě častým zdrojem „úniků“ či narušení dat.

Podle společnosti Obsidian Security letos bezpečnostní výzkumník zjistil, že na webu Archive.org bylo volně přístupných 143 000 uživatelských dotazů a konverzací z populárních LLM modelů, včetně ChatGPT, Grok, Claude a Copilot.

„Tento objev navazuje na nedávné zprávy o tom, že dotazy z ChatGPT byly indexovány vyhledávači, například Googlem. Podobné incidenty nadále prohlubují obavy z úniků dat a neúmyslného zveřejňování citlivých informací prostřednictvím platforem AI,“ uvádí zpráva Obsidianu.

„Nejvyšší riziko představuje neúmyslné zveřejnění citlivých dat při interakci zaměstnanců s veřejně dostupnými nástroji AI,“ řekl Strachan.

Dodal, že v ohrožení nejsou jen osobní údaje, ale i firemní informace, protože velké množství lidí používá LLM modely při pracovních úkolech.

„S rozšířením multimodálních systémů AI (systémů, které umí komunikovat skrze více druhů dat, jako jsou obrázky, zvukové záznamy a další) se riziko týká dokumentů, tabulek, přepisů a zvukových záznamů ze schůzek i videoobsahu. Jakmile jsou tato data jednou sdílena, mohou být využita k tréninku budoucích modelů a následně se objevit v odpovědích jiným uživatelům – včetně konkurence,“ upozornil Strachan.

K únikům dat však nedochází pouze prostřednictvím jazykových modelů. Chatboti s umělou inteligencí mohou mít přístup prakticky ke všem oblastem digitálního světa.

„Ve třetím čtvrtletí jsem zaznamenal 47 případů úniku dat na herních platformách, z nichž naprostá většina souvisela s chatboty s umělou inteligencí, které měly neomezený přístup k backendovým systémům,“ uvedl pro deník Epoch Times Michael Pedrotti, spoluzakladatel společnosti GhostCap, která poskytuje hosting herních serverů.

Generální ředitel OpenAI Sam Altman hovoří během akce OpenAI DevDay v San Francisku 6. listopadu 2023. Letos bezpečnostní výzkumník zjistil, že 143 000 uživatelských dotazů a konverzací z populárních LLM modelů – včetně ChatGPT, Grok, Claude a Copilot – bylo volně dostupných na webu Archive.org. (Justin Sullivan / Getty Images)
Generální ředitel OpenAI Sam Altman hovoří během akce OpenAI DevDay v San Francisku 6. listopadu 2023. Letos bezpečnostní výzkumník zjistil, že 143 000 uživatelských dotazů a konverzací z populárních LLM modelů – včetně ChatGPT, Grok, Claude a Copilot – bylo volně dostupných na webu Archive.org. (Justin Sullivan / Getty Images)

Pedrotti uvedl, že rostoucí tlak na zavádění systémů s umělou inteligencí vytváří podmínky pro případné „bezpečnostní katastrofy“.

„Organizace propojují AI přímo se zákaznickými databázemi, aniž by existovaly dostatečné izolační vrstvy. Vedoucí pracovníci, kteří trvají na zavedení AI během několika týdnů, tak zkrátka obcházejí zásadní bezpečnostní kroky,“ řekl.

„Výsledkem jsou systémy AI, které mají přístup ke všemu – včetně platebních karet a osobních zpráv – a to bez dohledu nebo nastavených pravidel pro logování,“ dodal.

Pedrotti, který se roky zabývá infrastrukturou kybernetické bezpečnosti, označil za nejnebezpečnější slepé místo v ochraně soukromí tzv. „vektorová zakódování“ (vector embeddings).

Tato zakódování představují data – například slova, obrázky nebo zvuky – převedená do číselných vektorů, tedy do numerické reprezentace, které umožňují modelům AI zpracovávat a chápat komplexní informace tím, že podobné datové body umísťují blízko sebe a jakoby je kategorizují.

„Tyto matematické reprezentace textu se mohou zdát anonymní, ale osobní data z nich lze plně obnovit,“ upozornil Pedrotti.

Potenciální přínosy AI – zejména finanční – nutí organizace naskočit na tento trend co nejrychleji

Parker Pearsonová,
ředitelka Donoma Software

V současnosti podle něj není možné v modelech AI mazat záznamy tak, jako v tradičních databázích, protože informace jsou trvale zabudovány do základní struktury systému.

„Dokonce jsem odhalil citlivé interní diskuse zaměstnanců s firemními AI asistenty několik měsíců poté, co byly původní zprávy smazány například ze Slacku. Tyto informace se stávají součástí samotného jádra AI,“ řekl.

„Potenciální přínosy AI – zejména finanční – nutí organizace naskočit na tento trend co nejrychleji,“ uvedla Parker Pearsonová, ředitelka strategického rozvoje ve společnosti Donoma Software, na dotaz Epoch Times.

Pearsonová dodala, že tento vzorec se opakuje při každé technologické horečce.

„Společným jmenovatelem všech těchto ‚tech-boomů‘ je, že se přehlížejí nebo vědomě obcházejí důležité detaily – obvykle ty, které mají přímý dopad na bezpečnost,“ řekla.

Muž u notebooku ve Washingtonu 18. března 2025. Nedávný průzkum mezi 1 000 dospělými Američany ukázal, že 84 procent uživatelů internetu používá „nebezpečné“ praktiky pro vytváření hesel, například své osobní údaje. (Madalina Vasiliu / The Epoch Times)
Muž u notebooku ve Washingtonu 18. března 2025. Nedávný průzkum mezi 1 000 dospělými Američany ukázal, že 84 procent uživatelů internetu používá „nebezpečné“ praktiky pro vytváření hesel, například své osobní údaje. (Madalina Vasiliu / The Epoch Times)

Čas jednat

Podle Parker Pearsonové se situace bude dále zhoršovat, pokud nebudou přijata aktivní opatření.

Na individuální úrovni je podle ní klíčové, aby se lidé sami vzdělávali v zásadách kybernetické bezpečnosti. Silná hesla a vícefaktorové ověřování jsou pro některé samozřejmostí, avšak průzkumy naznačují, že většina uživatelů internetu má slabé digitální návyky.

Podle nedávného průzkumu webové bezpečnostní společnosti All About Cookies, který se uskutečnil mezi 1 000 dospělými Američany, má 84 procent uživatelů internetu „nebezpečné“ návyky při tvorbě používání hesel – například využívají své osobní údaje.

Z téhož vzorku 50 procent respondentů uvedlo, že hesla opakovaně používá, a 59 procent přiznalo, že sdílí alespoň jedno heslo k účtu s jinými lidmi – ať už k platformám pro streamování, nebo dokonce k bankovním účtům.

Pearsonová zdůraznila, že je nutné přestat slepě věřit, že firmy skutečně dodržují svá prohlášení o ochraně osobních údajů. „Začněte klást otázky ještě předtím, než automaticky odevzdáte své osobní údaje. Začněte vyžadovat odpovědnost,“ uvedla.

Strachan věří, že by firmy měly nasazovat podnikové verze AI nástrojů, u nichž je vypnutý trénink, omezené uchovávání dat a přísně řízený přístup.

„Musí existovat důsledky přesahující obvyklých dvanáct měsíců následného monitorování identity, které společnosti po svém úniku dat nabízejí. Upřímně řečeno, považuji za urážlivé, že je to bráno jako dostatečné řešení.“

Pearsonová je přesvědčena, že organizace, které nedokážou ochránit důvěru zákazníků v práci s daty, by měly čelit přísnějším sankcím, protože následky pro uživatele mohou být trvalé.

Většina odborníků na kybernetickou bezpečnost souhlasí, že zodpovědné chování jednotlivců je důležité, avšak Danie Strachan zdůraznil, že hlavní odpovědnost v případě ochrany dat při práci s AI leží na straně firem.

„Břemeno snižování rizik spojených s AI mají na starosti na organizace. Musí zavést školení zaměstnanců, která je naučí přistupovat ke každému zadání stejně obezřetně, jako by psali e-mail určený k otištění na titulní stránce novin,“ řekl Strachan.

Podle něj by měly firmy nasazovat podnikové verze AI nástrojů, u nichž je vypnutý trénink, omezené uchovávání dat a přísně řízený přístup. AI podle něj přímo „závratně rozšiřuje“ míru risku spojenou s prostředím ochrany soukromí, což bude s vývojem technologie čím dál složitější.

Lidé navštěvují datové centrum AI společnosti SK Networks během veletrhu Mobile World Congress – největšího světového mobilního veletrhu – v Barceloně 3. března 2025. Spojené státy a Evropská unie začaly řešit otázky datové bezpečnosti v době prudkého rozvoje systémů AI. (Manaure Quinter / AFP / Getty Images)
Lidé navštěvují datové centrum AI společnosti SK Networks během veletrhu Mobile World Congress – největšího světového mobilního veletrhu – v Barceloně 3. března 2025. Spojené státy a Evropská unie začaly řešit otázky datové bezpečnosti v době prudkého rozvoje systémů AI. (Manaure Quinter / AFP / Getty Images)

Oblast zákonodárství zároveň nestíhá tempo rychlého vývoje systémů umělé inteligence, které aktuálně využívají šedé zóny v oblasti ochrany soukromí.

„Firmy v oblasti AI těží z obrovské mezery v legislativě o ochraně soukromí. Podle jejich výkladu se trénink modelů nepovažuje za uchovávání dat, což znamená, že je nemusí vůbec mazat,“ uvedl Michael Pedrotti.

Upozornil také, že některé společnosti přesouvají tréninkové operace do zahraničí, aby se vyhnuly regulačním požadavkům, a přitom dále poskytovaly služby stejným uživatelům. „Používání modelů, které fungují napříč jurisdikcemi, vytváří právní mezery,“ dodal.

„Stávající zákony se zaměřují především na sběr dat, ale nevysvětlují, jak systémy AI s těmito daty pracují a trvale je začleňují do svých algoritmů,“ řekl Pedrotti.

Podle Parker Pearsonové mezi největší mezery v současné legislativě týkající se AI, které mohou být snadno zneužity, patří přeshraniční přenosy informací, tréninková data, automatizované stahování obsahu z webu (web scraping), algoritmické rozhodování a sdílení dat s třetími stranami.

Podobné obavy vyjádřil i Danie Strachan.

„Zpoždění v regulaci vytváří nebezpečnou právní nejasnost ohledně odpovědnosti. Tyto šedé zóny mohou být zneužity útočníky, zejména v případech přeshraničních operací, kde rozdíly v jurisdikcích problém ještě prohlubují,“ uvedl.

Spojené státy a Evropská unie už začaly otázku datové bezpečnosti v kontextu pokročilých systémů AI aktivně řešit.

Akční plán USA pro umělou inteligenci na rok 2025, zveřejněný Bílým domem, zdůraznil nutnost posílit kybernetickou ochranu kritické infrastruktury. Zpráva upozornila, že systémy AI jsou náchylné k tzv. „nepřátelským vstupům“, jako je tzv. otrávení dat (vkládání záměrně chybných dat za účelem napadení modelu) nebo útoky na soukromí.

Stejný postoj zaujali i představitelé Evropské unie, kteří varují, že nedostatečné zabezpečení velkých jazykových modelů (LLM) může vést k únikům citlivých či soukromých informací používaných při jejich tréninku.

ete

Epoch sdílení

Facebook
Twitter
LinkedIn
Truth Social
Telegram