26. 12. 2023

Výzkumníci ze Stanfordovy univerzity našli v materiálech používaných k tréninku populárních generátorů obrázků umělé inteligence obrázky dětské pornografie, přičemž nezákonné snímky byly identifikovány již v dubnu.

Stanfordská internetová observatoř (Stanford Internet Observatory) objevila více než 1 000 falešných obrázků sexuálního zneužívání dětí v otevřeném souboru dat nazvaném LAION-5B, který souvisí s tréninkem londýnského generátoru obrázků umělé inteligence (AI) Stable Diffusion. Společnost Stable Diffusion patří do neziskové organizace Stability AI, která nabízí generátor umělé inteligence pro převod textu na obraz a k tréninku své umělé inteligence používá LAION-5B.

Obrázky s dětskou pornografií byly vytvořeny na základě vzorkování databáze z webových stránek sociálních médií a jejich kombinací s obrázky z pornografických webových stránek.

Výzkumníci o svých zjištěních informovali spřízněné neziskové organizace ve Spojených státech a Kanadě. Obsah zobrazující zneužívání si přímo neprohlíželi a výzkum byl prováděn především pomocí nástroje PhotoDNA společnosti Microsoft, který porovnává zaheslované obrázky s obrázky ze souborů dat neziskových organizací s cílem odhalit zneužívající obsah.

Aplikaci PhotoDNA vyvinula společnost Microsoft za účelem identifikace fotografií zneužívaných dětí.

Výzkumníci doporučili, aby se v budoucích datových souborech používal detekční nástroj, jako je PhotoDNA, k odfiltrování snímků zneužívání, ale je obtížné vyčistit otevřené datové soubory, pokud neexistuje centrální orgán, který data hostuje.

V předvečer zveřejnění zprávy Stanfordské internetové observatoře společnost LAION sdělila agentuře Associated Press, že své datové sady dočasně odstraňuje.

LAION, což je zkratka pro neziskovou organizaci Large-scale Artificial Intelligence Open Network, ve svém prohlášení uvedla, že „uplatňuje politiku nulové tolerance vůči nelegálnímu obsahu a v rámci opatrnosti jsme datové sady LAION stáhli, abychom se před jejich opětovným zveřejněním ujistili, že jsou bezpečné“.

Ačkoli snímky představují jen zlomek indexu LAION, který čítá přibližně 5,8 miliardy snímků, podle stanfordské skupiny pravděpodobně ovlivňují schopnost nástrojů umělé inteligence generovat škodlivé výstupy a podporují tak předchozí zneužívání skutečných obětí, které se objevují vícekrát.

Je to proto, že stačí jen hrstka obrázků se zneužíváním, aby nástroj umělé inteligence dokázal vytvořit tisíce dalších deepfakes (technologií umělé inteligence, které mají vytvářet falešná videa a fotky, jež mají tvořit dojem pravosti –⁠ pozn. překl.), které ohrožují mladé lidi a děti po celém světě.

„Spěch na trh“

Mnoho projektů na generování umělé inteligence bylo „ve skutečnosti uvedeno na trh“ a zpřístupněno široké veřejnosti, uvedl hlavní technolog Stanfordské internetové observatoře David Thiel, který je autorem zprávy.

„Vzít celý internetový šrot a vytvořit z něj datovou sadu pro trénování modelů je něco, co mělo být omezeno na výzkumnou činnost, pokud vůbec, a není to něco, co by mělo být otevřeně dostupné bez mnohem přísnější pozornosti,“ uvedl Thiel v rozhovoru.

Podle zpráv o obětech již byly vyrobeny a na internetu rozšířeny miliony takových falešných explicitních snímků, přičemž úřady identifikovaly pouze 19 000 obětí.

Významným uživatelem LAION, který pomáhal formovat vývoj datové sady, je londýnský startup Stability AI, výrobce modelů Stable Diffusion pro převod textu na obraz. Nové verze modelu Stable Diffusion značně ztížily vytváření škodlivého obsahu, ale starší verze představená v loňském roce –⁠ kterou společnost Stability AI podle svých slov nezveřejnila –⁠ je stále zapracována do dalších aplikací a nástrojů a zůstává „nejoblíbenějším modelem pro generování explicitních obrázků“, uvádí se ve zprávě Stanfordovy univerzity.

„Nemůžeme to vzít zpět. Tento model je v rukou mnoha lidí na jejich lokálních počítačích,“ řekl Lloyd Richardson, ředitel informačních technologií v Kanadském centru pro ochranu dětí, které provozuje kanadskou horkou linku pro hlášení sexuálního zneužívání na internetu.

Společnost Stability AI uvedla, že hostuje pouze filtrované verze Stable Diffusion a že „od doby, kdy převzala výhradní vývoj Stable Diffusion, podnikla proaktivní kroky ke snížení rizika zneužití“.

„Tyto filtry odstraňují nebezpečný obsah, který se k modelům nedostane,“ uvedla společnost v písemném prohlášení. „Odstraněním takového obsahu ještě předtím, než se vůbec dostane do modelu, můžeme pomoci zabránit tomu, aby model generoval nebezpečný obsah.“

LAION je dílem německého výzkumníka a učitele Christopha Schuhmanna, který začátkem tohoto roku agentuře AP řekl, že částečným důvodem pro zpřístupnění tak obrovské vizuální databáze veřejnosti je snaha zajistit, aby budoucnost vývoje umělé inteligence nebyla kontrolována hrstkou mocných společností.

„Bude to mnohem bezpečnější a spravedlivější, pokud se nám ji podaří zdemokratizovat, aby z ní mohla těžit celá výzkumná komunita a celá široká veřejnost,“ sdělil.

Světová legislativa v oblasti AI

Spojené státy se chystají spustit institut pro bezpečnost umělé inteligence, který bude vyhodnocovat známá a vznikající rizika takzvaných „hraničních“ modelů umělé inteligence, uvedla v listopadu na summitu o bezpečnosti umělé inteligence ve Velké Británii ministryně obchodu Gina Raimondová.

Prezident Joe Biden vydal 30. října exekutivní příkaz, podle kterého musí vývojáři systémů AI, které představují riziko pro národní bezpečnost, ekonomiku, veřejné zdraví nebo bezpečnost USA, sdílet výsledky bezpečnostních testů s vládou.

Americká Federální obchodní komise zahájila v červenci vyšetřování společnosti OpenAI na základě tvrzení, že porušuje zákony na ochranu spotřebitele.

Austrálie přiměje vyhledávače používat nové algoritmy, aby zabránily sdílení materiálů týkající se sexuálního zneužívání dětí vytvořených umělou inteligencí a výrobě deepfake verzí stejných materiálů.

Ve Velké Británii se v listopadu na prvním globálním summitu o bezpečnosti umělé inteligence přední vývojáři umělé inteligence dohodli, že budou spolupracovat s vládami na testování nových hraničních modelů před jejich zveřejněním, aby pomohli zvládat rizika umělé inteligence.

Více než 25 zemí přítomných na summitu, včetně Spojených států a Indie a také Evropské unie, podepsalo „Bletchleyskou deklaraci“ o spolupráci a vytvoření společného přístupu k dohledu.

Britská dozorující skupina pro ochranu osobních údajů v říjnu uvedla, že vydala pro společnost Snap Inc Snapchat předběžné oznámení o vymáhání práva kvůli možnému selhání při řádném posuzování rizik pro soukromí jejích generativních chatbotů s umělou inteligencí pro uživatele, zejména děti.

Na této zprávě se podílely agentury Associated Press a Reuters.

Článek původně vyšel na stránkách ntd.com.

Související témata

Související články

Přečtěte si také

Česko zaplavuje voda, na severu Moravy a Slezska se evakuují tisíce lidí – shrnutí
Česko zaplavuje voda, na severu Moravy a Slezska se evakuují tisíce lidí – shrnutí

Velká část Česka kvůli extrémním srážkám čelí povodním, nejdramatičtější situace byla večer na severní Moravě a ve Slezsku včetně Ostravy, Bohumína a dalších velkých měst.

Na pozadí dluhové krize nakupuje čínská centrální banka speciální státní dluhopisy v hodnotě 56,3 miliardy dolarů
Na pozadí dluhové krize nakupuje čínská centrální banka speciální státní dluhopisy v hodnotě 56,3 miliardy dolarů

V posledních 20 letech se čínská centrální banka nákupu těchto dluhopisů na sekundárním trhu vyhýbala,...

Zdravý rozum politické ekonomie
Zdravý rozum politické ekonomie

Nejprodávanější a nejpoužívanější ekonomickou knihou ve Velké Británii na počátku 20. století byla kniha Philipa Wicksteeda (1844–1927), zapomenutého velkého myslitele, jehož myšlenky si zaslouží, abychom se k nim dnes vrátili.

Muž z Iowy použil 7,5 milionu sirek k vytvoření neskutečných modelů lodí, hradů, katedrál a amerického Kapitolu
Muž z Iowy použil 7,5 milionu sirek k vytvoření neskutečných modelů lodí, hradů, katedrál a amerického Kapitolu

Upozornění: Tento článek byl publikován v roce 2023. Některé informace již nemusí být aktuální.  Byla to...

Jaderná fúze: Věčně vzdálený sen, který se blíží realitě
Jaderná fúze: Věčně vzdálený sen, který se blíží realitě

Zatímco investoři vyjadřují ambice, že komerční fúze by se mohla stát realitou do deseti let, mnozí zasvěcení vidí před sebou delší cestu.