Komunistický režim v Číně se pokusil využít generativní umělou inteligenci ChatGPT od společnosti OpenAI pro tajné vlivové operace. V aktuální zprávě společnosti z února je zdokumentováno, jak byly tyto aktivity identifikovány, zastaveny a zveřejněny.
Komunistický režim v Číně se pokusil využít generativní umělou inteligenci ChatGPT od OpenAI k optimalizaci vlivových operací. Při tom se vedení v Pekingu neúmyslně samo odhalilo. Vyplývá to z aktuální únorové zprávy o protiopatřeních proti zneužívání služeb společnosti.
Byl například uzavřen účet ChatGPT, který byl spojen s osobou s vazbami na čínský bezpečnostní aparát. Aktivity této osoby odhalily „rozsáhlou a precizně orchestrální strategii pro tajné zpravodajské operace proti nepřátelům doma i v zahraničí“. Tato operace byla označena názvem „Kybernetické speciální operace“. Zřejmě se vedení Pekingu snažilo využít schopnosti chatbota, který byl veřejnosti představen koncem roku 2022, k tomu, aby již probíhající vlivové snahy ještě více zefektivnilo.
Promptér KS Číny neúmyslně prozradil strategie ChatGPT
Mezi jinými se pokusil tento účet využít model OpenAI k plánování tajné zpravodajské operace proti japonské premiérce Sanae Takaichiové. ChatGPT však vykonání tohoto příkazu odmítl. Další aktivitou bylo použití ChatGPT k přepracování periodických zpráv o průběhu „Kybernetických speciálních operací“. Ty ukázaly, že plánovaná operace by pokračovala i bez využití ChatGPT.
Z aktivit tohoto účtu vyplývá, že aktéři již v minulosti prováděli vlivové operace, jejichž cílem bylo diskreditovat a zastrašovat disidenty doma i v zahraničí. Celkově mělo být do těchto operací zapojeno několik set pracovníků a tisíce falešných účtů.
Taktiky, které byly svěřeny uživateli ChatGPT, zahrnovaly zneužívání zpravodajství, vytváření falešných účtů disidentů na sociálních médiích a organizování online kampaní na vyvolání veřejného pobouření. Součástí jejich repertoáru bylo také falšování dokumentů a uzurpování veřejných funkcí: například jeden vlivový agent se vydával za amerického úředníka, aby zastrašil kritiky režimu v exilu.
OpenAI se obrátila na provozovatele sociálních médií a odborníky
V jiném případě se mělo v sociálních médiích šířit falešné oznámení o úmrtí. Často se účty vydávaly za místní uživatele a komentovaly obsah ve prospěch režimu Komunistické strany Číny (KS Číny). Snažily se přitom používat kulturně přizpůsobené jazykové vzory, aby působily co nejautentičtěji. Dosah těchto obsahů byl však většinou omezený a platformy sociálních médií často nevěděly, jak identifikovat autentický obsah a proti autorům zasáhnout.
Analýzy otevřených zdrojů pomohly OpenAI identifikovat online aktivity, které se shodovaly s některými z taktik popsaných uživatelem. Tyto operace cílily nejen na osoby v samotné Číně, ale i na disidenty a kritiky po celém světě. Celkově bylo možné vypracovat několik prvků, které se v čínských vlivových operacích opakovaně objevují.
K dispozici jsou například organizované sítě, které využívají platformově koordinované účty na sociálních médiích k šíření strategicky sladěných narativů. Vzhledem k obsahu se také objevují vzory. Neustále se opakujícím tématem je otázka Taiwanu, ale i vnitřní politika USA je oblíbeným polem pro agitaci. Demokratické systémy jsou vykreslovány jako nestabilní, zatímco se snaží šířit pozitivní narativy o čínském vládnutí.
Výrazné vzory používání ChatGPT upoutaly pozornost
Podle záměru iniciátorů těchto vlivových operací by umělá inteligence neměla vystupovat jako aktér, ale měla by sloužit jako nástroj. Tento nástroj má pomoci při masové produkci textů, generování vícejazyčného obsahu a přizpůsobení se cílovým skupinám. Použití umělé inteligence by mělo také zlepšit reakční rychlost na aktuální události.
Díky výrazným vzorcům používání se OpenAI podařilo operaci zaznamenat. Patřily sem vysoké objemy generování, opakující se struktury promptů a politicky silně zaměřený obsah. K tomu se přidaly identické narativy, časově sladěné publikace a propojení se známými vlivovými sítěmi.
OpenAI navázala kontakt se společnostmi sociálních médií a externími bezpečnostními výzkumníky. Díky komplexní analýze sítí byly rozpoznány příslušné vzory a přijata vhodná protiopatření. Jako krátkodobé opatření OpenAI deaktivovala API přístupy zapojeného uživatele a postižené sociální sítě odstranily zneužívané účty.
AI má optimalizovat politický vliv – OpenAI se zaměřuje na systémy detekce
Aby se proaktivně vyrovnala s těmito případy zneužití, OpenAI se soustředí na rozvoj automatických detekčních systémů, monitoring politicky citlivého využití a další rozvoj interních bezpečnostních protokolů. V rámci své transparentní strategie OpenAI pravidelně zveřejňuje podrobné zprávy o zneužití, identifikuje státem řízené kampaně a odhaluje kroky reakce.
Politický vliv zůstává přítomným geopolitickým nástrojem. Technologie přitom nemění samotný princip, ale mění jeho rozměr. AI má potenciál urychlit existující strategie.
–etg–
