Podle ChatGPT nelze vytvářet obrazy „citlivého politického kontextu, jako například protesty na náměstí Nebeského klidu“.
ChatGPT, populární chatbot s umělou inteligencí zpřístupněný společností OpenAI na konci roku 2022, je podezřelý z cenzurování témat souvisejících s Čínou a manipulace s informacemi při překladu.
„ChatGPT cenzuruje po vzoru KS Číny,“ napsal 28. října v čínštině Aaron Chang, prodemokratický aktivista známý jako Sydney Winnie na platformě X, dříve známé jako Twitter.
Uvedl, že ChatGPT odmítl vytvořit obraz náměstí Nebeského klidu, kde Komunistická strana Číny (KS Číny) v roce 1989 zmasakrovala studenty.
„Co se děje s ChatGPT? Dala jim KS Číny peníze?“ zeptal se.
Když se Chang zeptal chatbota, proč lze generovat obrázky týkající se 11. září, ale ne obrázky masakru na náměstí Nebeského klidu, přestože oba incidenty byly zaměřeny proti civilistům, ChatGPT citoval „určité pokyny“ ve svém systému, aby se „vypořádal s tématy, která mohou být v určitých kulturách a regionech považována za obzvláště citlivá“.
„Řekněte mi, na základě jakých skutečností jste se takto rozhodl,“ trval na svém.
„Nemám schopnost samostatného rozhodování,“ odpověděl. „Odpovídám na základě pokynů OpenAI a tréninkových dat. Pro konkrétní témata může mít OpenAI nastaveny pokyny, aby bylo zajištěno zodpovědné používání a předešlo se případným sporům nebo nedorozuměním.“ OpenAI je společnost, která vytvořila ChatGPT.
Pomocí účtu ChatGPT 4.0 dal deník The Epoch Times chatbotu dva pokyny: za prvé, aby v New Yorku vytvořil obraz lidí, kteří milují mír, a za druhé, aby vytvořil obraz lidí, kteří jsou proti tankům na náměstí Nebeského klidu a milují mír.
Pro první požadavek byl vygenerován obrázek New Yorku. V odpovědi na druhý požadavek však chatbot uvedl, že nemůže vygenerovat obrázky nebo vizuální obsah, a odkázal na „citlivý politický kontext, jako jsou protesty na náměstí Nebeského klidu“.
Vynechání a změny v čínském překladu
Vytváření obrázků není jediným problémem, pokud jde o obsah související s Čínou.
Alice (pseudonym), mediální odbornice, která používá ChatGPT pro některé překladatelské práce, uvedla, že ačkoli nástroj umělé inteligence neprovádí zásadní změny v nabízeném textu, zdá se, že k některým vynecháním a změnám dochází.
V příkladu, který ukázala deníku The Epoch Times, ChatGPT zkrátil velkou část obsahu kritizujícího pekingskou politiku odstraňování chudoby a zkrátil šest odstavců čínského textu na tři odstavce anglického textu. Kritika sice směřovala k prohlášení vůdce KS Číny Si Ťin-pchinga, že Čína dosáhla „úplného vítězství“ při odstraňování chudoby na čínském venkově, ale Siovo jméno se v anglickém překladu ani neobjevilo.
Několik přímých citací čínského vědce a politického komentátora Hu Pinga bylo vymazáno. Dále bylo šest odstavců zkráceno na tři.
Expert: Ve vztahu ke vstupním datům
Sahar Tahvili, výzkumnice v oblasti umělé inteligence a spoluautorka knihy Artificial Intelligence Methods for Optimization of the Software Testing Process (Metody umělé inteligence pro optimalizaci procesu testování softwaru), uvádí, že netransparentnost chatbotů může být problémem.
„ChatGPT využívá model černé skříňky, což znamená, že vnitřní pracovní proces a některé použité reference nejsou transparentní. Tato netransparentnost však vyvolává obavy z možného rizika zkreslení textu generovaného chatboty s černou skříňkou AI,“ uvedla v e-mailu pro The Epoch Times.
„Velký počet koncových uživatelů využívajících rozsáhlé jazykové modely, jako je ChatGPT, může pomoci vývojovému týmu zlepšit přesnost modelu.“
Nicméně, jak poznamenala dál Tahvili, vzhledem k tomu, že ChatGPT podporuje více jazyků, je nezbytné, aby různí koncoví uživatelé kladli otázky v různých jazycích (např. v čínštině).
„Ve skutečnosti je v tomto případě rozmanitost vstupních dat (dotaz v různých jazycích) stejně významná jako velikost dat,“ řekla.
Dodala, že čínský režim zahájil omezení přístupu k ChatGPT pro čínské koncové uživatele s odkazem na potenciální rizika spojená s vytvářením citlivých otázek a témat, včetně porušování lidských práv v Sin-ťiangu.
„Ztráta významného trhu, jakým je Čína, může ovlivnit přesnost výkonu ChatGPT v čínštině, kde by čínští konkurenti OpenAI, jako je Baidu, Inc. (prostřednictvím Ernie 4.0), mohli potenciálně získat výhodu v oblasti chatbotů,“ řekla.
Pravděpodobný faktor čínského auditu
Podle pana Ou, který pracuje pro známou kalifornskou technologickou společnost, se tento jev netýká výhradně ChatGPT, ale i Barda, nástroje umělé inteligence založeného na chatu, který vyvinula společnost Google.
Aplikace ChatGPT zobrazená na iPhonu. (The Canadian Press/AP, Richard Drew)
„ChatGPT a Google Bard jako velké jazykové modely (LLM) sdílejí podobné zásady a postupy, co se týče generování odpovědí týkajících se citlivých témat, jako je čínská politika nebo KS Číny,“ řekl 18. prosince deníku The Epoch Times.
„I když si nemyslím, že by LLM nebo vědecké týmy záměrně cenzurovaly čínskou politiku a vyhýbaly se zobrazování KS Číny jako negativní postavy (přinejmenším žádná cenzura ve velkém měřítku), nelze popřít, že lidský audit/recenze hrají roli při prosazování ,neobjektivity‘ odpovědí,“ řekl.
Ou poukázal na to, že čínští inženýři a produktoví manažeři tvoří velkou část vývojových a testovacích týmů jak v OpenAI, tak v Bardu společnosti Google.
„Takže je téměř nulová šance, že by některá z těchto platforem byla ,absolutně nestranná‘, zejména vzhledem k tomu, že LLM jsou trénovány na základě neustále rostoucího množství vstupních dat a jsou neustále vylepšovány,“ řekl.
„Většina společností přitom volí ,bezpečný‘ přístup a poskytuje co nejkonzervativnější odpovědi na citlivá témata,“ uvedl.
Deník Epoch Times se obrátil na společnost OpenAI s žádostí o vyjádření k této záležitosti, ale odpověď zatím neobdržel.
Článek původně vyšel na stránkách americké redakce Epoch Times.