Vědci vyvinuli systém umělé inteligence, který dokáže číst myšlenky lidí měřením mozkové aktivity a převádět je na text. To vyvolává obavy o soukromí a svobodu.
Studie (pdf), publikovaná 1. května v časopise Nature Neuroscience, použila k dekódování myšlenek lidí neurální síť, podobnou té, kterou využívá ChatGPT společnosti OpenAI. Učí se kontextu, a tedy i významu. Testované osoby nejprve poslouchaly hodiny podcastů a během toho byla zaznamenávána jejich mozková aktivita. Na těchto nahrávkách pak výzkumníci trénovali „dekodér“. Později subjekty poslouchaly nové zprávy nebo si to představovaly, což dekodéru umožnilo vygenerovat odpovídající text na základě analýzy mozkové aktivity.
Výzkumníci trénovali dekodéry na třech subjektech. „Protože náš dekodér reprezentuje jazyk spíše pomocí sémantických rysů než motorických nebo sluchových podnětů, měly by předpovědi dekodéru zachycovat význam podnětů,“ uvádí se ve studii.
„Výsledky ukazují, že dekódované sekvence slov zachycovaly nejen význam podnětů, ale často i přesná slova a fráze.“
Technologie schopné číst myšlenky lidí mohou být přínosné pro jedince, kteří ztratili schopnost fyzické komunikace. Vyvolávají však obavy ohledně soukromí a ztráty svobody.
Nita Farahanyová, futuristka a právní etička z Dukeovy univerzity v Durhamu v Severní Karolíně, v rozhovoru pro MIT Technology Review ze 17. března varovala, že shromažďování údajů o mozku mohou vlády a další mocnosti využít k nekalým účelům.
„Autoritářská vláda, která by k nim měla přístup, by se je mohla pokusit využít například k identifikaci lidí, kteří nevykazují politickou příslušnost. To je docela rychlé a závažné zneužití těchto dat. Nebo se pokusit identifikovat lidi, kteří jsou neuroatypičtí, a diskriminovat je nebo segregovat,“ řekla Farahanyová.
Na pracovišti může být tato technologie použita při „dehumanizaci“ zaměstnanců tím, že je nutí podrobit se neurologickému dohledu.
„Problém nastává, pokud je používána jako povinný nástroj a zaměstnavatelé s ní shromažďují údaje pro rozhodování o náboru, propouštění a kariérním postupu. Udělají z toho jakési skóre produktivity. Pak si myslím, že se to stává opravdu zákeřným a problematickým. Podkopává to důvěru … a může to způsobit, že se pracoviště stane nelidským.“
Neinvazivní technika, řešení problémů se soukromím
Na rozdíl od jiných systémů dekódování jazyka, které jsou v současné době ve vývoji, je ten, který vyvinuli vědci ve zmíněné studii z 1. května, neinvazivní a nevyžaduje, aby subjekty podstoupily chirurgickou transplantaci.
Alex Huth, odborný asistent neurovědy a informatiky na Texaské univerzitě v Austinu, který studii vedl, označil výsledky za „skutečný skok vpřed“ v oblasti neinvazivního čtení z mozku.
„Získáváme model, který dokáže dekódovat souvislou řeč po delší dobu se složitými myšlenkami,“ řekl Huth podle tiskové zprávy z 1. května. Dekódované výsledky nejsou zcela doslovnými přepisy. Místo toho zachycují podstatu toho, co si subjekt myslí.
Aby výzkumníci vyřešili obavy týkající se soukromí, testovali dekodéry, aby zjistili, zda je lze vycvičit bez toho, aby osoba spolupracovala. Tým se pokusil dekódovat vnímanou řeč testovaných osob pomocí dekodérů vycvičených na datech jiných osob, ale výsledky byly výrazně horší. „To naznačuje, že pro trénink dekodérů je nadále nezbytná spolupráce subjektů,“ uvádí studie.
Výzkumníci také potvrdili, že dekodéry nelze použít k identifikaci myšlenek této osoby v případě, že se tomu vědomě brání. Taktiky, jako je přemýšlení o zvířatech nebo tiché představování si příběhů, mohou systému zabránit ve čtení myšlenek.
„Člověk musí strávit až 15 hodin ležením v MRI skeneru, být naprosto nehybný a věnovat dobrou pozornost zprávám, které poslouchá, než to začne opravdu dobře fungovat,“ řekl Huth.
Jerry Tang, spoluautor studie, se domnívá, že ačkoli je tato technologie v rané fázi, vlády by měly přijímat legislativy, které chrání lidi a jejich soukromí. „Velmi důležitá je také regulace toho, k čemu mohou být tato zařízení používána.“
Překlad a redakční úprava původní zprávy: Juraj Skovajsa