Podle Bradleyho Thayera, vedoucího pracovníka Centra pro bezpečnostní politiku, by vývoj zbraní umělé inteligence mohl být srovnatelný s revolucí, kterou přinesly jaderné zbraně.
Špičkové zbraně s umělou inteligencí představují globální bezpečnostní hrozbu, zejména když jsou v rukou Komunistické strany Číny (KS Číny), varují odborníci, kteří se vyjádřili pro Epoch Times.
Čínský komunistický režim, který touží vojensky překonat Spojené státy, pravděpodobně nebude brát v úvahu bezpečnostní opatření související se smrtícími technologiemi umělé inteligence, které jsou samy o sobě stále nebezpečnější. Povaha této technologie má sklon podněcovat některé z nejhorších zákoutí lidské psychiky.
„Důsledky jsou značné,“ konstatuje Thayer, vedoucí pracovník Centra pro bezpečnostní politiku (Center for Security Policy), odborník na strategické hodnocení Číny a přispěvatel do Epoch Times. „A mohou být srovnatelné s jadernou revolucí.“
Zabijáčtí roboti
Vývoj autonomních zbraní poháněných AI rychle nabírá na obrátkách, uvedl Alexander De Ridder, vývojář AI a spoluzakladatel společnosti Ink, která se zaměřuje na marketing s využitím umělé inteligence.
„Rychle se stávají efektivnějšími a rychle se stávají účinnějšími,“ řekl pro Epoch Times a dodal, že „zatím však nejsou na úrovni, kdy by mohly nahradit lidi“.
Autonomní drony, tanky, lodě a ponorky již existují, stejně jako exotické varianty, jako jsou čtyřnozí roboti vybavení kulomety, které již byly v Číně také spatřeny.
Dokonce i humanoidní roboti pohánění AI, dříve doména sci-fi hororů, jsou již ve výrobě. Přestože jsou zatím v reálném světě stále neohrabaní, dlouho to tak nezůstane, varuje De Ridder.
„Schopnosti těchto robotů se rychle zlepšují,“ sdílí.
Jakmile tyto stroje dosáhnou praktické použitelnosti a spolehlivosti, Čína pravděpodobně zaměří své výrobní kapacity na jejich masovou produkci, uvádí De Ridder.
„Trh bude zaplaven humanoidními roboty a pak bude záležet na jejich programování, jak budou využiti,“ dodává.
To by znamenalo také vojenské využití. „Je to vlastně nevyhnutelné,“ míní.
Takoví AI-pohánění roboti jsou velmi dobří v používání optických senzorů k identifikaci objektů, včetně lidí, vysvětluje James Qiu, zakladatel GIT Research Institute a bývalý technický ředitel ve společnosti FileMaker. To jim dává potenciál být velmi efektivními zabijáky, rozvedl.
AI generálové
Na širší úrovni více zemí pracuje na systémech umělé inteligence, které jsou schopny poskytovat informace a koordinovat rozhodnutí na bojišti – v podstatě fungují jako elektroničtí generálové, uvádí Jason Ma, vedoucí datového výzkumu nadnárodní společnosti z žebříčku Fortune 500. Požádal však, aby nebylo zveřejněno jméno jeho společnosti, aby se předešlo dojmu, že hovoří jejím jménem.
Čínská lidová osvobozenecká armáda nedávno provedla vojenská cvičení, při nichž byla AI přímo zapojena do velení, a americká armáda má také projekty v této oblasti, poznamenává Ma.
„Je to velmi aktivní téma výzkumu a vývoje,“ prohlásil.
Potřeba je zřejmá; rozhodování na bojišti je ovlivněno ohromným množstvím dat, od historického kontextu a minulých zpravodajských informací až po téměř v reálném čase získávaná satelitní data a milisekundu po milisekundě shromažďované vstupy z každé kamery, mikrofonu a jakéhokoli senzoru na poli. Je pro lidi velmi těžké zpracovávat tak rozmanité a objemné datové proudy, míní.
„Čím komplexnější je válka, tím důležitější je, jak rychle můžete integrovat, shrnout všechny tyto informace a učinit správné rozhodnutí – během několika sekund, nebo dokonce v řádu zlomku sekundy,“ vysvětlil.
Destabilizace
Zbraně s umělou inteligencí již přetvářejí válečnou scénu, ale odborníci, kteří hovořili s Epoch Times, se shodují, že důsledky mohou být mnohem širší. Podle Thayera technologie činí svět stále více nestabilním.
Na nejzákladnější úrovni pravděpodobně zaměření se na zbraně poháněných umělou inteligencí usnadní sestřelování mezikontinentálních balistických raket, detekci a zničení ponorek a sestřelování dlouhých bombardérů. To by mohlo neutralizovat schopnosti americké jaderné triády a umožnit protivníkům „postupovat za hranice jaderného konfliktu“ beztrestně, uvedl.
„AI by ovlivnila každý z těchto prvků, které jsme během studené války vyvinuli a chápali jako naprosto nezbytné pro stabilní jaderný odstrašující vztah,“ dodal.
„Během studené války panovalo široké porozumění, že konvenční válka mezi jadernými mocnostmi není proveditelná… AI toto podkopává, protože přináší možnost konvenčního konfliktu mezi dvěma jadernými státy.“
„AI výrazně ovlivňuje bojiště, ale zatím nemá rozhodující hlas.“
Pokud by schopnosti umělé inteligence dosáhly efektu jaderné války bez použití jaderných zbraní, svět by se ocitl v nebezpečí, konstatuje.
„Pokud je to možné, a je velmi pravděpodobné, že je to možné, pak je to extrémně nebezpečná a destabilizující situace, protože to nutí toho, kdo je napaden, vyjít jako první – ne snášet útok, ale útočit.“
Ve válečném lexikonu se tento koncept nazývá „omezení škod“, vysvětluje. „Nechcete, aby někdo šel první, protože byste utrpěli těžkou újmu. Takže jdete první. A to bude nesmírně destabilizující v mezinárodní politice.“
Zabijáčtí roboti a drony nejsou jediným důvodem k obavám; mohou být vyvinuty různé nekonvenční zbraně AI, například pro hledání zranitelností v kritické infrastruktuře, včetně elektrických sítí nebo systémů zásobování vodou.
Kontrola šíření takových technologií je náročný úkol, vzhledem k tomu, že AI je v podstatě jen kus softwaru. I největší modely se vejdou na běžný pevný disk a mohou běžet na malých serverových farmách. Jednoduché, ale stále více smrtící AI zbraně, jako jsou zabijácké drony, lze odesílat po částech, aniž by to vyvolalo podezření.
„Motivace k šíření těchto technologií je obrovská, jak směrem nahoru, tak horizontálně, a jejich rozšíření je poměrně snadné,“ míní Thayer.
De Ridder poukazuje na to, že čínský stát chce být na světové scéně vnímán jako zodpovědný.
To však nezabránilo KS Číny v dodávkách zbraní nebo podpoře zbrojních programů jiných režimů a skupin, které nejsou tak omezeny ohledy na reputaci, jak poznamenali další odborníci.
Režim by se mohl dokonce držet v odstupu tím, že by jen dodával součástky a nechal by zprostředkovatele, aby drony sestavili. Je to podobné tomu, jak čínští dodavatelé poskytují prekurzory fentanylu mexickým kartelům a nechávají je vyrábět, přepravovat a prodávat drogy.
Čínský režim má dlouhou historii podpory íránských zbrojních programů, zatímco Írán na oplátku dodává zbraně teroristickým skupinám v regionu.
„Pro Írán by bylo jen málo důvodů, proč to nedělat,“ míní Thayer.
Lidský faktor
Obecně se, alespoň ve Spojených státech a mezi jejich spojenci, uznává, že nejdůležitějším opatřením proti tomu, aby AI zbraně způsobily katastrofu, je zachování lidské kontroly nad důležitými rozhodnutími, zejména pokud jde o použití smrtící síly.
„Za žádných okolností by nemělo být povoleno, aby stroje autonomně a nezávisle vzaly lidský život – nikdy,“ prohlásil De Ridder.
Tento princip je často označován jako „lidský faktor“.
„Člověk má svědomí a musí se ráno probudit s výčitkami a následky toho, co udělal, aby se mohl z toho poučit a neopakoval zločiny,“ poznamenává De Ridder.
Někteří odborníci však upozornili, že tento princip už začíná erodovat v důsledku způsobu vedení bojů, který se mění díky schopnostem AI.
Například ve válce na Ukrajině musela ukrajinská armáda vybavit své drony určitou mírou autonomie, aby se samy navigovaly k cílům, protože jejich komunikace s lidskými operátory byla ruskou armádou rušena.
Takové drony používají jen jednodušší AI, vysvětluje Ma, vzhledem k omezené výpočetní kapacitě na palubě dronů. To se však může brzy změnit, protože AI modely a počítače se stávají rychlejšími a efektivnějšími.
Apple už pracuje na AI, která by mohla běžet na telefonu. „Je velmi pravděpodobné, že v budoucnosti ji bude možné umístit na malý čip,“ dodává.
V hlavním konfliktu, kde by bylo nasazeno najednou stovky nebo tisíce dronů, by mohly sdílet výpočetní kapacitu, aby vykonávaly mnohem složitější autonomní úkoly.
„Všechno je to možné,“ říká. „Jsme v době, kdy už to není pouze vědecká fantastika; záleží jen na tom, zda se najde skupina lidí ochotných tomu věnovat čas. Tato technologie je dosažitelná.“
Podle Jamese Fanella, bývalého námořního zpravodajského důstojníka a experta na Čínu, není myšlenka odstranění lidské kontroly z důvodu nutnosti ničím novým.
Uvedl příklad bojového systému Aegis nasazeného na amerických křižnících a torpédoborcích, který automaticky detekuje a sleduje vzdušné cíle a odpaluje rakety, aby je sestřelil. Normálně kontroluje odpal raket lidský operátor, ale existuje i možnost přepnout systém do automatického režimu, například když je příliš mnoho cílů na to, aby je lidský operátor sledoval. Systém pak identifikuje a ničí cíle sám, uvádí Fanell.
V masové dronové válce, kde AI řídí tisíce dronů v koordinovaném útoku, strana, která umožní své AI autonomii střílet, získá významnou rychlostní výhodu oproti straně, která vyžaduje schválení každého výstřelu člověkem.
„Na úrovni jednotlivých výstřelů se lidé musí vzdát kontroly, protože nemohou skutečně učinit všechna rozhodnutí tak rychle,“ říká Ma.
De Ridder zdůrazňuje, že by bylo morálně přijatelné, kdyby dron střílel na jiný dron samostatně. Nicméně by to mohlo vést k nekontrolovanému útoku na bojišti, kde by se mohli nacházet i lidé, což by otevřelo cestu k nevyčíslitelným vedlejším ztrátám.
Bez pravidel
Bez ohledu na to, jaká bezpečnostní opatření pro AI by mohla být realizována, je nepravděpodobné, že by je KS Číny dodržovala, shoduje se většina odborníků.
„Nemyslím si, že by Čína měla nějaké důvody k opatrnosti,“ prohlásil Ma. „Cokoliv je možné, udělají to.“
„Nemyslím si, že by se Čína držela zpátky v používání,“ dodává rovněž Fanell. „Snaží se toho využít a dostat se k tomu dříve než my.“
Princip lidského faktoru by mohl být jednoduše reinterpretován, aby se vztahoval na „větší, celkovou úroveň boje“ spíše než na „úroveň jednotlivého výstřelu“, vysvětluje Ma.
Ale jakmile někdo přijme, že AI může začít střílet sama za určitých okolností, princip lidské kontroly se stává tvárným, podotýká Fanell.
„Pokud jste ochotni to přijmout v taktickém smyslu, kdo může říct, že to nedovedete až na nejvyšší úroveň válčení?“ ptá se.
„Je to přirozený vývoj této technologie a nejsem si jistý, co můžeme udělat, abychom to zastavili. Není možné, abychom měli etický kodex, který by říkal, že v rámci války bychom se měli řídit [něčím jako] pravidla boxu od markýze z Queensberry. To se prostě nestane.“
I když zůstane lidská kontrola nad makro rozhodnutími, jako je například zahájení konkrétní mise, AI může snadno dominovat rozhodovacímu procesu. Nebezpečí by nespočívalo ve špatně fungující AI, ale spíše v takové, která by fungovala tak dobře, že by vzbuzovala důvěru u lidských operátorů.
De Ridder vyjádřil skepsi ohledně předpovědí o superinteligentní umělé inteligenci, která by daleko převyšovala lidské schopnosti. Přesto uznává, že AI v některých ohledech lidi převyšuje, zejména co se týče rychlosti; dokáže zpracovat obrovské množství dat a téměř okamžitě vyvodit závěr.
A podle Maa a Qiua je prakticky nemožné zjistit, jak přesně AI dospívá ke svým závěrům.
De Ridder prozradil, že on a další pracují na způsobech, jak omezit AI na lidský pracovní postup, aby jednotlivé kroky jejího uvažování byly více rozpoznatelné.
Ale vzhledem k obrovskému množství dat, které AI zpracovává, by bylo nemožné, aby AI vysvětlila, jak každý kousek informací ovlivnil její uvažování, aniž by operátora zahltila, zdůrazňuje Ma.
„Pokud lidský operátor ví, že rozhodnutí vzniklo na základě analýzy terabajtů dat umělou inteligencí, většinou mu chybí odvaha to rozhodnutí zrušit. Takže si myslím, že to bude spíše formalita,“ vysvětluje.
„Fráze ‚lidský faktor‘ může znít příjemně, ale ve skutečnosti lidé brzy odevzdají kontrolu.“
Veřejný tlak
Všichni odborníci se shodují, že veřejný tlak pravděpodobně omezí vývoj a používání AI zbraní, alespoň ve Spojených státech.
Ma uvedl příklad, kdy Google ukončil obranný kontrakt na základě námitek svého personálu. Nedokáže si však představit obdobnou situaci v Číně.
Qiu souhlasí: „Cokoli uvnitř Číny je zdrojem, který může čínský režim využít.“ „Nelze říct: ‚Oh, to je soukromá společnost.‘ V Číně neexistuje soukromá firma jako taková.“
Ani čínský režim nemůže zcela ignorovat veřejné mínění, objasňuje De Ridder.
„Vláda může přežít pouze tehdy, pokud se populace chce podílet na spolupráci,“ uvedl.
Avšak neexistují žádné náznaky, že by čínská populace vnímala vojenské využití AI jako naléhavý problém. Naopak, firmy a univerzity v Číně se zdají být dychtivé získat vojenské zakázky, poznamenává Ma.
De Ridder vyzývá k vytvoření „mezinárodního regulačního rámce, který by bylo možné vynucovat“.
Není jasné, jak by takové předpisy mohly být vynuceny vůči Číně, která má dlouhou historii odmítání jakýchkoli limitů na svůj vojenský rozvoj. Spojené státy se dlouho marně snažily přivést Čínu k jednacímu stolu ohledně jaderného odzbrojení. Nedávno Čína odmítla žádost USA o zajištění, že nebude používat AI při rozhodování o jaderných úderech.
Pokud Spojené státy regulují svůj vlastní vývoj AI, mohlo by to podle mnoha odborníků vytvořit strategickou zranitelnost.
„Tyto regulace budou důkladně prostudovány čínským režimem a použity jako nástroj útoku,“ varoval Qiu.
Thayer upozorňuje, že i kdyby bylo dosaženo nějaké dohody, čínská komunistická strana má špatnou pověst, pokud jde o dodržování svých slibů.
„Jakákoliv dohoda je jako křehký koláčový korpus, který se snadno rozpadne,“ přirovnává.
Řešení
De Ridder doufá, že se národy nakonec rozhodnou používat AI méně destruktivním způsobem.
„Existuje spousta způsobů, jak můžete využít AI k dosažení svých cílů, aniž byste museli posílat hejno vražedných dronů proti sobě,“ konstatuje. „Když přijde na lámání chleba, nikdo nechce, aby k těmto konfliktům došlo.“
Další odborníci uvedli, že čínský režim by neměl problém takový konflikt vyvolat – pokud by viděl jasnou cestu k vítězství.
„Číňané nebudou omezeni našimi pravidly,“ prohlásil Fanell. „Udělají cokoliv, co je třeba, aby zvítězili.“
Podle Thayera může být spolehnutí se na rady vojenského poradce umělé inteligence, který se tváří důvěryhodně, protože zpracová obrovské objemy dat a umí vytvářet přesvědčivé bojové plány, mimořádně nebezpečné. Tímto způsobem by se totiž mohla vytvořit falešná představa o vítězství, kde by to dříve nebylo možné.
„Je jasné, jak by to mohlo být pro rozhodovatele, zejména pro tak hyperagresivní, jako je KS Číny, velmi lákavé,“ upozornil Thayer. „To by mohlo zvýšit pravděpodobnost agresivního jednání.“
„Jediným způsobem, jak to zastavit, je mít schopnost to porazit,“ sdílí Fanell.
Chuck de Caro, bývalý konzultant Úřadu pro hodnocení sítí Pentagonu (Pentagon’s Office of Net Assessment), nedávno vyzval Spojené státy, aby vyvinuly elektromagnetické zbraně, které by mohly deaktivovat počítačové čipy. Může být dokonce možné vyvinout energetické zbraně, které by mohly deaktivovat určité typy čipů, napsal v komentáři pro Blaze Media.
„Je zřejmé, že bez funkčních čipů umělá inteligence nefunguje,“ napsal.
Další možností by mohlo být vyvinout superzbraň AI, která by mohla sloužit jako odstrašující prostředek.
„Existuje projekt AI typu Manhattan, na kterém USA pracují a který by mohl vytvořit na čínský režim efekt, jaký měly Hirošima a Nagasaki, a přivést je k uvědomění, že možná nechtějí jít tímto směrem vzájemného zničení? Nevím. Ale to je to, co bych [možná] udělal,“ poznamenal Fanell.
To by mohlo ponechat svět v situaci podobné studené válce – což rozhodně není ideální stav, ale pravděpodobně by byl považován za lepší než ztráta vojenské výhody vůči KS Číny.
„Každá země ví, že je to nebezpečné, ale nikdo nemůže přestat, protože se bojí, že zůstanou pozadu,“ prohlásil Ma.
De Ridder uvedl, že může být zapotřebí hlubokého šoku, aby se zastavil závod v oblasti zbrojení s AI.
„Možná budeme potřebovat něco jako světovou válku s ohromnou lidskou tragédií, abychom zakázali používání autonomních AI vražedných strojů,“ uzavírá.
–ete–