Analýza
Bude svět horší, nebo lepší, pokud armády začnou nasazovat autonomní zabijácké roboty? Jejich využití zatím neupravují žádné zákony. Hrozí, že rostoucí nasazení těchto technologií sníží práh pro zahájení válečných konfliktů.
Vojensky se označují jako „smrtící autonomní zbraňové systémy“ (LAWS – Lethal Autonomous Weapon Systems). Jde o zbraňové systémy, které pomocí senzorů a počítačových algoritmů samostatně identifikují cíl a následně jej zničí nebo usmrtí, aniž by bylo nutné přímé řízení člověkem.
V běžné řeči se jim říká „zabijáčtí roboti“. Tento výraz připomíná postavu Terminátora ze stejnojmenného sci-fi filmu Terminátor z roku 1984, v němž hrál herec Arnold Schwarzenegger.
Přitažlivost této technologie řízené umělou inteligencí je zřejmá. Ve válce na Ukrajině se již používají drony, které dokáží samostatně létat, sledovat předem stanovené cíle a následně je zničit či usmrtit. Ukrajinský prezident Volodymyr Zelenskyj minulý týden uvedl, že ukrajinští pozemní roboti poprvé obsadili ruskou pozici bez nasazení vojáků.
Z technologického hlediska jde o dokonalou zbraň: nikdy se neunaví a může bojovat nepřetržitě. Je přesnější než člověk a disponuje reflexy, kterých lidská bytost nemůže dosáhnout.
Tato technologická revoluce nás podle řady odborníků přivádí do éry, kdy se dosavadní vojenské systémy rychle stávají zastaralými. Rakety, tanky, dělostřelectvo, střelné zbraně i vojáci bojující způsobem známým z druhé světové války mají proti systémům LAWS jen omezené využití a mohou se v blízké budoucnosti stát minulostí.
Pro provoz LAWS už nejsou potřeba vojáci, ale spíše programátoři a inženýři. Tyto systémy zároveň představují ideální nástroj i pro teroristy a autoritářské režimy. Na rozdíl od lidí totiž „zabijáčtí roboti“ nemají zábrany dopouštět se válečných zločinů či genocidy. Jsou navrženi tak, aby fungovali samostatně, bez přímého lidského rozkazu k palbě.
Tyto systémy již existují
Jedním z nejznámějších „zabijáckých robotů“ je útočný dron Kargu-2 vyvinutý tureckou společností STM. Podle článku zveřejněném na webu Lieber Institute americké vojenské akademie West Point byl tento systém nasazen už v roce 2021 během občanské války v Libyi proti silám vojenského velitele Kalifa Haftara. Autor popisuje dron Kargu-2 jako zařízení využívající algoritmy strojového učení.
Díky tomu může být řízen jak operátorem, tak fungovat zcela autonomně. Turecký dron byl výslovně navržen jako protipěchotní zbraň, která dokáže na základě klasifikace objektů pomocí strojového učení vybrat a napadnout lidské cíle. Kargu-2 odpaluje výbušnou nálož v blízkosti cíle.
Dalším autonomním systémem je SGR-A1 – robotické střelecké zařízení vyvinuté jihokorejskou společností Hanwha Aerospace. Je instalován pevně na jednom místě a vybaven kulometem i granátometem.
Podle nevládní organizace Pax for Peace byl tento systém již nasazen na hranici mezi Severní a Jižní Koreou. Robot dokáže pomocí infračervených senzorů a softwaru pro rozpoznávání vzorců detekovat lidi. SGR-A1 má podle dostupných informací jak režim řízený člověkem, tak schopnost autonomního provozu. Dokáže tedy identifikovat narušitele na korejské hranici, sledovat je pomocí zbraní a v případě potřeby je i usmrtit.
Izraelská společnost Israel Aerospace Industries vyvynula autonomní systém HARPY. Podle organizace Pax for Peace byl prodán také do Číny, Indie, Jižní Koreje a Turecka. Jde o zhruba dvoumetrovou takzvanou „loitering“ raketu, tedy střelu, která samostatně vyčkává v prostoru a vyhledává cíl. Startuje z vozidla a nese bojovou hlavici o hmotnosti 15 kg. Raketa HARPY může ve vzduchu setrvat až devět hodin a vyhledávat nepřátelské radarové signály. Ty dokáže automaticky rozpoznat a následně zničit radarové vysílače.
Jak uvedl časopis Focus 24. dubna, Spojené státy plánují „masivní rozšíření své flotily dronů“ v indo-pacifickém regionu s ohledem na Čínu. Součástí těchto plánů jsou také autonomně operující lodě Sea Hunter a Seahawk.
Podle údajů amerického námořnictva jde o bezpilotní hladinová plavidla. Slouží jako prototypy pro průzkum nepřátelských mořských oblastí a bývají označována jako dronové lodě. Mají fungovat jako senzorové platformy pro vlastní pilotované námořní jednotky, poskytovat přehled o situaci na otevřeném moři a podporovat boj proti ponorkám.
Ve Francii vyvíjí společnost Dassault Aviation bezpilotní bojový letoun pro Evropu s názvem nEUROn.
Má Čína už robotické vojáky?
V únoru vzbudilo pozornost video z Číny zveřejněné na síti X, na němž jsou humanoidní roboti se samopaly při střeleckém výcviku. Jak informovala francouzská stanice France 24, šlo však o video vytvořené pomocí umělé inteligence.
Americký týdeník Newsweek nicméně už o dva roky dříve psal o tom, že „čínští zabijáčtí roboti jsou na vzestupu“. Tehdy časopis odhadoval, že Čína by mohla této úrovně dosáhnout během dvou let – což by znamenalo, že by tomu tak mohlo být nyní. Spolehlivě potvrzené informace o tom však zatím nejsou k dispozici.
Morálka a etika
Podle nevládní organizace Human Rights Watch lze jen stěží očekávat, že konstruktéři systémů LAWS dokážou do těchto zbraní zabudovat mechanismus, který by zajistil dodržování úmluv OSN a standardů lidských práv.
Rostoucí nasazení bojových robotů by mohlo vést k tomu, že lidé přenechají strojům rozhodování o životě a smrti. Human Rights Watch se v roce 2012 podílela na vzniku kampaně Stop Killer Robots (Zastavme roboty zabijáky).
Tato iniciativa se zabývá praktickými i etickými důsledky moderních vojenských technologií a upozorňuje: „Ať už na bojišti, nebo při demonstraci – stroje nejsou schopny činit složitá etická rozhodnutí a nedokážou pochopit hodnotu lidského života.“
Vývoj systémů LAWS podle organizace zároveň oslabuje morální odpovědnost i stávající právní rámce.
Nedostatek odpovědnosti
Pokud lidé přestanou rozhodovat o všech aspektech vedení války, nelze je podle kritiků plně činit odpovědnými za její důsledky. Hnutí proto požaduje vytvoření nových pravidel. Při absenci kontroly a odpovědnosti hrozí, „že poškození lidé nebudou mít nikoho, na koho by se mohli obrátit“, upozorňuje nevládní organizace. V takovém případě by nebylo možné nikoho postavit před soud a vyvodit právní odpovědnost.
Další problém podle kritiků spočívá v tom, že čím více se lidé „odpoutávají“ od samotného bojiště, tím více může nová vojenská technologie snižovat práh pro zahájení konfliktů. Je sice „pochopitelné, že státy chtějí omezit rizika pro své vojáky“, avšak nasazení robotických systémů může „usnadnit vstup do konfliktů“.
Podobně se vyjádřil i generální tajemník OSN António Guterres. Smrtící autonomní zbraňové systémy označil za „politicky nepřijatelné a morálně zavrženíhodné“. Od roku 2018 vyzývá členské státy, aby se dohodly na právně závazném nástroji, který by zakázal používání těch systémů LAWS, jež nejsou v souladu s mezinárodním humanitárním právem, a zároveň reguloval všechny ostatní typy autonomních zbraní.
–etg–
