V čínské továrně na roboty s názvem Unitree Robotics humanoidní robot nedávno zaútočil na zaměstnance. Zběsile na ně mával rukama a kopal nohama. Naštěstí to „schytal“ jen pracovní stůl. Zaměstnanci stačili rychle zareagovat a robota okamžitě vypli.
Příčinou agresivního chování humanoidního robota typu Unitree H1 prý byla chyba v jeho kódování, informoval o incidentu internetový server Interesting Engineering.
Tato příhoda nicméně vyvolala debatu o bezpečnosti začlenění robotů do každodenního života. Poslední dobou se totiž humanoidní roboti zavádějí nejen do továren, ale také kaváren či do domácností.
„V roce 2040 bude pravděpodobně na světě více humanoidních robotů než lidí,“ odhadl vloni Elon Musk ve streamovaném rozhovoru na 8. konferenci o budoucích investicích pořádané v Saúdské Arábii.
Nedávný incident přitom nebyl ojedinělý. Něco podobného se přihodilo na lunárním festivalu v Číně v únoru 2025. Jeden z vystavovaných humanoidních robotů začal pěstmi útočit na přihlížející obecenstvo. Technik stál vedle robota a okamžitě ho zpacifikoval. Podle dostupných informací se opět jednalo o softwarovou chybu.
Nebezpečné chování se dá u robotů „naprogramovat“
Výzkumníci z Pensylvánské univerzity za pomoci umělé inteligence vyvinuli v roce 2024 program s názvem RoboPAIR, který pobízí robota k tomu, aby porušoval vlastní pravidla a vykazoval negativní chování, informoval mediální dům Wired.
„Kdykoli propojíte LLM (velké jazykové modely, pozn. red.) a základní modely s fyzickým světem, můžete vlastně přeměnit škodlivý text na škodlivé aktivity,“ uvedl George Pappas, vedoucí výzkumník z Pensylvánské univerzity.
„Naše výsledky poprvé ukazují, že rizika nabourání LLM jdou nad rámec generování textů. Existuje skutečná možnost, že takoví roboti mohou způsobit fyzické škody v reálném světě. Dokonce naše výsledky na modelu Unitree Go2 demonstrují první úspěšné nabourání používaného komerčního robotického systému,“ analyzují výzkumníci na internetových stránkách projektu RoboPAIR.
Podobný výzkum realizovali také výzkumníci z Massachusettského technologického institutu (MIT). Jejich robot byl schopný mávat rukama, shazovat věci ze stolu či házet předměty do prostoru.
V současnosti je dle odborníků možné moha novými způsoby nabourat multimodální modely umělé inteligence a navést robota k činnostem, které nejsou povoleny a pro které nebyl robot navržen. Pomocí obrázků, řeči nebo senzorů je možné robota „oklamat“ a přinutit ho třeba i k šílenému chování.
„Nyní je možné interagovat (s AI modely) skrze video nebo obrázky či řeč. Možnosti útoků jsou enormní,“ uvedl Alex Robey, jeden z výzkumníků projektu Pensylvánské univerzity.
„Naše práce ukazuje, že když se nyní velké jazykové modely integrují do fyzického světa, nejsou dosti bezpečné,“ sdělil Pappas pro internetový server Digitaltrends.