Lydia Roeber

11. 10. 2023

Bývalý manažer společnosti Google, který je považován za průkopníka v oblasti umělé inteligence, vyjadřuje vážné obavy z široké dostupnosti nástrojů umělé inteligence. Jeho hororová vize budoucnosti: umělá inteligence se používá k vytvoření uměle generovaného superviru.

Mustafa Suleyman, spoluzakladatel společnosti Google DeepMind, vyjádřil tyto obavy v rozhovoru pro podcast. Průkopník umělé inteligence (AI) zkoumal, jak nebezpečné by mohlo být, kdyby se umělá inteligence podílela na syntetickém vytváření virů. Suleyman přitom varoval před důsledky příliš snadného přístupu k softwarovým nástrojům založeným na umělé inteligenci pro každého. Existuje nebezpečí, že by AI mohla být zneužita k vytvoření extrémně škodlivého viru v laboratoři.

Nebezpečí pro lidstvo: technologie se setkává s biologií

Jako host rozhovoru v podcastu The Diary of a CEO vykreslil bývalý manažer společnosti Google Suleyman pochmurný obraz budoucnosti. Svět, v němž systémy umělé inteligence vyvinou syntetické patogeny, které budou přenosnější a smrtelnější než cokoli, co kdy vytvořila příroda. Podle Suleymana je to potenciální realita, které možná budeme muset čelit. „Nejčernější scénář je, že lidé budou experimentovat s patogeny, uměle vyrobenými syntetickými patogeny, které se nakonec náhodou nebo dokonce záměrně stanou přenosnějšími.“

Stejně jako lze umělou inteligenci využít k optimalizaci pracovních procesů nebo programových kódů, mohly by být nástroje umělé inteligence využity i k maximalizaci účinnosti patogenu tak, aby se stal hrozbou pro lidstvo.

Potenciál zneužití prostřednictvím „umělé inteligence pro každého“

Hlavní problém podle Suleymana: demokratizace technologie AI. S lepším a rozšířeným přístupem k pokročilým nástrojům AI se exponenciálně zvyšuje potenciál pro zneužití. V současné době může technologii AI příliš mnoho lidí používat příliš nekontrolovaně. „Pracujeme s nebezpečnými věcmi,“ řekl Suleyman. „Nemůžeme k nim nechat přístup jen tak každému. Musíme omezit, kdo může používat software AI, cloudové systémy a dokonce i některé biologické materiály.“

Suleyman se zasazuje o „strategii omezování“ AI, kterou přirovnává ke strategii NATO v oblasti jaderných zbraní. Podle něj je třeba omezit přístup k nástrojům AI a je třeba, aby tvůrci politik prováděli větší regulaci. Je otázkou, zda politické procesy, které budou muset v budoucnu regulovat využívání AI, budou schopny držet krok s rychlým rozvojem této technologie.

Varování ze strany komunity zabývající se umělou inteligencí

Na konci října se Suleyman zúčastní summitu o AI ve Washingtonu. Očekává se zde účast zakladatele OpenAI Sama Altmana, šéfa Meta Marka Zuckerberga, Sundara Pichaie z Alphabetu a také Elona Muska. Majitel společnosti X, dříve Twitter, a šéf výrobce elektromobilů Tesla spoluzaložil startup OpenAI, který vyvinul ChatGPT. Elon Musk založil novou společnost zaměřenou na umělou inteligenci (AI). Jmenuje se „X.AI“ a má konkurovat ChatGPT.

Přestože je to také jedna z oblastí Muskova podnikání, několikrát varoval před nebezpečím umělé inteligence. Jednapadesátiletý Musk byl například také – pravděpodobně nejvýznamnějším – spolusignatářem otevřeného dopisu s názvem „Zastavte všechny rozsáhlé experimenty s umělou inteligencí“, v němž více než 1 000 signatářů z oblasti vědy a obchodu varovalo před důsledky rychle se šířící umělé inteligence na jaře 2023. Obávají se, že by se systémy umělé inteligence mohly stát příliš výkonnými, a tím i nebezpečnými pro lidstvo. Dopis vyzval všechny příslušné laboratoře, aby minimálně na šest měsíců zastavily vývoj systémů umělé inteligence a během této doby společně s nezávislými odborníky vypracovaly a zavedly bezpečnostní protokoly.

Z původního článku německé redakce deníku The Epoch Times přeložila Gabriela Kalinová.

Související témata

Související články