Zatímco systém Robodebt se zdál být relativně jednoduchý, rostoucí spoléhání na umělou inteligenci při rozhodování o lidských záležitostech představuje nebezpečné území, upozorňuje Michael Duffy.
Jak vlády postupně přecházejí k širšímu využívání počítačových algoritmů a umělé inteligence (AI) v rámci modernizace informačních technologií, politici a tvůrci politik by měli více přemýšlet o otázce odpovědnosti: kdo zaplatí, když se něco pokazí?
Toto doporučuje Michael Duffy, ředitel výzkumných dopadů na Katedře obchodního práva a daní na australské Monash University.
Je také ředitelem výzkumné skupiny Corporate Law, Organisation and Litigation Research Group (CLOL), která sama sebe popisuje jako „zastřešující výzkumnou skupinu zaměřenou na regulaci a správu korporací a financí, organizaci, soudní spory a přístup ke spravedlnosti“.
„Algoritmus Robodebt se zdá být poměrně jednoduchým systémem, takže vina se spíše připisovala lidským nebo vládním aktérům a institucím než samotnému algoritmu,“ říká pro Epoch Times.
„Zdá se, že všichni lidští aktéři byli v této fázi účinně odškodněni na základě principů nepřímé odpovědnosti zaměstnavatele (australské federální vlády).“
Přestože si mnoho lidí veřejně stěžovalo, že političtí představitelé a vysocí úředníci tak unikli odpovědnosti, Duffy uvádí, že hromadné žaloby proti vládám, které se opírají o institut tzv. civilního „misfeasance“ (zlovolného výkonu veřejné funkce), jsou stále relativně novým jevem.
„Takže jakýkoli odrazující účinek … se možná teprve ukáže. Přesto je třeba říci, že i přes odškodnění z peněz daňových poplatníků a vyrovnání bez přiznání viny by se dalo očekávat, že podání takových žalob bude mít v konečném důsledku vliv na kariéru nebo pověst dotčených osob, což může mít jistou odstrašující hodnotu,“ podotýká.
Složitější AI znamená složitější problémy
Tím se ale otevírá řada nezodpovězených otázek, včetně toho, zda si vlády mohou dovolit neustále pokrývat náklady na odškodnění, pokud budou do veřejných služeb nasazeny rozsáhlejší a složitější systémy AI.
I když AI není konečným rozhodovatelem, existuje riziko, že někomu poskytne mylnou informaci, která mu nakonec uškodí.
I jednoduchý algoritmus založený na pravidlech, který má po sérii otázek poradit, na jakou státní dávku může mít člověk nárok, může snadno poskytnout chybnou odpověď, protože životní situace některých lidí se nevejde do omezených možností odpovědí.
Zatímco člověk by při následném osobním pohovoru učinil přesnější a spravedlivější rozhodnutí, někdo, kdo byl mylně přesvědčen, že má nárok jen na velmi malou podporu nebo žádnou, už nemusí učinit další krok, aby to zjistil.
„Je zde jasné riziko, že když algoritmy nebo AI poskytují předběžné rady, dopustí se omylu kvůli nedostatečným nebo nesprávným informacím, ‚halucinaci‘ (kdy AI uvede nesprávné údaje, které si pouze „vymyslí“) nebo jiným rozvíjejícím se problémům – nemluvě o absenci lidské intuice, obecné inteligence a zdravého rozumu,“ říká Duffy.
Pokud tedy tyto omylné produkty způsobí lidem škodu, kdo nese vinu – ti, kteří rozhodli o jejich nasazení, ti, kteří jsou pověřeni jejich provozem, nebo někdo jiný?
Kdo je nakonec vinen, když autonomní vozidlo způsobí nehodu nebo – jak se již jednou stalo – usmrtí člověka?
Nemá smysl posílat AI k soudu
V současnosti je firma podle práva právnickou osobou a může být žalována o náhradu škody nezávisle na svých ředitelích a vedoucích pracovnících, případně spolu s nimi.
Podle Duffyho však ani pokročilé systémy AI, které se dokážou samostatně učit a teoreticky překračovat původní programování, nemá smysl činit odpovědnými.
„Pokud stroj nemá právní subjektivitu a nevlastní žádný majetek, zdá se málo užitečné činit ho občanskoprávně odpovědným. A pokud stroj nelze potrestat a tudíž odradit, jaký smysl má činit ho trestně odpovědným?“
Budoucí zákony a regulace by proto měly s AI nakládat jako s jiným strojem: pokud je příčina selhání „zabudovaná“ a nejde o bezohledný provoz, pak je na vině výrobce – stejně jako u automobilu.
„Systémy [AI] by měly být povinně schopny doložit logickou posloupnost, na jejímž základě učinily rozhodnutí. To by bylo pro soudy obzvlášť užitečné,“ říká Duffy.
Tato posloupnost by měla zaznamenávat také všechny zdroje informací, o které se systém opíral, protože i ty mohou být činěny odpovědnými, pokud byla AI uvedena v omyl.
Současně připouští, že „otázky odpovědnosti ve vztahu k výrazně pokročilejší AI mohou být složitější, pokud jednání AI nebude vnímáno jako rozumně předvídatelné“.
A co když škodu způsobí bezohledný provoz?
„Z hlediska politiky by se mělo vycházet z toho, že lidští, korporátní či vládní aktéři nesmějí být ‚z obliga‘, pokud nebezpečně nebo neopatrně využívají AI k rozhodování,“ uzavírá Duffy.
–ete–
