Komentář
Raným pokusům o umělou inteligenci (AI) jsme se posmívali, protože dávaly odpovědi, které byly sebevědomé, chybné a často surrealistické – šlo o intelektuální ekvivalent žádosti, aby opilý papoušek vysvětlil Kanta. Ale moderní systémy AI založené na velkých jazykových modelech (LLM) jsou natolik uhlazené, výřečné a až znepokojivě schopné generovat odpovědi, že mnoho lidí předpokládá, že mohou něco vědět, a co víc – že si k vědění dokážou samostatně dovodit cestu.
Tato důvěra je však neopodstatněná. LLM jako ChatGPT nebo Grok nemyslí. Jsou to posílené „dokončovací stroje“ pro předpovídání textu. Vy zadáte pokyn a ony předpoví další slovo, pak další, a to pouze na základě vzorů v bilionech slov, na kterých byly vycvičeny. Žádná pravidla, žádná logika – jen statistické hádání převlečené za konverzaci. Výsledkem je, že LLM nemají tušení, zda je věta pravdivá, nepravdivá či vůbec smysluplná; pouze „vědí“, zda zní jako věty, které už dříve viděly. Proto si tak často sebevědomě vymýšlejí: soudní případy, historické události nebo fyzikální vysvětlení, která jsou čistou fikcí. Svět AI takové výstupy označuje jako „halucinace“.
Ale protože je projev LLM plynulý, uživatelé na model instinktivně promítají sebepochopení, spuštěné stejnými lidskými „obvody důvěry“, podle nichž rozpoznáváme inteligenci. Jde však o klamné uvažování, podobné situaci, kdy slyšíte někoho mluvit perfektní francouzštinou a předpokládáte, že musí být také výtečným znalcem vína, módy a filozofie. Zaměňujeme styl za obsah a polidšťujeme mluvčího. To nás pak svádí ke dvěma mytickým narativům:
Mýtus 1: „Stačí modely ještě zvětšit a dát jim více ‚šťávy‘ – a skutečné uvažování se nakonec objeví.“
Větší LLM jsou skutečně uhlazenější a působivější. Ale jejich základní trik – předpovídání slov – se nikdy nemění. Je to stále napodobování, nikoli porozumění. Předpokládá se, že inteligence se zázračně vynoří z kvantity, jako by se z pneumatik stala křídla tím, že je uděláte větší a roztočíte je rychleji, až auto nakonec poletí. Jenže překážka je v samotné architektuře, nikoli v měřítku: můžete napodobování učinit přesvědčivějším (auto může skočit z rampy), ale pouhým navyšováním výkonu z předpovídače vzorů neuděláte hledače pravdy. Získáte jen lepší kamufláž a – jak ukázaly studie – dokonce nižší věrnost faktům.
Mýtus 2: „Koho zajímá, jak to AI dělá? Pokud chrlí pravdu, to je jediné, na čem záleží. Konečným arbitrem pravdy je realita – tak se s tím smiřte!“
Tento mýtus je obzvlášť nebezpečný, protože pošlapává epistemologii v betonových botách. De facto tvrdí, že zdánlivá spolehlivost běžných znalostí LLM by měla být rozšířena i na důvěru v neprůhledné metody, jimiž je model získává. Jenže pravda má svá pravidla. Například závěr se stává epistemicky důvěryhodným pouze tehdy, když je dosažen buď: 1) deduktivním uvažováním (závěry, které musí být pravdivé, pokud jsou pravdivé premisy); nebo 2) empirickým ověřením (pozorováním reálného světa, které tvrzení potvrzuje nebo vyvrací).
LLM nedělají ani jedno z toho. Neumějí dedukovat, protože jejich architektura neimplementuje logickou inferenci. Nepřesouvají premisy a nedospívají k závěrům a jsou bezradné, pokud jde o kauzalitu. Také nejsou schopny cokoli empiricky ověřovat, protože nemají přístup k realitě: nemohou kontrolovat počasí ani pozorovat společenské interakce.
Pokusy překonat tyto strukturální překážky vedou vývojáře AI k tomu, že k systému LLM připojují externí nástroje, jako jsou kalkulačky, databáze nebo vyhledávací systémy. Takové zdánlivé mechanismy hledání pravdy sice zlepšují výstupy, ale neřeší základní architektonický problém.
Obchodníci s „létajícími auty“, kteří se ohánějí různými úspěchy, jako jsou výsledky IQ testů, tvrdí, že dnešní LLM vykazují nadlidskou inteligenci. Ve skutečnosti však testy IQ pro LLM porušují všechna pravidla pro provádění inteligenčních zkoušek, takže spíše než platným posouzením chytrosti strojů jsou soutěží v lidském umění promptování.
Snaha učinit LLM „hledači pravdy“ tím, že jsou přeučovány k zarovnání s preferencemi svých školitelů prostřednictvím mechanismů, jako je RLHF (učení posilováním na základě zpětné vazby od lidí), míjí podstatu problému. Tyto pokusy napravit zaujatost pouze víří hladinu struktury, která nemůže nést skutečné uvažování. Pravidelně se to ukazuje na nezdarech, jako je machrování xAI Groku s „MechaHitlerem“ nebo zobrazení amerických Otců zakladatelů jako sestavy „rasově stylizovaných“ pánů v systému Google Gemini.
Existují však i jiné přístupy, které usilují o vytvoření architektury AI umožňující autentické myšlení:
- Symbolická AI: používá explicitní logická pravidla; je silná u přesně vymezených problémů, ale slabá tam, kde panuje nejednoznačnost;
- Kauzální AI: učí se vztahům příčiny a následku a dokáže odpovídat na otázky typu „co by se stalo, kdyby“;
- Neuro-symbolická AI: kombinuje neuronové predikce s logickým uvažováním;
- Agentní AI: jedná s vědomím cíle, přijímá zpětnou vazbu a zdokonaluje se metodou pokusu a omylu.
Současný pokrok v AI však bohužel spoléhá téměř výhradně na škálování LLM. A alternativní přístupy dostávají výrazně méně financí i pozornosti – podle starého dobrého principu „následuj peníze“. Mezitím nejhlasitější „AI“ v místnosti zůstává jen velmi drahým papouškem.
LLM jsou nicméně ohromujícími inženýrskými výkony a skvělými nástroji, užitečnými pro mnoho úkolů. Jejich využití se budu věnovat mnohem podrobněji ve svém příštím sloupku. Klíčové pro uživatele však je pamatovat na to, že všechny LLM jsou a vždy zůstanou jazykovými stroji na vzorce, nikoli epistemickými agenty.
Nadšení, že LLM stojí na prahu „skutečné inteligence“, zaměňuje plynulost projevu za myšlení. Skutečné uvažování vyžaduje porozumění fyzickému světu, trvalou paměť, schopnost usuzování a plánování, které LLM zvládají jen velmi primitivně nebo vůbec – což je konstrukční fakt, který mezi odborníky na umělou inteligenci není nijak sporný.
Přistupujte k LLM jako k užitečným nástrojům podněcujícím myšlení, nikdy jako ke spolehlivým zdrojům. A přestaňte čekat, že papoušek začne dělat filozofii. Nikdy nezačne.
Původní, plná verze tohoto textu byla nedávno publikována jako první část dvoudílné série v časopise C2C Journal. Druhou část si lze přečíst zde.
Názory vyjádřené v tomto článku jsou názory autora a nemusejí odrážet stanoviska Epoch Times.
–ete–
