Je AI partnerem, kterému můžeme věřit?

Když přemýšlíme o tom, jak AI systémy integrovat do našich každodenních pracovních či soukromých činností, je určitě na místě také otázka spolehlivosti a důvěryhodnosti.

Ve svém blízkém i širším okolí se velmi často setkávám s poměrně rezervovanými postoji ke schopnostem aktuálně tolik využívaných velkých jazykových modelů (LLM), jakými jsou například ChatGPT, Copilot nebo Gemini. Mnozí lidé o AI prohlašují, z jejich pohledu zcela legitimně, že: „ta věc mi systematicky lže“, „GPT si vymýšlí hlouposti“ nebo „celá ta umělá inteligence je k ničemu“. Ale je to opravdu tak? Pokusím se na tuto otázku alespoň částečně odpovědět.

Co vlastně od AI očekáváme?

Prvním problémem mohou být naše značná, až přehnaná očekávání a příliš velká důvěra ve schopnosti AI. Konkrétně pak směrem k tolik populárním velkým jazykovým modelům, které se ze své podstaty zdají být velmi „lidské“. Jeden moudrý člověk, a můj kolega, kterého si velmi považuji, prohlásil něco ve smyslu: „Lidstvo tradičně očekává, že nás umělá inteligence buďto spasí, nebo nás zničí.“ Tak jednoduché to ale, naštěstí, není.

Jedním z hlavních úkolů současné umělé inteligence bezesporu je usnadnit a urychlit nám práci a pomoci nám vidět souvislosti tam, kde je pro nás lidi často obtížné je zahlédnout. A současné velké jazykové modely jsou v tomto smyslu opravdu velkým lákadlem. Komunikují s námi přirozeným jazykem, většinou správně rozumějí našim formulacím a požadavkům a mají velmi široký, a mnohdy i dostatečně hluboký, vhled do mnoha oblastí lidské činnosti, do naší historie i do současnosti. V důsledku toho je snadné podlehnout představě, že AI je „univerzálním nástrojem pravdy“. Vše je navíc umocněno příjemným a přesvědčivým, dalo by se říci až sebevědomým, způsobem, kterým nám chatboti předkládají odpovědi na naše všetečné dotazy. Člověk by mohl nabýt dojmu, že „ta věc“ má odpověď úplně na cokoli a že dokáže nabídnout řešení čehokoli.

Ale jaká je realita?

To vše ale neznamená, že je AI neomylná a že by při rozhodování, zejména o důležitých aspektech našich životů, měla zcela nahradit náš lidský cit, intuici a zkušenost. Troufám si říct, že to je poněkud krátkozraký přístup. Jakýkoli kognitivní model je jen tak dobrý, jako data, na kterých byl trénován. Jinými slovy, jakákoli současná umělá inteligence spolehlivě ví pouze to, čím jsme ji s dostatečnou precizností „nakrmili“.

To, že mi GPT vygeneruje přehledně a jazykově korektně formulovanou odpověď během několika sekund, navíc obvykle velmi sebevědomě, ještě neznamená, že je ta odpověď správná nebo taková, jakou jsem očekával. Pokud jsem si fakta schopen ověřit a porovnat je s výstupem modelu, je to ten lepší scénář. Problém nastává v situacích, kdy „musím“ slepě důvěřovat ve správnost prezentovaných faktů.

Lže tedy umělá inteligence? Vymýšlí si? Krmí nás hloupostmi a halucinuje? Odpověď zní: ano i ne. Aktuální modely AI totiž velmi často „neví, že neví“, a proto si tato „hluchá místa“ něčím statisticky zaplní. Je možné, že se to v brzké době změní, ale tak daleko ještě nejsme.

Co s tím můžeme dělat?

Jedno z hlavních, nejen mých, doporučení je, zachovat si kritický odstup. Stejně jako obvykle slepě nevěříme (no dobrá, někteří z nás stále ano) všemu, co se píše na internetu, na Redditu nebo na Facebooku, neměli bychom slepě důvěřovat ani tomu, co vygeneruje umělá inteligence, která byla, mimo jiné, právě i na těchto zdrojích trénována. Zároveň to ale neznamená, že nám nemůže být prospěšná. Jak tedy na to?

V této oblasti stále velmi intenzivně probíhá výzkum, nicméně již nyní existují ověřené triky, prostřednictvím kterých můžeme výstupy z velkých jazykových modelů velmi výrazně zpřesnit a zkvalitnit. Jedním z takových postupů je tzv. RAG (Retrieval-Augmented Generation). Zjednodušeně řečeno jde o způsob, jak rozšířit schopnosti jazykového modelu, který má skvělou schopnost komunikace v přirozeném jazyce, velmi dobrou schopnost základního uvažování o problémech (tzv. inference) a široký všeobecný rozhled, ale již není tak vhodný pro přesnou práci s čísly a na generování precizních, ověřitelných výstupů. Jde o to, obohatit jej o co možná nejpřesnější a nejaktuálnější kontext k problému, který potřebuji s AI řešit. Tedy doplnit mu tolik potřebné aktuální detaily, které následně může zahrnout do svých úvah.

Představte si, že bych si chtěl prostřednictvím LLM volnou řečí popovídat se svými firemními daty. Tedy stanovovat a ověřovat si ověřitelné hypotézy, činit na základě nich důležitá rozhodnutí a hledat v datech souvislosti, anomálie a vztahy, které je tradičními datově-analytickými postupy často velmi obtížné, někdy i takřka nemožné, odhalit. Právě zde může být šikovně použitá AI opravdu mocným partnerem.

Vše, co musím udělat, je propojit velký jazykový model se svými daty, naučit ho rozumět jejich významu a dovolit mu data zpracovat – tedy extrahovat z nich informace a dále je analyzovat. Vlastně tím umělou inteligenci „doučuji“ svůj specifický kontext a zpřístupňuji jí další informace, které ve svém základním natrénování nemá v požadované přesnosti ani aktuálnosti. A funguje to překvapivě dobře!

Dejte AI šanci

Na úplný závěr bych chtěl nabídnout jedno skromné doporučení: Nelámejte nad umělou inteligencí hůl, nevzdávejte to s ní a dejte jí šanci. Mějte trpělivost nejen s AI ale i sami se sebou. Zkoušejte, hledejte a objevujte. Podle mého názoru máme v AI úžasný nástroj, který, pokud bude správně pochopený a používaný, má reálný potenciál posunout svět zas o něco dál.