Pre ošiaľ okolo ChatGPT niektorí ľudia uverili, že schopnosti generatívnej umelej inteligencie sú väčšie, než je tomu v skutočnosti. Podľa experta na oblasť AI Michala Valka to môže byť nebezpečné.
Valko od roku 2019 pracuje v parížskom laboratóriu spoločnosti Deep Mind, ktorá sa ako súčasť Googla špecializuje na výskum umelej inteligencie. Zaujíma sa predovšetkým o navrhovanie algoritmov, ktoré vyžadujú minimálny ľudský zásah. Rozprávali sme sa s ním aj o halucináciách AI či o tom, ako nám umelá inteligencia pomáha lepšie pochopiť ľudský mozog.
Podľa Google Trends záujem o výraz umelá inteligencia od novembra 2022 raketovo rástol, pričom vrchol dosiahol v lete tohto roku. Zaskočilo vás, aký ohlas spustilo sprístupnenie modulu ChatGPT u širokej verejnosti?
Možno ma trochu zaskočil apetít publika po tejto technológii, ale umelá inteligencia je témou od roku 1956, keď o nej bola prvá konferencia zorganizovaná Johnom McCarthym s Marvinom Minskym. Ja sám som umelú inteligenciu študoval v úplne normálnom študijnom programe už pred dvadsiatimi rokmi. Tie princípy aj veda sú tu s nami veľmi dlho a záujem o AI je raz silnejší, inokedy slabší.
Čo vás konkrétne zaskočilo na apetíte publika po generatívnej AI?
My sme si napríklad mysleli, že systémy ako ChatGPT ešte nie sú zrelé na zverejnenie, napríklad pre často spomínané halucinácie, teda akési vymýšľanie si. Ale očividne to ľuďom až tak neprekáža a systém používajú aj tak. Generatívna AI vie robiť úžasné veci a bude zaujímavé sledovať, do akých ďalších oblastí sa zapojí, no musíme si byť vedomí jej obmedzení. Problémom sú pritom stále aj úplne základné veci.
Napríklad?
Spomeniem častý problém známy ako reverse curse, teda spätná kliatba. V praxi sa napríklad generatívnej AI opýtame, ako sa volá matka Toma Cruisa, a systém nám správne odpovie: Mary Lee Pfeiffer. Hneď nato sa opýtame, ako sa volali deti Mary Lee Pfeiffer, a to už nevie. Pritom je to úplne triviálne a poukazujem tým na fakt, že obmedzenia zatiaľ existujú aj na takejto základnej úrovni.
Zmenilo sa niečo vo vývoji AI tým, že moduly ako ChatGPT, prípadne kresliace moduly AI ako Midjourney či Dall-E začali používať masy ľudí?
Ani nie. Ľudia si možno neuvedomujú, že umelú inteligenciu masovo využívame už dlho. Prvý systém rozoznávajúci reč v masovej škále tu bol už pred rokom 2000. V telefóne máme AI skoro v každej aplikácii. Youtube, čo je masovo využívaná služba, používa systém na komprimovanie videa učený AI. Robí ho o štyri percentá lepším v porovnaní s inými kodekmi. Ale koľko ľudí o tom vie? Moduly, ktoré spomínate, boli viac na očiach, viac sa o nich písalo, preto sa môže zdať, že masové rozšírenie používania AI prichádza až teraz.
Pod kapotou je len násobenie veľkých matíc
Vy sa aktuálne venujete oblasti reinforcement learning. Poviete nám o tom viac?
Je to spôsob učenia umelej inteligencie, pri ktorom je veľmi ťažké povedať, čo je vlastne správna akcia. Sú zadania, kde je to jasné – tu je obrázok, povedz mi, čo je na ňom. Ale keď máte umelej inteligencii opísať, ako riadiť auto či ako by mal robot zodvihnúť pohár, neexistuje tam jediné správne riešenie. My nechávame agenta robiť akcie a na konci mu povieme, ktorá postupnosť akcií bola dobrá. Tá spätná väzba nie je po každom jednom kroku.
Uplatňuje sa to aj pri chatbotoch?
Áno, to je tiež oblasť, kde je ťažké povedať, čo je dobrá odpoveď. Vieme, že si systém nemá vymýšľať, že nemá byť rasistický a tak ďalej, ale niekedy je zložité skonštatovať, ktorá z odpovedí by bola lepšia.
Keď je reč o vymýšľaní – ľudia majú tendenciu si AI poľudšťovať. Keď človek nevie správnu odpoveď, niekedy si ju skrátka vymyslí, než aby mal mlčať. Má rovnaké pohnútky aj AI?
Máme rôzne hypotézy, prečo si AI vymýšľa, ale určite vieme, že to nie je z rovnakých dôvodov, prečo to robia ľudia. Súčasné AI systémy nemajú ani zrnko nejakého vedomia či zámernosti. Aktuálne sú tie princípy, na ktorých fungujú AI chatboty, veľmi jednoduché. Pod kapotou je len násobenie veľkých matíc.
Pre každé možné slovo, ktoré nám systém napíše, má desiatky tisíc možností, pričom my sa snažíme o to, aby tie, ktoré tam chceme vidieť, mali najväčšiu pravdepodobnosť, že ich systém použije.
Ako veľmi vieme eliminovať takzvané halucinácie?
Vo fázach učenia môžeme len zvyšovať mieru pravdepodobnosti správneho výberu, no nikdy nemôžeme úplne vylúčiť výsledok, ktorý nazývame halucináciou. Je však veľa možností, ako sa to dá limitovať – verifikovaním v iných databázach či v externých nástrojoch. Napríklad ak chcete vypočítať, koľko je dva plus dva, nenecháte výsledok náhodne „vysamplovať“ systémom, ktorý pracuje s mierou pravdepodobnosti, ale použijete kalkulačku.
Každú metódu, s ktorou chceme ísť na verejnosť, musíme zhodnotiť na niekoľkých úrovniach – zvažujeme etické a bezpečnostné kritériá, vo firme okrem toho máme aj právnikov a filozofov.
To bol triviálny príklad, je však potrebný veľký výskum, aby sme zistili, ako spraviť systémy, ktoré sa budú správať korektne, nebudú rasistické, sexistické, nebudú mať v sebe predpojatosť, hoci sú trénované na dátach z celého internetu, kde sa práve takéto texty a názory objavujú.
Zodpovedný ale odvážny prístup
Bude sa niekedy dať stopercentne spoľahnúť na AI chatbota pri overovaní faktov?
V súčasnosti sa na ten model spoľahnúť určite nedá, ale na technológie všeobecne sa nevieme spoľahnúť stopercentne. Je potrebná dobrá správa systémov, regulácia, ako to napríklad funguje v technológiách v automobiloch. Preto by podľa mňa nasadzovanie takýchto systémov malo byť veľmi opatrné a mali by sme si byť vedomí toho, aké majú obmedzenia.
Možno aj z tohto dôvodu sa tento rok ozvali viaceré osobnosti, ktoré žiadali pauzu pre výskum v oblasti AI. Boli medzi nimi napríklad Elon Musk či Steve Wozniak. Je pauza potrebná? A možná?
Môj prístup je podobný tomu, ako to máme nastavené u nás vo firme. Treba byť zodpovedný, ale aj odvážny. Treba ísť vpred a popri tom dôkladne hodnotiť mieru rizika proporcionálne k tomu, aká škoda môže nastať. V niektorých oblastiach je zverejnenie aplikácie AI jednoduchšie, v iných komplikovanejšie – napríklad určite bude prístup iný pre aplikácie pre dizajnérov a pre medicínu.
Ako prebieha to hodnotenie potenciálnych škôd?
Každú metódu, s ktorou chceme ísť na verejnosť, musíme zhodnotiť na niekoľkých úrovniach – zvažujeme etické a bezpečnostné kritériá, vo firme okrem toho máme aj právnikov a filozofov. Zoznam našich princípov, ktorými sa riadime pri vývoji AI, máme aj verejne na stránke. Jedným z nich je napríklad to, že nebudeme pracovať na vývoji zbraní.
Ale aby som sa vrátil k tej pauze, podľa mňa vďaka týmto všetkým interným pravidlám nie sme teraz v situácii, že sme napredovali až príliš rýchlo a teraz treba pribrzdiť. Tam by sme boli, keby sme ignorovali vlastné pravidlá a nezdržovali sa analýzami toho, čo je bezpečné, etické a tak ďalej.
Jedna firma však asi nebude mať všetky odpovede.
Áno, aj preto vznikla platforma Partnership on AI, kde sú okrem nás aj všetci ďalší veľkí hráči ako Meta, Microsoft, OpenAI, Amazon, Adobe, ale aj rôzne vládne a nevládne inštitúcie. Snažíme sa, aby v diskusii o AI odznelo čo najviac hlasov – naprieč inštitúciami aj časťami sveta. My ako firma spolupracujeme pri vývoji AI aj s OECD.
Ako vedci sme však v pochopení mozgu len na začiatku, je to veľká oblasť, ktorú sme zatiaľ nerozlúskli.
Otázka používania AI je teda globálna a zahŕňa aj uvažovanie o tom, čo by sa stalo, ak AI používať nebudeme. Pretože to je tiež relevantná otázka: čo ak sa zastavením vývoja AI ochudobňujeme napríklad o cenné postupy v medicíne? Takže aj nepoužitie AI môže byť v istých prípadoch vnímané ako neetické.
Vnímanie rizík u verejnosti je rôzne. Niektorí čakajú pomaly vzburu robotov, iní vidia reálnejšie riziká, ako sú zneužitie na propagandu, únik osobných údajov a tak ďalej. Čo vnímate ako aktuálnu bezpečnostnú výzvu AI vy?
Tie problémy, ktoré spomínate ako reálnejšie riziká, sú všeobecne známe, navyše sa týkajú aj iných moderných technológií a práce s dátami vôbec. Ja sa pri výzvach opäť vrátim k tým halucináciám. Ľudia dnes chatbotom pripisujú veľké schopnosti a niektorí ich neváhajú nasadzovať v praxi, pritom ignorujú, že generatívna AI môže halucinovať, prípadne vychádzať z nepresných informácií. A to je nebezpečné.
Dlhá cesta pri výskume mozgu
Prví výskumníci, ktorí sa zaoberali AI, dúfali, že sa im vďaka umelej inteligencii podarí lepšie spoznať princípy fungovania ľudského mozgu. Podarilo sa to?
Na to sú dve odpovede. Tým, že sa AI stala novým nástrojom vedy, je ako náš ďalší mikroskop, pomáha nám lepšie skúmať rôzne oblasti, a teda aj výskum mozgu. Mapovanie mozgu a neurónových sietí, to všetko je lepšie vďaka AI. Ja sám spolupracujem na výskume, kde sledujeme, ako mozog laboratórnych myší spracováva rôzne vnemy. Umelá inteligencia nám pomáha sledovať, ako sa tie vnemy prejavujú v neurónových sieťach.
A druhá odpoveď?
Často si myslíme, že mozog a AI sú podobné veci. Je tam však veľký rozdiel. Umelé neurónové siete sú síce inšpirované tými biologickými, ale zároveň sú od nich veľmi ďaleko. Do budúcnosti sa však ponúka možnosť, aj keď je to trochu špekulácia, že ak sa nám podarí vyreplikovať inteligenciu na silikóne, zistíme, že inteligencia nepotrebuje výlučne ľudský substrát na svoju existenciu.
Ako vedci sme však v pochopení mozgu len na začiatku, je to veľká oblasť, ktorú sme zatiaľ nerozlúskli. Nevieme nielen to, ako funguje mozog, ale ani ako procesy súvisiace s pamäťou, kreativitou, inteligenciou. AI nám v tomto trochu pomáha, no bude to ešte beh na dlhé trate.
Občas sa ozývajú hlasy, že Slovensko by malo vsadiť na AI a stať sa svetovým lídrom v tejto oblasti. Je to vôbec možné?
Ja to vnímam tak, že malá krajina ako Slovensko nemôže robiť dobrý výskum vo všetkom. Stanoviť si priority je preto dobrá vec. Napríklad Kanada sa rozhodla, že bude väčšinu finančných prostriedkov dávať do štyroch typov výskumu, pričom jedným z nich je deep learning, čo je len menšia časť výskumu umelej inteligencie. Montreal sa stal hubom v tejto oblasti, otvorilo sa tam viacero laboratórií, darí sa im.
Takže treba zaveliť smerom k AI?
Určovať, či by mala byť pre Slovensko prioritou AI, to určite nie je otázka na mňa. Či by to bolo možné? Je to stále oblasť, v ktorej netreba až také veľké finančné prostriedky, nestaviate žiadny veľký hadrónový urýchľovač. Svetový úspech vedia zaznamenať aj malé tímy, Alphafold (ktorý pomocou AI odhalil a zverejnil viac ako 200 miliónov proteínových štruktúr) je tím tridsiatich ľudí.
Určovať priority pre krajinu je však ťažké, pretože keď niekomu poviete, že je priorita, inému vlastne hovoríte, že tou prioritou nie je. Navyše je to trochu ako veštenie budúcnosti. Dnes to môže vyzerať, že určitá oblasť AI je dôležitá a perspektívna, ale možno už o päť rokov to tak nebude.
Na čom teda stavať?
Hovorí sa, že na Slovensku vo vedeckom prostredí už dnes existujú rôzne ostrovčeky excelencie. Možno je dobrou cestou ich identifikovať a podporiť, ale stále je tu cesta vytvoriť aj úplne nový takýto ostrovček.
Michal Valko prednáša na ENS Paris-Saclay v Paríži, od roku 2011 sa angažuje v tíme SequeL francúzskeho Národného inštitútu pre výskum v oblasti informatiky a automatizácie (Inria). Od roku 2019 pracuje v parížskom laboratóriu spoločnosti Deep Mind, ktorá sa ako súčasť Googla špecializuje na výskum umelej inteligencie. Zaujíma sa predovšetkým o navrhovanie algoritmov, ktoré vyžadujú minimálny ľudský zásah. Je ambasádorom ocenenia ESET Science Award.