Historický zákon o regulácii umelej inteligencie z dielne Európskej komisie bezpochyby ovplyvní vývoj a inovácie v oblasti veľkých jazykových modelov. Je však otázne, či to bude pozitívne alebo negatívne.
Zákon európskych legislatívcov znie prekvapivo mierne, čím sa vyhýba tým najextrémnejším opatreniam, ktoré mohli brzdiť inovácie v oblasti umelej inteligencie (AI). Našťastie.
Na rozdiel od počiatočných obáv neukladá potrebu licencovať fundamentálne modely, ako je napríklad ChatGPT, taktiež nezakazuje trénovať AI modely nad určitým výpočtovým prahom.
Na pleciach vývojárov
Čo však prináša? Novinka stanovuje, že AI modely, ktoré na tréning potrebovali viac ako 10^25 FLOPs, čiže matematických operácií, spadajú do kategórie systémových rizík a vzťahuje sa na ne špeciálna regulácia.
Tento prah platí ako pre komerčné, tak aj pre open-source modely. Toto číslo bolo určené na základe odhadu, koľko operácií bolo potrebných na natrénovanie najsilnejších modelov, medzi ktoré patrí GPT-4 alebo Gemini od Google.
Zatiaľ však nie je jasné, aká regulácia sa bude na tieto veľké modely vzťahovať. Zákonodarcovia spomínajú nutnosť sebahodnotenia a zodpovednosť prenášajú na vývojárov, prípadne na externé agentúry, ktoré by modely AI auditovali, testovali ich bezpečnosť, možnosť zneužitia a potenciál ďalších hrozieb.
Ideálne by však mala existovať regulačná agentúra, ktorá by na tieto audity dohliadala, no to vedie k ďalšej dileme, ktorou je centralizácia moci.
Pozor na koncentráciu moci
Ak by predsa len takáto agentúra vznikla, nie je isté, kto by v nej rozhodoval. Pri pohľade na zloženie európskych štruktúr totiž existuje obava, že by padla pod vplyv extrémistických skupín, a to by boli dôsledky pre vývoj AI katastrofálne.
Tieto obavy nie sú neopodstatnené. Aj teraz sa čoraz častejšie dostávajú do verejného diskurzu skupiny niekedy označované ako „AI Doomers“. Presadzujú prísny dohľad nad AI, pričom sa obávajú nekontrolovanej superinteligencie, ktorá by mohla „ovládnuť svet“.
Ich postoj založený na strachu prehliada nespočetné výhody, ktoré môže rozvoj umelej inteligencie priniesť. Zastavenie vývoja AI by mohlo znamenať vzdanie sa pokroku, ktorý by potenciálne mohol zachraňovať životy a riešiť kritické problémy, od rozkladu demokracie až po klimatickú krízu.
Dobrá či zlá neistota?
Vágnosť zákona na niekoľkých frontoch, vrátane nedostupnosti konečného textu, zanecháva veľa na interpretácii. Už teraz je jasné, že ho bude v budúcnosti potrebné dopracovať.
Táto neistota však nie je nutne negatívna – umožňuje totiž prispôsobivosť, keďže sa umelá inteligencia vyvíja závratným tempom. Najdôležitejšia je pri regulácii AI práve rovnováha síl.
Ak by existoval AI systém, ktorého inteligencia je povedzme väčšia ako 30 percent kumulovanej inteligencie všetkých ľudí aj ďalších AI systémov, tak vzniká výrazná nerovnováha síl. Taká budúcnosť by bola veľmi nestabilná.
Prikláňam sa preto k tomu, že regulácia AI, najmä pri pohľade na riziká vyplývajúce z rozvoja superinteligentnej AI ďaleko nad úrovňou ľudí, bude prospešná za predpokladu, že bude smerovať na zamedzenie prílišného monopolu a integrácie sily.
To sa dá dosiahnuť buď reguláciou a zakazovaním, alebo úplne opačne – podporou decentralizácie a sprístupnením silnej AI čo najväčšiemu množstvu ľudí. Tak, aby sila inteligencie nebola nikdy koncentrovaná v rukách malej elitnej skupiny. Naopak, umelá inteligencia musí byť čo najviac dostupná a rozšírená, aby z nej profitovali všetci.
Taká budúcnosť môže byť nielen stabilná, ale zároveň veľmi akcelerujúca!