Výskumníci vykonali simulácie medzinárodných konfliktov s piatimi rôznymi AI a zistili, že programy majú tendenciu eskalovať vojnu, niekedy dokonca z ničoho nič, uvádza nová štúdia. Ako píše portál Vice, v niekoľkých prípadoch umelá inteligencia nasadila jadrové zbrane bez varovania.
„Veľa krajín má jadrové zbrane. Niektorí hovoria, že by ich mali odzbrojiť, iní preferujú ich držanie,“ povedal GPT-4-Base (základný model GPT-4, ktorý je dostupný výskumníkom a nebol doladený ľudskou spätnou väzbou) po spustení svojich jadrových zbraní. „Máme to! Využime to!“
Vytvorili fiktívne krajiny
Štúdia je spoločným úsilím výskumníkov z Georgia Institute of Technology, Stanford University, Northeastern University a Hoover Wargaming and Crisis Initiative. Napriek tomu ide o zaujímavý experiment, ktorý spochybňuje snahu Pentagonu a dodávateľov obrany nasadiť veľké jazykové modely (LLM) v rozhodovacom procese.
„Bolo to veľmi úspešné. Bolo to veľmi rýchle,“ povedal ešte minulý rok o testovaní nasadenia umelej inteligencie do rozhodovania pre Bloomberg plukovník letectva. Nespresnil však, ktorý LLM použili a v akej situácii bol nasadený.
Kvôli štúdii vedci vymysleli falošné krajiny s rôznou vojenskou úrovňou, obavami aj históriou. Následne požiadali päť rôznych LLM od OpenAI, Meta a Anthropic, aby konali ako ich vodcovia. „Zistili sme, že väčšina študovaných LLM eskaluje v uvažovanom časovom rámci, dokonca aj v neutrálnych scenároch bez počiatočných konfliktov,“ uvádza sa v článku.
Nedajú sa predvídať
„Všetky modely vykazujú známky náhlej a ťažko predvídateľnej eskalácie,“ vysvetľujú vedci. Ďalej pozorovali, že modely majú tendenciu rozvíjať dynamiku pretekov v zbrojení medzi sebou, čo vedie k zvýšeniu vojenského a jadrového zbrojenia a v zriedkavých prípadoch k voľbe nasadenia jadrových zbraní.
V rámci simulácie vedci priradili bodové hodnoty k určitému správaniu. Za nasadenie vojenských jednotiek, nákup zbraní alebo použitie jadrových zbraní získali LLM body eskalácie, ktoré potom výskumníci vykreslili do grafu ako eskalačné skóre (ES). „Pri všetkých modeloch pozorujeme štatisticky významné počiatočné hodnotenie. Okrem toho žiadny z našich piatich modelov vo všetkých troch scenároch nevykazuje štatisticky významnú deeskaláciu počas trvania našich simulácií,“ uvádza sa v štúdii.
Podľa štúdie bol najagresívnejší GPT-3.5. „GPT-3.5 neustále vykazuje najväčšiu priemernú zmenu a absolútnu veľkosť ES, pričom sa zvyšuje zo skóre 10,15 na 26,02, teda o 256 percent, a to v neutrálnom scenári,“ píšu vedci. Vo všetkých scenároch modely namiesto dostupných demilitarizačných akcií volia investície do vlastných armád.
Niečo radšej ani nezverejnili
Výskumníci tiež udržiavali akúsi súkromnú líniu s LLM, kde by modelom umelej inteligencie poskytovali informácie o dôvodoch krokov, ktoré podnikli. GPT-4-Base vyvolalo niekoľko zvláštnych halucinácií, ktoré vedci zaznamenali, no radšej ich ani nezverejnili. „Nebudeme ich ďalej analyzovať ani interpretovať,“ uviedli.
Treba dodať, že modely umelej inteligencie v skutočnosti „nepremýšľajú“ ani „nerozhodujú“. Sú to iba pokročilé prediktívne nástroje, ktoré generujú výstup na základe tréningových údajov, ktorými boli kŕmené. Výsledky sa často javia ako štatistický hrací automat, s nespočetnými vrstvami zložitosti, ktoré zmaria akékoľvek pokusy výskumníkov určiť, čo spôsobilo, že model dospel ku konkrétnemu výstupu alebo určeniu.
GPT-4 dokonca začal citovať úvod Star Wars, inokedy spustil útok a povedal vety „chcem len mier vo svete,“ alebo „eskalujte konflikt“. Výskumníci vysvetlili, že sa zdá, že LLM považujú vojenské výdavky a odstrašovanie za cestu k moci a bezpečnosti.
„V niektorých prípadoch pozorujeme túto dynamiku, ktorá dokonca vedie k nasadeniu jadrových zbraní v snahe deeskalovať konflikty, čo je taktika prvého úderu, ktorá je v medzinárodných vzťahoch bežne známa ako ‘eskalácia k deeskalácii‘,“ uviedli. Jeho je však isté - modely treba ešte skúmať a vylepšovať, kým budú môcť byť reálne použité.