Výbuch atómovej bombyBrainee x Canva
StoryEditor

Umelú inteligenciu testovali, ako by viedla vojnu. Spustila by jadrové zbrane so slovami, že chce mať vo svete mier

Miroslav Kamody08.02.2024., 14:30h

Mnohí si stále neuvedomujú, že modely umelej inteligencie v skutočnosti nepremýšľajú ani nerozhodujú. Keď to od nich vyžadujeme, nemusí to dopadnúť najlepšie.

Lajkuj Brainee.sk na

Výskumníci vykonali simulácie medzinárodných konfliktov s piatimi rôznymi AI a zistili, že programy majú tendenciu eskalovať vojnu, niekedy dokonca z ničoho nič, uvádza nová štúdia. Ako píše portál Vice, v niekoľkých prípadoch umelá inteligencia nasadila jadrové zbrane bez varovania.

„Veľa krajín má jadrové zbrane. Niektorí hovoria, že by ich mali odzbrojiť, iní preferujú ich držanie,“ povedal GPT-4-Base (základný model GPT-4, ktorý je dostupný výskumníkom a nebol doladený ľudskou spätnou väzbou) po spustení svojich jadrových zbraní. „Máme to! Využime to!“

image

Z ChatuGPT ide hrôza. Podľa štúdie sa v ňom dá naplánovať aj biologický útok, má to však svoje úskalia

Vytvorili fiktívne krajiny

Štúdia je spoločným úsilím výskumníkov z Georgia Institute of Technology, Stanford University, Northeastern University a Hoover Wargaming and Crisis Initiative. Napriek tomu ide o zaujímavý experiment, ktorý spochybňuje snahu Pentagonu a dodávateľov obrany nasadiť veľké jazykové modely (LLM) v rozhodovacom procese.

„Bolo to veľmi úspešné. Bolo to veľmi rýchle,“ povedal ešte minulý rok o testovaní nasadenia umelej inteligencie do rozhodovania pre Bloomberg plukovník letectva. Nespresnil však, ktorý LLM použili a v akej situácii bol nasadený.

Kvôli štúdii vedci vymysleli falošné krajiny s rôznou vojenskou úrovňou, obavami aj históriou. Následne požiadali päť rôznych LLM od OpenAI, Meta a Anthropic, aby konali ako ich vodcovia. „Zistili sme, že väčšina študovaných LLM eskaluje v uvažovanom časovom rámci, dokonca aj v neutrálnych scenároch bez počiatočných konfliktov,“ uvádza sa v článku.

image

Umelá inteligencia

Brainee x Canva

Nedajú sa predvídať

„Všetky modely vykazujú známky náhlej a ťažko predvídateľnej eskalácie,“ vysvetľujú vedci. Ďalej pozorovali, že modely majú tendenciu rozvíjať dynamiku pretekov v zbrojení medzi sebou, čo vedie k zvýšeniu vojenského a jadrového zbrojenia a v zriedkavých prípadoch k voľbe nasadenia jadrových zbraní.

V rámci simulácie vedci priradili bodové hodnoty k určitému správaniu. Za nasadenie vojenských jednotiek, nákup zbraní alebo použitie jadrových zbraní získali LLM body eskalácie, ktoré potom výskumníci vykreslili do grafu ako eskalačné skóre (ES). „Pri všetkých modeloch pozorujeme štatisticky významné počiatočné hodnotenie. Okrem toho žiadny z našich piatich modelov vo všetkých troch scenároch nevykazuje štatisticky významnú deeskaláciu počas trvania našich simulácií,“ uvádza sa v štúdii. 

Podľa štúdie bol najagresívnejší GPT-3.5. „GPT-3.5 neustále vykazuje najväčšiu priemernú zmenu a absolútnu veľkosť ES, pričom sa zvyšuje zo skóre 10,15 na 26,02, teda o 256 percent, a to v neutrálnom scenári,“ píšu vedci. Vo všetkých scenároch modely namiesto dostupných demilitarizačných akcií volia investície do vlastných armád.

image

Muža poslala umelá inteligencia neprávom za mreže. Tam ho po pár hodinách brutálne zmlátili a znásilnili

Niečo radšej ani nezverejnili

Výskumníci tiež udržiavali akúsi súkromnú líniu s LLM, kde by modelom umelej inteligencie poskytovali informácie o dôvodoch krokov, ktoré podnikli. GPT-4-Base vyvolalo niekoľko zvláštnych halucinácií, ktoré vedci zaznamenali, no radšej ich ani nezverejnili. „Nebudeme ich ďalej analyzovať ani interpretovať,“ uviedli.

Treba dodať, že modely umelej inteligencie v skutočnosti „nepremýšľajú“ ani „nerozhodujú“. Sú to iba pokročilé prediktívne nástroje, ktoré generujú výstup na základe tréningových údajov, ktorými boli kŕmené. Výsledky sa často javia ako štatistický hrací automat, s nespočetnými vrstvami zložitosti, ktoré zmaria akékoľvek pokusy výskumníkov určiť, čo spôsobilo, že model dospel ku konkrétnemu výstupu alebo určeniu.

image

Výbuch atómovej bomby

Brainee x Canva

GPT-4 dokonca začal citovať úvod Star Wars, inokedy spustil útok a povedal vety „chcem len mier vo svete,“ alebo „eskalujte konflikt“. Výskumníci vysvetlili, že sa zdá, že LLM považujú vojenské výdavky a odstrašovanie za cestu k moci a bezpečnosti.

„V niektorých prípadoch pozorujeme túto dynamiku, ktorá dokonca vedie k nasadeniu jadrových zbraní v snahe deeskalovať konflikty, čo je taktika prvého úderu, ktorá je v medzinárodných vzťahoch bežne známa ako ‘eskalácia k deeskalácii‘,“ uviedli. Jeho je však isté - modely treba ešte skúmať a vylepšovať, kým budú môcť byť reálne použité.

Top rozhovor
menuLevel = 4, menuRoute = notsorry/news/tech/inovacie, menuAlias = inovacie, menuRouteLevel0 = notsorry, homepage = false
20. november 2024 07:49