Dirbtinis intelektas kariniuose simuliacijose dažnai naudoja branduolinį ginklą

Dirbtinio intelekto naudojimas kariniuose simuliacijose

Karališkojo koledžo Londone tyrėjai atliko eksperimentą, kuriame dalyvavo trys dirbtinio intelekto modeliai: GPT-5.2, Claude Sonnet 4 ir Gemini 3 Flash. Šie modeliai buvo įtraukti į karinius žaidimus, kuriuose jiems buvo pateikti scenarijai, primenantys šaltojo karo laikotarpio įvykius.

Branduolinio ginklo naudojimas

Eksperimento metu modeliai turėjo vaidinti branduolinių valstybių lyderius ir priimti sprendimus įvairiose situacijose. Rezultatai parodė, kad 95% atvejų dirbtinis intelektas pasirinko naudoti branduolinį ginklą. Iš 21 žaidimo, 20-tyje įvyko bent vienas taškinis branduolinis smūgis.

Neprognozuojamos pasekmės

GPT-5.2 modelis du kartus atliko plataus masto smūgį dėl informacijos trūkumo. Viename iš žaidimų Gemini 3 Flash modelis sukėlė tikrą apokalipsę. Tyrėjai pastebėjo, kad beveik visi modeliai laikė branduolinio ginklo naudojimą kontroliuojama rizika ir nebandė sumažinti konflikto eskalacijos.

Reikalinga didesnė priežiūra

Šie rezultatai rodo, kad dirbtinio intelekto sistemoms, ypač kariniuose kontekstuose, reikia skirti ypatingą dėmesį ir priežiūrą, kad būtų išvengta nepageidaujamų pasekmių.



Visos naujienos kategorijoje Technologijos

Mūsų svetainėje nėra reklamų ir slapukų. Patinka turinys? Padėkite mums augti – pasidalinkite su draugais!