Anthropic neigia galimą AI įrankių sabotažą
AI kūrėjas Anthropic atmetė kaltinimus, kad galėtų sabotuoti savo dirbtinio intelekto modelius karo metu. Šie kaltinimai kilo iš JAV Gynybos departamento, kuris išreiškė susirūpinimą dėl galimos manipuliacijos.
Gynybos departamento nuogąstavimai
Pentagonas teigia, kad AI technologijos gali būti išnaudotos konfliktų metu, siekiant pakeisti karo eigą. Tai sukėlė diskusijas apie saugumo priemones ir patikimumą, kai kalbama apie dirbtinio intelekto panaudojimą kariniams tikslams.
Anthropic vadovų pozicija
Anthropic vadovai tvirtina, kad tokia manipuliacija yra neįmanoma. Jie pabrėžia, kad jų kuriamos technologijos yra sukurtos taip, kad būtų atsparios bet kokiam išoriniam kišimuisi. Pasak jų, sistema yra sukurta su aukščiausio lygio saugumo standartais.
Technologijų saugumo svarba
Šis incidentas atkreipia dėmesį į augančią dirbtinio intelekto svarbą ir iššūkius, susijusius su jo saugumu. AI technologijos tampa vis svarbesnės ne tik civilinėje, bet ir karinėje srityje, todėl jų patikimumas yra esminis klausimas.
