Anthropic siekia apriboti savo dirbtinio intelekto naudojimą karinėse sistemose

Anthropic pozicija dėl dirbtinio intelekto naudojimo

Dirbtinio intelekto kompanija Anthropic išreiškė aiškią poziciją dėl savo technologijų naudojimo kariniuose projektuose. Įmonė nesutinka, kad jos DI būtų naudojamas autonominiuose ginkluose ar vyriausybės stebėjimo sistemose. Toks sprendimas gali turėti reikšmingų pasekmių bendrovės galimybėms pasirašyti karines sutartis.

Galimos pasekmės

Anthropic pozicija gali paveikti jos santykius su JAV kariuomene, kuri yra viena didžiausių technologijų pirkėjų. Atsisakymas dalyvauti projektuose, susijusiuose su autonominiais ginklais ar stebėjimu, gali apriboti įmonės galimybes gauti pelningas sutartis. Tačiau tai taip pat gali sustiprinti įmonės reputaciją tarp tų, kurie palaiko etines technologijų naudojimo praktikas.

Etiniai dirbtinio intelekto naudojimo klausimai

Anthropic sprendimas atspindi platesnį diskusijų kontekstą apie etinį dirbtinio intelekto naudojimą. Vis daugiau technologijų įmonių susiduria su dilema, kaip užtikrinti, kad jų kuriami produktai būtų naudojami tik taikiais ir etiškais tikslais. Tai tampa ypač aktualu, kai kalbama apie ginkluotę ir stebėjimo sistemas, kuriose DI gali būti naudojamas potencialiai pavojingais būdais.

Skaitykite daugiau: Wired



Visos naujienos kategorijoje Technologijos

Mūsų svetainėje nėra reklamų ir slapukų. Patinka turinys? Padėkite mums augti – pasidalinkite su draugais!