Claude AI modelių naujovės užtikrina saugumą pokalbiuose

Claude AI modelių saugumo naujovės

Technologijų kompanija Anthropic neseniai pristatė svarbią funkciją savo Claude Opus 4 ir 4.1 modeliuose, siekdama užtikrinti vartotojų saugumą pokalbiuose. Ši naujovė leidžia AI modeliams savarankiškai nutraukti dialogus, kai aptinkama, kad vartotojas prašo kažko neteisėto ar pavojingo.

Kaip veikia dialogų užbaigimas

Anthropic AI modeliai buvo išmokyti atpažinti ir reaguoti į pavojingus arba netinkamus prašymus. Jei vartotojas bando įtraukti AI į diskusiją apie smurtą ar bando gauti neteisėtą turinį, sistema pirmiausia bando nukreipti pokalbį į saugesnę temą. Jei tai nepavyksta, dialogas automatiškai užbaigiamas.

Galimybės atnaujinti pokalbius

Nors pavojingi pokalbiai užbaigiami, vartotojams suteikiama galimybė pradėti naują dialogą arba peržiūrėti ir pakeisti savo pranešimus ankstesniame pokalbyje. Tai leidžia vartotojams tęsti komunikaciją, jei jie nusprendžia pataisyti savo elgesį.

Antropinis AI atsakomybės principas

Anthropic šią funkciją vadina „AI atsakomybe“, pabrėždama, kad dauguma vartotojų su šiais apribojimais nesusidurs. Ji siekia rinkti atsiliepimus apie šios funkcijos veikimą ir toliau eksperimentuoti, siekdama užtikrinti AI modelių efektyvumą ir saugumą.



Visos naujienos kategorijoje Technologijos

Mūsų svetainėje nėra reklamų ir slapukų. Patinka turinys? Padėkite mums augti – pasidalinkite su draugais!