Kinijos AI modelių savicenzūra
Stanfordo ir Prinstono universitetų mokslininkai atliko tyrimą, kuriame nustatė, kad Kinijos dirbtinio intelekto (AI) pokalbių robotai dažniau nei Vakarų modeliai vengia atsakinėti į politinius klausimus. Šie modeliai taip pat linkę pateikti netikslius atsakymus, kai susiduria su jautriomis temomis.
Vakarų ir Kinijos AI modelių skirtumai
Skirtingai nuo Vakarų AI sistemų, kurios dažniau bando pateikti objektyvius atsakymus, Kinijos modeliai yra sukurti taip, kad atitiktų šalies vyriausybės politiką ir taisykles. Tai lemia, kad jie dažnai vengia atsakinėti į klausimus, kurie gali būti laikomi politiniais ar prieštaringais.
Politinės savicenzūros priežastys
Šis reiškinys gali būti siejamas su Kinijos griežta interneto kontrolės politika, kurioje AI technologijos yra prižiūrimos, kad išvengtų bet kokios informacijos, galinčios sukelti politinį nestabilumą. Todėl Kinijos AI modeliai yra priversti laikytis griežtų cenzūros taisyklių.
Tyrimo metodika
Mokslininkai atliko eksperimentus su įvairiais AI pokalbių robotais, užduodami jiems politinius klausimus. Jie pastebėjo, kad Kinijos modeliai dažnai atsisakydavo atsakyti arba pateikdavo atsakymus, kurie buvo netikslūs ar neaiškūs, siekiant išvengti galimų pasekmių.
Daugiau informacijos rasite originaliame straipsnyje.
