Dirbtinio intelekto klaidų augimas
Naujausi tyrimai, atlikti amerikiečių agentūros NewsGuard, rodo, kad dirbtinio intelekto sistemų klaidų dažnumas per pastaruosius metus gerokai išaugo. Pavyzdžiui, Google Gemini šiuo metu pateikia tris kartus daugiau klaidingų atsakymų nei prieš metus, o chatbot’as Grok — 2,5 karto daugiau. Šios tendencijos atskleidžia rimtą problemą, kuri gali turėti įtakos įvairių sričių, tokių kaip politika, tarptautiniai santykiai, verslas ir sveikata, patikimumui.
Tyrimo metodika ir rezultatai
Tyrimo metu mokslininkai pateikė chatbot’ams sąmoningai klaidingus teiginius ir paprašė patikrinti jų teisingumą. Trečdalis klausimų buvo suformuluoti tiesiogiai, o likusiuose buvo įterptas paslėptas sutikimas su teiginiais, siekiant suklaidinti modelius. Dažniausiai klydo mažiau populiarus chatbot’as Inflection AI, kuris pateikė neteisingus atsakymus 57% atvejų. Antrąją vietą užėmė dirbtinio intelekto paieškos sistema Perplexity, klydusi 47% atvejų, o populiarusis ChatGPT klydo 40% atvejų.
Klaidų priežastys ir pasekmės
Aukštas klaidų skaičius aiškinamas dviem pagrindinėmis priežastimis. Pirma, dirbtinio intelekto sistemos dažniau ieško atsakymų internete, kur informacija gali būti nepatikima. Antra, jos retai atsisako atsakyti į jautrias ir ginčytinas temas, todėl dažnai pateikia atsakymus net tada, kai neturi pakankamai žinių. Šiais metais nebuvo nei vieno neatsakyto klausimo, o tai rodo, kad dirbtinio intelekto modeliai stengiasi atsakyti visada, net jei atsakymas gali būti klaidingas.
Iššūkiai ir ateitis
Šie tyrimai atkreipia dėmesį į svarbų iššūkį, su kuriuo susiduria dirbtinio intelekto kūrėjai ir naudotojai. Norint užtikrinti, kad dirbtinio intelekto pateikiama informacija būtų patikima, būtina tobulinti modelių mokymo metodikas ir diegti patikros mechanizmus. Ateityje reikės daugiau dėmesio skirti dirbtinio intelekto etikai ir atsakomybei, siekiant sumažinti klaidų skaičių ir užtikrinti, kad šios technologijos būtų naudingos visuomenei.

