Četbotovi veštačke inteligencije pružaju lažne informacije o predstojećim američkim izborima

Stefan Milosavljević аватар

Nakon nedavne studije koju su sproveli novinari i akademski istraživači, Amerikanci su upozoreni da ne veruju popularnim četbotovima sa veštačkom inteligencijom (AI) za informacije o predsedničkim izborima u novembru. Četbotovi su u najmanje 50 odsto slučajeva davali lažne informacije, što predstavlja ozbiljnu opasnost po demokratiju, kako su istakli stručnjaci.

Studija Projekta AI demokratije, sprovedena u saradnji sa Pruf njuzom i Laboratorijom za nauku, tehnologiju i društvene vrednosti pri Institutu za napredne studije u Prinstonu, otkrila je da su četbotovi veštačke inteligencije kao što su Guglov „Gemini“, Metin „LLaMA 2“ i Mistralov „AI Miktral“ dali netačne informacije u vezi sa izborima, kao i nepotpune ili pristrasne odgovore.

Stručnjaci za veštačku inteligenciju istakli su da takve dezinformacije mogu naneti štetu i da građani moraju biti veoma oprezni u vezi sa izvorima informacija na internetu. Iako su identifikovane razlike u preciznosti između različitih četbotova, čak i najtačniji je bio netačan u jednoj petini svojih odgovora.

Kompanije koje upravljaju četbotovima su reagovale na rezultate studije, ističući da je metodologija bila problematična. Meta je kritikovala upotrebu interfejsa za programiranje aplikacija (API) umesto njihovih javnih AI proizvoda, dok je Gugl istakao da njihovi modeli mogu biti netačni kada im se pristupa preko API-ja.

Istraživači su upozorili da takve netačne informacije mogu dovesti do frustracija, smanjenog učešća građana u izborima i generalne erozije istine. Važno je da građani budu obazrivi u vezi sa informacijama koje dobijaju od četbotova sa veštačkom inteligencijom kako bi sačuvali integritet izbornog procesa i demokratskih principa.

Stefan Milosavljević аватар