AI povzetki novic: BBC raziskava razkrila zaskrbljujočo netočnost

Danes, ko generativni modeli umetne inteligence obljubljajo hitro in natančno posredovanje informacij, se postavlja vprašanje: ali lahko resnično zaupamo AI povzetkom novic? Nedavna raziskava BBC je razkrila, da AI orodja pogosto proizvajajo napačne ali zavajajoče povzetke, kar lahko ogrozi zaupanje v informacije.

Foto: Pexels

BBC razkriva zaskrbljujoče napake v AI povzetkih

V raziskavi, ki jo je objavil BBC, so analizirali sposobnost umetne inteligence pri povzemanju novic. Preverili so OpenAI-jevega ChatGPT, Microsoftov Copilot, Googlov Gemini in Perplexity, pri čemer so testirali njihovo sposobnost zagotavljanja natančnih odgovorov na vprašanja o aktualnih novicah. AI asistenti so imeli dostop do BBC-jeve spletne strani in so morali odgovarjati na 100 vprašanj, pri čemer so se sklicevali na izvorne članke.

Rezultati so bili skrb vzbujajoči:

  • 51 % vseh odgovorov je vsebovalo resne napake, bodisi napačne podatke, spremenjene citate ali pomanjkanje konteksta.
  • 19 % AI odgovorov, ki so citirali BBC članke, je vsebovalo dejanske napake, vključno z napačnimi številkami in datumi.
  • 13 % citatov je bilo spremenjenih ali popolnoma izmišljenih, kar postavlja pod vprašaj verodostojnost AI povzetkov.

Kateri AI model je bil najmanj zanesljiv?

Med testiranimi modeli se je kot najmanj zanesljiv izkazal Google Gemini, pri katerem je bilo 34 % odgovorov problematičnih. Sledil je Microsoftov Copilot s 27 % napačnih odgovorov, nato Perplexity s 17 %, medtem ko je bil ChatGPT z 15 % napak najmanj slab. Najpogostejše težave so bile dejanske netočnosti, napačno navajanje virov in pomanjkanje konteksta.

Kako lahko netočni AI povzetki škodijo javnosti?

BBC-jeva raziskava opozarja na resne posledice netočnih AI povzemanih novic. Deborah Turness, direktorica BBC News, je zapisala: “Izjemne koristi umetne inteligence ne smejo voditi v svet, kjer iskalci resnice dobijo popačene in napačne informacije, predstavljene kot dejstva.”

V svetu, kjer je dezinformacij že zdaj preveč, lahko napačni AI povzetki še dodatno destabilizirajo zaupanje v medije. BBC raziskava poudarja, da tudi neposreden dostop do informacij ni dovolj – AI modeli še vedno pogosto “izmišljajo dejstva”, kar pomeni, da morajo uporabniki ostati kritični in preverjati vire.

Prihodnost AI v novinarstvu: kje je rešitev?

Čeprav AI tehnologija hitro napreduje, ta raziskava poudarja potrebo po boljšem nadzoru, preverjanju virov in večji odgovornosti tehnoloških podjetij. Zanesljivost generativne umetne inteligence v novinarstvu ostaja vprašljiva, a prihodnost lahko prinese izboljšave, ki bodo povečale natančnost in zmanjšale nevarnost napačnih informacij.

Morda bi vas zanimalo tudi

Vse za moj dan
Pregled zasebnosti

Spletna stran uporablja piškotke, da vam lahko zagotovimo kar najboljšo uporabniško izkušnjo. Podatki o piškotkih so shranjeni v vašem brskalniku in omogočajo funkcije, kot so prepoznavanje ob ponovnem obisku naše spletne strani ter pomoč naši ekipi pri razumevanju, kateri deli spletne strani so vam najbolj zanimivi in uporabni.