Asistenții AI „nu redau corect știrile în 45% din cazuri”, afirmă BBC/EBU.
În propriul studiu însă, 45% reprezintă suma totală de probleme (de diferite severități) observate la agenții AI.
Dintre acestea, erorile factuale fiind de doar ~20%, adică o cincime.
În interiorul acestor 45%, găsim aproximativ:
- ~31% probleme de sursare, citare sau atribuire (linkuri inexistente ori irelevante, plasarea greșită a unei declarații, parafrazarea unui citat ca și cum ar fi citat direct).
- ~20% erori factuale propriu-zise.
- ~14% probleme de context: informație prezentată fără nuanțe de fundal esențiale, de exemplu lipsa cadrului temporal sau juridic necesar pentru a interpreta corect afirmația.
Diferența dintre o știre factual falsă și o eroare de atribuire este majoră și BBC știe asta, dar totuși a ales să comunice în titlu cifra totală, nenuanțat.
Cum știm, azi știrile se iau doar din titluri, și dacă citești doar titlul BBC rămâi cu impresia că AI-ul nu prezintă corect știrile în aproape jumătate din cazuri. Ceea ce este fals.
E exact tipul de ambiguitate și distorsionare pe care o parte a presei îl reproșează AI-ului. Ce ironic că asta apare chiar într-un astfel de articol.
Și încă un detaliu ascuns în nota de subsol: nu s-a testat „AI-ul” în ansamblu, ci preset-urile gratuite, în mod implicit ale câtorva produse (GPT-4o, Copilot default, Gemini 2.5 Flash — modelul de viteză, nu de acuratețe — și Perplexity în modul standard).
Nu s-au folosit moduri avansate de cercetare (Deep Research/Thinking), cele pe care utilizatorii informați le folosesc tocmai pentru a ridica standardul de citare și verificare.
Dacă asta e intenția — „testăm experiența majorității utilizatorilor” — spune-o clar și în titlu: este vorba despre AI-ul gratuit, în modul default, nu despre „AI” ca întreg.
Raportul arată că principalele probleme țin de linkuri inexistente sau care nu susțin afirmația, atribuiri eronate, citate imprecise sau care nici nu apar în textele invocate, plus context prea subțire.
O informație importantă, care ar fi putut fi menționată și în titlu, este că în doar șase luni, conform studiului BBC de la final de 2024 (pe întrebări din articole BBC, rulat tot pe modurile implicite) și studiului mai–iunie 2025 din auditul BBC–EBU, proporția răspunsurilor cu probleme semnificative a scăzut de la aproximativ 51% la ≈37% pe seturile comparabile.
Dar asta ar fi însemnat să arate încă din titlu că AI-ul devine defapt tot mai bun la agregat și redat știri. Ceea ce ar fi schimbat mesajul cu care, aparent, BBC vrea să rămânem.
E adevărat că, BBC menționează în articol această îmbunătățire, dar o prezintă ca pe ceva nesemnificativ.
Titlul articolului BBC arată o cutumă generală și chiar o problemă sistemică a presei tradiționale, de a alimenta o narațiune alarmistă legată de AI, în pofida evidențelor, culmea chiar din propriile studii.
AI-ul vine cu multe probleme și pe lângă uriașa oportunitate vine cu amenințări de același calibru. Context care ne obligă să vorbim despre AI cu maximă obiectivitate și atenție la nuanțe.
Înapoi la studiul propriu-zis.
Ce s-a testat, de fapt
Între mai și iunie 2025, BBC/EBU au rulat un audit editorial multilingv pe 2.709 răspunsuri „core”, în 14 limbi, cu preseturile gratuite, implicite ale patru produse: ChatGPT (GPT-4o), Copilot (default), Gemini 2.5 Flash (modelul de viteză, nu de acuratețe) și Perplexity în modul standard.
Nu s-au folosit moduri de deep research sau „thinking”.
Rezultatul: 45% dintre răspunsuri au cel puțin o problemă semnificativă. Iar defalcarea care lipsește din titlu spune tot: ≈31% țin de sursare/atribuire, ~20% sunt erori factuale, ~14% țin de context.
Gemini se află mult în coada plutonului la capitolul surse (~72% cu probleme), în timp ce ceilalți trei rămân sub 25%; refuzurile de răspuns aproape că nu există (~0,5%).
O întrebare relevantă: Cum arată jurnalismul uman când vine vorba de acuratețe?
Un studiu academic din 2020 (Universitatea din Dubrovnik, Media Studies) găsește că 69% dintre materialele online analizate conțin erori.
Factorul dominant? Folosirea surselor secundare în locul celor primare, care propagă greșeala de la un site la altul.
Infrastructura corecțiilor e firavă: doar 17 din 107 site-uri aveau o modalitate clară prin care publicul să raporteze erori; când se corectează, media notează rar ce anume a fost corectat, iar o parte din articole rămân accesibile cu erori la săptămâni distanță.
În acest context, AI-ul ca principal curator și interpretator de știre vine ca un salvator și nu ca un amplificator al problemei.
Peisajul informațional a devenit extrem de complex și este imposibil de navigat fără instrumente adaptate vremurilor. AI-ul este un astfel de instrument.
Chiar dacă nu e lipsit de erori, AI-ul s-a instalat deja ca o sursă solidă de informare. E de înțeles de ce organizațiile media își simt și mai amenințată poziția de principali generatori și deistribuitori de informație.
Poziție aflată într-o continuă erodare, din cauze externe, cum a fost apariția internetului și a rețelelor sociale, dar și din cauze interne. Criza majoră de încredere în mas-media e alimentată de multe lucruri, dar un factor major este modul în care se face azi jurnalism.
Ttluri înșelatoare menite să-ți seteze din start o direcție, concluzii și narative semi-digerate și în general politici redacționale tot mai guvernate de agende pecuniare și politice și mai puțin de interesul pentru adevăr.
Criza mass-mediei este acută și AI vine ca un panaceu, pentru jurnalismul de calitate și pentru societate. Vor supraviețuii doar cei care conștientizează schimbarea de paradigmă, și se adaptează, dar nu doar tehnologic, ci și operațional și etic.
În concluzie nu putem pretinde un standard de acuratețe și etică jurnalistică pe care nu reușim să-l respectăm nici măcar într-un material despre… acuratețe și etică.
Cu titluril care „prind”, dar distorsionează, nici BBC și nici altă organizație media nu se poate reinventa și deveni relevanta în noua era a inteligenței artificiale.
Surse:



