Ananya Bhattacharya, Five times AI hallucinations embarrassed governments
Luna trecută, Africa de Sud și-a retras proiectul de Politică Națională privind Inteligența Artificială la 17 zile după publicare, deoarece documentul cita cercetări false, create de inteligența artificială.
Incidentul a umbrit un moment istoric, deoarece Africa de Sud urma să devină prima națiune africană care adopta o politică de înființare a unui consiliu de etică pentru supravegherea inteligenței artificiale în afara Occidentului. „Cea mai plauzibilă explicație este că citările generate de inteligența artificială au fost incluse fără o verificare corespunzătoare”, a declarat Solly Malatsi, ministrul Comunicațiilor și tehnologiilor digitale din Africa de Sud. „Vor exista măsuri de sancționare administrativă pentru cei responsabili de redactare și de asigurarea calității.”
Este prima dată când un guvern retrage un document din cauza erorilor de factualitate (hallucinations) generate de AI, dar cu siguranță nu este prima dată când datele eronate produse de AI apar în materiale oficiale. Texte sau citări generate incorect de algoritmi s-au strecurat în documente oficiale sau cvasi-oficiale de mai multe ori, ridicând îngrijorări cu privire la responsabilitate și evidențiind necesitatea verificării umane.
Iată cinci exemple din ultimii doi ani în care AI-ul a pus guvernele în situații dificile:
Politica de AI a Africii de Sud
Cel puțin șase dintre cele 67 de surse din bibliografia Proiectului de Politică Națională privind Inteligența Artificială, publicat în aprilie 2026, au fost halucinații AI, conform unei scrisori transmise de grupul pentru drepturi civile Article One. Un articol News24 a relatat că mai multe dintre jurnalele academice citate în documentul de politici erau „complet fictive”.
„Erorile de formatare” ale Administrației Trump
Un raport intitulat Make America Healthy Again privind sănătatea copiilor a inclus citări incorecte. Raportul, lansat în mai 2025, enumera studii inexistente, confunda autorii și jurnalele de proveniență și trăgea concluzii greșite din studii reale. The Washington Post a descoperit că unele referințe includeau termenul „oaicite” atașat URL-urilor – considerat, adesea, un indiciu care semnalează utilizarea ChatGPT. Karoline Leavitt, secretarul de presă al Casei Albe, a minimizat importanța erorilor, descriindu-le drept „probleme de formatare” și a declarat că va fi publicată o variantă corectată a raportului. Ceea ce s-a întâmplat câteva ore mai târziu.
Australia vs. Deloitte
În august 2025, Australian Financial Review a tras un semnal de alarmă cu privire la suspiciunea utilizării AI într-un raport Deloitte comandat de Departamentul pentru Ocuparea Forței de Muncă și Relații la Locul de Muncă din Australia. Academicienii au lansat acuzații conform cărora documentul conținea referințe academice false și citate inventate. Într-un e-mail trimis Departamentului de Finanțe al Australiei în septembrie 2025, Deloitte „a confirmat că utilizarea instrumentelor de AI generativ a dus la rezultate inexacte, prin care anumite citări, sub formă de note de subsol și surse în lista de referințe însoțitoare, conțineau erori”. Compania a republicat studiul corectat în septembrie, iar, în noiembrie, a returnat guvernului 290.000 de dolari din suma de 440.000 de dolari pe care o încasase pentru raport.
Canada vs. Deloitte
Utilizarea AI-ului generativ de către Deloitte într-un raport de 526 de pagini despre sistemul de sănătate, în valoare de 1,2 milioane de dolari, realizat pentru guvernul din Newfoundland și Labrador, a dus la includerea unor citări false, a relatat The Independent în noiembrie anul trecut. Deloitte a relansat raportul după corectarea citărilor. Între timp, guvernul și-a actualizat contractele de licitație (Request for Proposals), astfel încât toată lumea să declare „toate utilizările prevăzute ale AI și/sau ale machine learning” și să recunoască faptul că guvernul are „dreptul rezervat [...] de a evalua riscurile legate de AI în orice moment înainte sau după atribuirea contractului și, la propria discreție, de a implementa orice instrumente considerate necesare pentru astfel de evaluări”
Agenția de securitate cibernetică a UE (ENISA)
ENISA, organismul suprem de securitate cibernetică al Europei, a recunoscut că două dintre rapoartele sale privind amenințările cibernetice, publicate în 2025, erau pline de surse „halucinate” de AI. Din cele 492 de note de subsol dintr-unul dintre rapoarte, 26 erau incorecte, conform cercetătorilor de la instituția publică germană Westfälische Hochschule, citați de publicația Der Spiegel. Cercetătorii sunt îngrijorați nu atât de utilizarea AI, cât de acordarea unei autorități epistemice acesteia. „ENISA a lăsat AI-ul să atingă singurul strat pe care nu ar trebui să-l atingă niciodată nesupravegheat: stratul adevărului”, a scris, pe LinkedIn, Chiara Gallese, cercetător în dreptul AI și etica datelor.
„Așa se transformă halucinațiile în publicații instituționale. Iar când acest lucru se întâmplă în interiorul unei autorități de securitate cibernetică cu un buget de 27 de milioane de euro, problema nu este lipsa de competență. Este procesul. Fără o etapă de verificare obligatorie. Fără verificări ale provenienței. Fără reguli clare pentru utilizarea AI. Doar viteză, comoditate și încredere implicită (trust-by-default).”

