◂ UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ▸

Uniunea Ziariștilor Profesioniști din România

The Union of Professional Journalists of Romania www.uzpr.ro04.05.2024

Inteligența artificială generativă dezinformează… neintenționat

Un nou studiu derulat de Democracy Reporting International a arătat că cei mai folosiți chatboți cu inteligență artificială (AI) din Europa oferă răspunsuri inexacte legate de alegeri, potrivit Euronews. Specialiștii germane au introdus diverse întrebări în 10 limbi diferite despre alegerile europene prin Google Gemini, OpenAI ChatGPT 3.5 și 4.0 și Microsoft Copilot, pentru a vedea ce răspunsuri vor primi. Întrebările au fost scrise într-un limbaj simplu, potrivit pentru utilizatorul obișnuit al acestor chatbot-uri AI.

Concluzia: niciunul dintre cei patru chatboți nu a reușit să „oferă răspunsuri demne de încredere” la întrebările standard legate de alegeri, în ciuda faptului că fiecare era bine reglat pentru a evita răspunsurile partizane. „Nu am fost atât de surprinși de acest rezultat. Când îi întrebi ceva despre care nu au foarte mult material și pentru care nu există multe informații pe internet, ei inventează ceva”, a declarat Michael-Meyer Resende, directorul executiv al Democracy Reporting International.

Studiul este cel mai recent care a descoperit că chatboții AI răspândesc informații greșite. În decembrie anul trecut, AlgorithmWatch, o altă organizație non-profit cu sediul în Berlin, a publicat un studiu similar, care arată că Bing Chat, chatbot-ul cu AI de pe motorul de căutare Microsoft, a răspuns greșit la una din trei întrebări electorale.

În lumina concluziilor studiului, Google – al cărui chatbot Gemeni a fost considerat ca furnizând cele mai multe informații înșelătoare sau false și cel mai mare număr de refuzuri de a răspunde la întrebări – a confirmat pentru Euronews Next că a impus restricții suplimentare asupra modelului său de limbaj mare. (redacția UZPR)

Foto: unsplash.com

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *