◂ UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ▸

Uniunea Ziariștilor Profesioniști din România

The Union of Professional Journalists of Romania www.uzpr.ro04.05.2024

Agenția UE pentru drepturile fundamentale avertizează împotriva algoritmilor părtinitori ai inteligenței artificiale

Agenția pentru Drepturi Fundamentale a Uniunii Europene (FRA) a publicat un raport care analizează modul în care se dezvoltă părtinirile în algoritmi se cum afectează moderarea conținutului. Cercetarea se încheie prin apelul la factorii de decizie din UE să se asigure că aceste aplicații AI sunt testate pentru prejudecăți care ar putea duce la discriminare.

Studiul vine în momentul în care propunerea privind Legea privind inteligența artificială își face drum în procesul legislativ, Parlamentul European luând în considerare în special introducerea unei evaluări a impactului asupra drepturilor fundamentale pentru sistemele de inteligență artificială cu risc ridicat de a provoca prejudicii. „Algoritmii bine dezvoltați și testați pot aduce o mulțime de îmbunătățiri. Dar fără verificări adecvate, dezvoltatorii și utilizatorii riscă să aibă un impact negativ asupra vieții oamenilor. Nu există o soluție rapidă. Dar avem nevoie de un sistem pentru evaluarea și atenuarea părtinirii înainte și în timp ce folosim algoritmi, pentru a proteja oamenii de discriminare”, susține directorul FRA, Michael O’Flaherty.

Agenția a făcut un studiu profund în ce privește riscul poliției discriminatorii, care constă în influențarea distribuției forțelor de poliție pe baza dosarelor de criminalitate părtinitoare, care ar putea duce la supra-distribuire sau subservirea anumitor zone, ambele putând avea un impact grav asupra drepturilor fundamentale.

Problema cu instrumentele bazate pe inteligență artificială pentru aplicarea legii este că se bazează pe date istorice despre crime care ar putea fi denaturate de alți factori, de exemplu neîncrederea în poliție, care poate duce la o tendință mai scăzută de a raporta activități criminale. Agenția pune sub semnul întrebării exactitatea acestei abordări, menționând că „decenii de cercetări criminologice au arătat limitările unei astfel de abordări, deoarece bazele de date ale poliției nu reprezintă un recensământ complet al tuturor infracțiunilor și nu constituie un eșantion reprezentativ aleatoriu”.

Potrivit EURACTIV, principala preocupare legată de inteligența artificială este că învață de la sine. Prin urmare, poate crea așa-numitele „bucle de feedback”, care consolidează prejudecățile preexistente.

Al doilea obiect de studiu este riscul apariției unor instrumente automate de părtinire etnică și de gen, pentru a detecta discursul ofensator.

În plus, aceste metodologii ridică unele provocări, deoarece se bazează în mare măsură pe teligența artificială de uz general, care poate fi, de asemenea, părtinitoare. Ca rezultat, în loc să înlăture complet prejudecățile, le-ar putea crește sau ar putea introduce altele noi. (redacția UZPR)

Foto: pixabay.com

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *