◂ UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ▸

Uniunea Ziariștilor Profesioniști din România

The Union of Professional Journalists of Romania www.uzpr.ro19.04.2024

UNESCO. Inteligența artificială generativă perpetuează și amplifică discriminările din
lumea reală

Marile modele de limbaj dezvoltate de Meta şi OpenAI, care servesc drept bază pentru instrumentele lor de inteligenţă artificială generativă, vehiculează prejudecăţi sexiste, avertizează un studiu publicat de UNESCO, relatează AGERPRES.

Modelele GPT 2 şi GPT 3.5 de la OpenAI, cel din urmă aflându-se în centrul versiunii gratuite a ChatGPT, precum şi Llama 2 de la concurentul Meta, demonstrează „prejudecăţi fără echivoc faţă de femei”, a precizat această agenţie din cadrul ONU într-un comunicat. „Discriminările din lumea reală nu doar că se reflectă în sfera digitală, ci se şi amplifică acolo”, a subliniat Tawfik Jelassi, director general adjunct al UNESCO pentru comunicare şi informare.

Potrivit studiului, realizat în perioada august 2023 – martie 2024, aceste tipare lingvistice asociază mai degrabă substantivele feminine cu cuvinte precum „casă”, „familie” şi „copii”, în timp ce substantivele masculine sunt asociate mai mult cu cuvintele „afaceri”, „salariu” şi „carieră”.

Cercetătorii au cerut, de asemenea, acestor interfeţe să producă texte despre persoane de origini şi genuri diferite. Rezultatele au arătat că textele despre „persoanele din culturi minoritare sau despre femei erau adeseori mai repetitive şi bazate pe stereotipuri”.

Astfel, există tendinţa ca un bărbat englez să fie prezentat ca un profesor, un şofer sau un angajat al unei bănci, în timp ce o femeie engleză va fi prezentată în cel puţin 30% dintre textele generate ca o prostituată, un model sau o chelneriţă. Aceste companii „nu reuşesc să îi reprezinte pe toţi utilizatorii lor”, a declarat pentru AFP Leona Verdadero, specialistă în politici digitale şi transformare digitală la UNESCO.

Pe măsură ce aceste aplicaţii de inteligenţă artificială sunt din ce în ce mai mult utilizate de marele public şi de companii, ele „au puterea de a modela percepţia a milioane de oameni”, a declarat directorul general al UNESCO, Audrey Azoulay. „Aşadar, prezenţa chiar şi a celei mai mici prejudecăţi sexiste în conţinutul lor poate creşte semnificativ inegalităţile în lumea reală”, a continuat ea, citată în acelaşi comunicat.

Pentru a combate aceste prejudecăţi, UNESCO recomandă ca firmele din acest sector să aibă echipe de ingineri mai diverse, în special cu mai multe femei.

Femeile reprezintă doar 22% dintre membrii echipelor care lucrează în domeniul inteligenţei artificiale la nivel global, conform datelor transmise de Forumul Economic Mondial, aminteşte UNESCO.

Aceeaşi agenţie din cadrul ONU solicită, de asemenea, guvernelor să introducă mai multe reglementări pentru a implementa o „inteligenţă artificială etică”.

Foto: pixabay.com

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *