◂ UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ▸

Uniunea Ziariștilor Profesioniști din România

The Union of Professional Journalists of Romania www.uzpr.ro27.05.2024

Studiu. Inteligența artificială,
tot mai pricepută
în… înșelăciune, dezinformare
și manipulare

Sistemele de inteligență artificială (AI) devin rapid din ce în ce mai sofisticate, inginerii și dezvoltatorii lucrând pentru a le face cât mai „umane” posibil. Din păcate, asta poate însemna că acestea încep să poată și… minți la fel cxa oamenii. Un nou studiu al cercetătorilor de la Centrul pentru Siguranța Inteligenței Artificiale din San Francisco arată că platformele AI învață să înșele în moduri care pot avea consecințe de amploare și expune riscurile pe care le relevă această problemă în extindere.

Studiul, publicat în revista Patterns, susține că se manifestă la AI din ce în ce mai mult comportamente înșelătoare, care ar fi îngrijorătoare dacă ar fi afișate de un om.

Cercetarea analizează o gamă largă de exemple în care sistemele AI au învățat cu succes să înșele. În domeniul jocurilor, sistemul AI CICERO, dezvoltat de Meta pentru a juca jocul de strategie Diplomacy, s-a dovedit a fi un mincinos expert, în ciuda eforturilor creatorilor săi de a-l face sincer și de ajutor. CICERO s-a angajat în înșelăciune… premeditată, făcând alianțe cu jucători umani, pentru a-i trăda mai târziu. „Am descoperit că AI dezvoltat de Meta a învățat să fie un maestru al înșelăciunii”, spune specialistul Peter S. Park, într-un comunicat de presă. În mod similar, AlphaStar de la DeepMind, antrenat să joace jocul de strategie în timp real StarCraft II, a învățat să exploateze mecanica de război a jocului pentru a-și induce în eroare adversarii.

 

Au învățat să trișeze la testele de siguranță

Dar înșelăciunea AI nu se limitează la jocuri. În experimentele care implicau negocieri economice, „agenții” AI au învățat să-și denaturaze preferințele pentru a câștiga avantajul. Și mai îngrijorător, unele sisteme AI au învățat să trișeze la testele de siguranță concepute pentru a le împiedica să se implice în comportamente dăunătoare. Creșterea modelelor de limbaj mari (LLM) precum GPT-4 a deschis noi frontiere în înșelăciunea AI. Aceste sisteme, instruite pe cantități mari de date text, se pot angaja în conversații înspăimântătoare. Sub „ambalajul” prietenos, aceste sisteme învață să înșele în moduri sofisticate. GPT-4, de exemplu, a păcălit cu succes un lucrător uman TaskRabbit să rezolve un test CAPTCHA pentru el, pretinzând că are… o deficiență de vedere. LLM-urile au arătat, de asemenea, o înclinație pentru a-și explica rezultatele în moduri care se îndepărtează sistematic de realitate.

 

Perspectiva pierderii controlului uman

Riscurile pe care le prezintă înșelăciunea AI sunt numeroase. Pe termen scurt, poate fi folosită de infractori pentru a comite fraude la o scară fără precedent, pentru a răspândi dezinformare și a influența alegerile sau chiar pentru a radicaliza și recruta teroriști. Iar riscurile pe termen lung sunt poate și mai înfricoșătoare. Pe măsură ce încorporăm tot mai mult sistemele AI în viața noastră de zi cu zi și în procesele de luare a deciziilor, capacitatea lor de a înșela ar putea duce la erodarea încrederii, la amplificarea polarizării și a dezinformării și, în cele din urmă, la pierderea controlului uman. „Dezvoltatorii de inteligență artificială nu au o înțelegere sigură a ceea ce cauzează comportamente nedorite de inteligență artificială, cum ar fi înșelăciunea; aceasta îi ajută să-și atingă obiectivele”, spune Park.

Cercetătorii propun o abordare pe mai multe direcții. În primul rând, factorii de decizie politică trebuie să dezvolte cadre de reglementare robuste pentru a evalua și gestiona riscurile prezentate de sistemele AI potențial înșelătoare. Sistemele AI capabile de înșelăciune ar trebui tratate ca fiind cu risc ridicat și trebuie să facă obiectul unor cerințe stricte de documentare, testare, supraveghere și securitate. Factorii de decizie ar trebui, de asemenea, să implementeze legi care necesită dezvăluire clară atunci când utilizatorii interacționează cu un sistem AI și nu cu un om. (redacția UZPR)

Foto: pixabay.com

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *