◂ UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ▸

Uniunea Ziariștilor Profesioniști din România

The Union of Professional Journalists of Romania www.uzpr.ro16.11.2024

Studiu. Inteligența artificială generativă riscă să piară
„pe limba sa”

Un nou studiu avertizează că modelele de inteligență artificială (AI) s-ar putea prăbuși pe măsură ce încep să se bazeze din ce în ce mai mult pe conținutul generat de… AI pentru instruire.

Modelele lingvistice mari (LLM), cum ar fi ChatGPT de la OpenAI, s-au bazat pe datele disponibile online pentru a-și instrui și îmbunătăți modelele, dar acestea epuizează văzând cu ochii datele online disponibile sau se confruntă cu restricții crescute privind accesul la conținut, au ajuns să se antreneze cu conținut generat de inteligența artificială și astfel se ajunge la degradarea performanței modelului, ducând, în cele din urmă, la producerea de conținut fără înțeles și impliciot la ceea ce a început să fie denumit un „colapsul modelului, generat de AI”. „Ne așteptăm că va deveni mai greu să antrenăm modelele; ceea ce se va întâmpla este că va fi mai greu să găsim date care să nu fie de fapt părtinitoare”, explică Ilia Shumailov, cercetător la Universitatea Oxford și co-autor al studiului, pentru Euronews.

Studiul, publicat în revista Nature, detaliază pe marginea a ceea ce ce se întâmplă atunci când modelele sunt antrenate pe date generate de AI. Cercetarea a constatat că, după câteva bucle de modele AI care generează și apoi sunt instruite cu privire la conținutul generat de aceeași AI, sistemele încep să comită erori semnificative.

O lucrare separată, a cercetătorului Emily Wenger, de la Universitatea Duke, demonstrează acest lucru printr-un experiment în care un model AI este antrenat continuu pe conținutul generat de AI. Studiul a constatat că rezultatul modelului a început în final să genereze rezultate complet nepotrivite. Practic, pe măsură ce datele sunt produse și reciclate continuu de AI, modelele încep să interpreteze greșit realitatea și să facă tot mai multe erori. „Dacă există unele erori în interiorul datelor care au fost generate de modelul unu, ele se propagă practic în următorul model. Și în cele din urmă, acest lucru are ca rezultat ca modelul să perceapă greșit realitatea”, adaugă Shumailov. (redacția UZPR)

Foto: pixabay.com

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *