◂ UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ▸

Uniunea Ziariștilor Profesioniști din România

The Union of Professional Journalists of Romania www.uzpr.ro15.11.2024

Studiu. Temerea
că inteligența artificială generativă ar putea deveni o amenințare globală
„nu este validă”

Cercetătorii britanici de la Ubiquitous Knowledge Processing Lab de la Tehnică din Darmstadt și Universitatea din Bath au descoperit că modelele de limbaj AI, cum ar fi ChatGPT, nu reprezintă o amenințare serioasă pentru societate. Studiul, publicat în revista și publicat în ACL Anthology, relevă dovezi care sugerează că „abilitățile emergente” ale modelelor de limbaj mari (LLM) pot fi mai puțin misterioase decât se credea, întrucât aceste mașini învață doar ce informații furnizează oamenii, nu și singure. „Temerea a fost că, pe măsură ce modelele devin din ce în ce mai mari, vor fi capabile să rezolve noi probleme pe care nu le putem prezice în prezent, ceea ce înseamnă amenințarea că aceste modele mai mari ar putea dobândi abilități periculoase, inclusiv raționament și planificare. Studiul nostru arată că ipoteza potrivit căreia un model va face ceva complet neașteptat, inovator și potențial periculos nu este validă”, explică dr. Tayyar Madabushi, de la Universitatea din Bath.

Concluziile studiului oferă o viziune mai pragmatică asupra dezvoltării AI, sugerând că îmbunătățirile performanței LLM sunt înrădăcinate în capacitatea lor de a recunoaște și aplica modele din exemplele furnizate, mai degrabă decât de a dezvolta spontan noi competențe. Această perspectivă ar putea remodela abordările cercetării și dezvoltării AI, concentrând eforturile pe optimizarea mecanismelor de învățare în context, mai degrabă decât pe urmărirea proprietăților emergente evazive. „Cercetările viitoare ar trebui să se concentreze asupra altor riscuri prezentate de aceste modele, cum ar fi potențialul lor de a fi utilizate pentru a genera știri false”, arată profesorul Iryna Gurevych, de la Universitatea Tehnică din Darmstadt. (redacția UZPR)

Foto: pixabay.com

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *