◂ UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ● ÎMPREUNĂ SCRIEM ISTORIA CLIPEI ● UZPR ▸

Uniunea Ziariștilor Profesioniști din România

The Union of Professional Journalists of Romania www.uzpr.ro23.04.2024

Raport Europol: ChatGPT, potențial instrument pentru infracțiuni

ChatGPT și instrumentele similare de inteligență artificială se dovedesc utile în multe contexte diferite, dar Europol atrage atenția că ar putea fi la fel de utile infractorilor.

ChatGPT, aplicația cu cea mai rapidă creștere din toate timpurile, le-a oferit oamenilor puterea unui model de inteligență artificială (AI) antrenat pe o bază de date masivă de informații de pe Internet. Această nouă putere a dus deja la schimbări în modul în care mulți oameni își desfășoară activitatea sau caută informații online, tehnologia OpenAI inspirând atât entuziasm legat de viitorul pe care AI îl poate oferi, cât și temeri cu privire la schimbările pe care le poate genera. Una dintre temerile legate de tehnologia AI precum ChatGPT este ce vor face infractorii cu această putere.

Europol, agenția de aplicare a legii a Uniunii Europene, punctează într-un raport recent privind ChatGPT, intitulat „Impactul modelelor lingvistice mari asupra aplicării legii”, că ChatGPT, care este construit pe tehnologia OpenAI GPT3.5, ar putea face „semnificativ mai ușor pentru actorii rău intenționați să înțeleagă și ulterior să comită diferite tipuri de infracțiuni”. Asta pentru că tehnologia este capabilă să ofere instrucțiuni pas cu pas pe tot felul de subiecte, dacă i se oferă întrebările contextuale potrivite de către un utilizator.

 

Frauda, uzurparea identității și inginerie socială

ChatGPT și alți chatboți pot uzurpa identitatea stilurilor de scriere ale celebrităților și pot învăța un stil de scriere din textul introdus, apoi poate crea conținut în acel stil învățat. Acest lucru deschide calea pentru o potențială utilizare de către infractorii care doresc să uzurpe identitatea cuiva sau pentru utilizarea stilului de scriere al unei organizații, care ar putea fi folosit în escrocherii de tip phishing. Europol avertizează, de asemenea, că ChatGPT ar putea fi folosit pentru a da legitimitate diferitelor tipuri de fraudă online, cum ar fi prin crearea unor ari cantități de conținut fals pe rețelele sociale, pentru a promova o ofertă de investiții frauduloasă.

Unul dintre semnele sigure ale potențialei fraude în comunicările prin e-mail sau pe rețelele sociale sunt greșelile evidente de ortografie sau gramaticale făcute de infractorii care scriu conținutul.

Tehnologia este, de asemenea, pregătită pentru a fi folosită de cei care doresc să creeze și să răspândească propagandă și dezinformare, deoarece este abilă în a crea argumente și narațiuni cu mare viteză.

 

Crima cibernetică pentru începători

ChatGPT nu numai că este bun la scrierea cuvintelor, dar este, de asemenea, competent într-o serie de limbaje de programare. Potrivit Europol, aceasta înseamnă că ar putea avea un impact asupra criminalității cibernetice. „Cu versiunea actuală a ChatGPT este deja posibil să se creeze instrumente de bază pentru o varietate de scopuri rău intenționate”, avertizează raportul. Acestea ar fi instrumente de bază pentru a produce pagini de phishing, de exemplu, dar le permite infractorilor cu puține cunoștințe de codificare să creeze lucruri pe care nu le puteau crea înainte.

Îmbunătățirile inevitabile ale capabilităților telgenței artificiale înseamnă că exploatarea de către infractori „este o perspectivă sumbră”pentru următorii ani. Faptul că cea mai recentă versiune OpenAI a transformatorului său, GPT-4, înțelege mai bine contextul codului și corectează greșelile, înseamnă că „aceasta este o resursă de neprețuit” pentru criminalii cu puține cunoștințe tehnice. Europol avertizează că, odată cu tehnologia AI care se va îmbunătăți, aceasta poate deveni mult mai avansată „și, prin urmare, periculoasă”. De asemenea, potrivit raportului Europol citat de Euronews, au existat deja cazuri în care falsurile inteligenței artificiale au fost folosite pentru a înșela oamenii. (redacția UZPR)

Foto: pixabay.com

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *