O bancă britanică avertizează că „milioane” de persoane ar putea deveni victime ale înșelătoriilor care folosesc AI pentru a le clona vocea

Publicat: 18 09. 2024, 21:35
Actualizat: 18 09. 2024, 21:38
Sursă FOTO: caracter ilustrativ

Starling Bank, un creditor exclusiv online, a declarat că escrocii sunt capabili să utilizeze inteligența artificială pentru a reproduce vocea unei persoane din doar trei secunde de sunet găsite într-un videoclip postat online de persoana respectivă.

Mai mult, ulterior pot identifica prietenii și membri familiei persoanei și pot folosi vocea clonată de AI pentru a organiza un apel telefonic prin care să ceară bani.

Aceste tipuri de escrocherii au potențialul de a „păcăli milioane de persoane”, a declarat Starling Bank într-un comunicat de presă transmis, miercuri. De altfel, sute de persoane au fost deja afectate, potrivit CNN.

Conform unui sondaj realizat, luna trecută, de bancă împreună cu Mortar Research pe un eșantion de peste 3.000 de adulți, mai mult de un sfert dintre respondenți au declarat că au fost vizați de o înșelătorie prin clonarea vocii de către AI în ultimele 12 luni.

De asemenea, sondajul a arătat că 46% dintre respondenți nu știau că există astfel de escrocherii și că 8% ar trimite atât de mulți bani cât le-ar cere un prieten sau un membru al familiei, chiar dacă apelul li s-ar părea ciudat.

„Oamenii postează frecvent conținut online cu înregistrări ale vocii lor”

Banca încurajează oamenii să convină cu cei dragi asupra unei „fraze de siguranță” – o frază simplă, aleatorie, ușor de reținut și diferită de celelalte parole – care poate fi utilizată pentru a le verifica identitatea la telefon.

Totodată, este recomandat să nu se împărtășească fraza de siguranță prin text, ceea ce ar putea facilita aflarea acesteia de către escroci, dar – dacă este împărtășită în acest mod – mesajul ar trebui șters după ce cealaltă persoană l-a văzut.

„Oamenii postează în mod regulat conținut online care conține înregistrări ale vocii lor, fără să își imagineze vreodată că acest lucru îi face mai vulnerabili în fața escrocilor”, a declarat în comunicatul de presă respectiv Lisa Grahame, Chief Information Security Officer la Starling Bank, .

Pe măsură ce inteligența artificială devine din ce în ce mai capabilă să imite vocile umane, cresc îngrijorările cu privire la potențialul acesteia de a dăuna oamenilor, ajutând infractorii să le acceseze conturile bancare și să răspândească informații false.

La începutul acestui an, OpenAI, creatorul chatbot-ului cu inteligență artificială generativă ChatGPT, a prezentat instrumentul său de replicare a vocii, Voice Engine, dar nu l-a pus la dispoziția publicului în acel stadiu, citând „potențialul de utilizare abuzivă a vocii sintetice”, potrivit sursei citate.

Sursă FOTO – caracter ilustrativ: Shutterstock