În Austria, o escrocherie ingenioasă a adus panică și furie în rândul părinților, odată ce infractorii au găsit o nouă metodă de a păcăli și de a obține bani în mod ilegal. Această schemă necinstită implică clonarea și folosirea vocii copilului cu ajutorul inteligenței artificiale pentru a constrânge victimele să facă plăți sau transferuri de bani sub amenințarea unor situații urgente sau false. Această tactică perfidă a creat o atmosferă de neîncredere și de temere în rândul familiilor din Austria, care se văd acum nevoite să se protejeze de această nouă formă de escrocherie.
Presa din Austria avertizează că mesajele primite sună atât de real încât victimele sunt sigure că își pot auzi copiii în suferință. Ei lucrează cu vocile unor austrieci aleși la întâmplare, pe care le clonează cu ajutorul unui program de inteligență artificială. Acestea sună uimitor de real, scrie Heute.
Subiectul a fost abordat și în emisiunile radio și TV. O mamă a căzut victimă noului și perfidului truc telefonic, și a povestit pățania în cadrul emisiunii „Ö3-Wecker”. Ascultătoarea Edda a răspuns la telefonul mobil și a avut imediat un șoc: vocea fiicei sale îi vorbea. „Abia pot vorbi pentru că am gura plină de sânge”. Mama alarmată își descrie sentimentele la radio: „Se bâlbâia, dar în felul ei tipic, atunci când este isterică. Aș fi băgat mâna în foc că am auzit-o pe fiica mea.”
Edda a reușit, totuși să-și depășească panica, a închis și apoi și-a sunat fiica. Și-a dat seama că fata ei era bine și că era cât pe ce să se lase păcălită de escroci. Oficiul de Stat pentru Investigații Criminale avertizează acum împotriva noii escrocherii care folosește inteligența artificială. Oricine a postat vreodată un videoclip pe rețelele de socializare sau a participat la un sondaj telefonic, de exemplu, trebuie să se aștepte acum ca vocea sa să fie „furată”, avertizează autoritățile.
Cum se clonează vocea unei persoane prin inteligența artificială
Practic, procesul de clonare a unei voci implică o serie de etape. În primul rând, este nevoie de o înregistrare audio cu vocea persoanei pe care infractorii își doresc să o cloneze. Tehnologia inteligentei artificiale analizează apoi aceste înregistrări pentru a identifica caracteristicile unice ale vocii, cum ar fi tonalitatea, ritmul vorbirii și inflexiunile specifice. Cu ajutorul algoritmilor avansați, infractorii cibernetici pot crea un model al vocii respective, care poate fi apoi folosit pentru a genera un discurs artificial similar celui original.
În practică, infractorii pot folosi această tehnologie pentru a crea mesaje audio false, pretinzând că sunt de la persoane apropiate, autorități sau alte instituții de încredere. Aceste mesaje pot conține instrucțiuni de plată rapidă sau informații false menite să determine victima să acționeze în mod nepotrivit. De exemplu, un infractor ar putea trimite un mesaj în care pretinde că este copilul unui părinte și că are nevoie urgentă de bani pentru o situație de criză, profitând de conexiunea emoțională pentru a convinge părintele să transfere fondurile solicitate.
În fața acestei amenințări, este important ca persoanele să fie conștiente de existența acestor tehnologii și să fie precaute în momentul în care primesc mesaje audio suspecte. Verificarea autenticității surselor și contactarea directă a persoanei respective pot ajuta la prevenirea căderii victimelor în aceste escrocherii cu voce clonată. De asemenea, autoritățile și furnizorii de servicii tehnologice lucrează pentru a dezvolta soluții de securitate mai eficiente pentru a detecta și bloca utilizarea abuzivă a acestei tehnologii.