O nouă capcană: infractorii folosesc inteligența artificială pentru a imita vocile celor apropiați. Cum să te protejezi de această înșelătorie?

Moderator
2 Min Citire

Ministerul Afacerilor Interne avertizează despre o nouă metodă de înșelăciune

Ministerul Afacerilor Interne (MAI) a emis un avertisment important pentru cetățeni privind utilizarea inteligenței artificiale în clonarea vocii persoanelor apropiate, o metodă care a fost identificată recent de autorități.

Modul de operare al infractorilor

Infractorii obțin câteva secunde de înregistrare audio de pe rețelele sociale, suficiente pentru a crea apeluri telefonice convingătoare. Victimele sunt informate că un membru al familiei sau un prieten a suferit un accident sau se află într-o situație de urgență, solicitând urgent ajutor financiar.

Avertismentul MAI

Reprezentanții MAI au transmis un mesaj clar: „NU ESTE REAL. ESTE O VOCE FALSĂ. Am avut un accident… Ajută-mă, te rog! Am nevoie de bani. ACUM!” Autoritățile subliniază că scenariile sunt concepute pentru a provoca panică și a determina victimele să acționeze rapid, fără a verifica informațiile.

Măsuri de protecție recomandate

În cazul primirii unui astfel de apel, MAI recomandă următoarele măsuri: închide imediat apelul, contactează persoana în cauză pe un număr cunoscut, nu trimite bani și nu oferi date personale sau bancare. Autoritățile încurajează calmul și vigilența, sugerând distribuirea informației pentru a preveni alte victime.

Concluzie

Metoda de înșelăciune prin clonarea vocală reprezintă un risc semnificativ pentru siguranța financiară a cetățenilor, subliniind necesitatea de a fi informat și precaut în fața situațiilor de urgență false.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *