Ministerul Afacerilor Interne a transmis un avertisment important pentru cetățeni, după ce a identificat o nouă metodă de înșelăciune: folosirea inteligenței artificiale pentru clonarea vocii persoanelor apropiate.
Ministerul Afacerilor Interne a transmis un avertisment important pentru cetățeni, după ce a identificat o nouă metodă de înșelăciune: folosirea inteligenței artificiale pentru clonarea vocii persoanelor apropiate.
Potrivit autorităților, infractorii obțin doar câteva secunde de înregistrare audio de pe rețelele sociale, suficiente pentru a genera apeluri telefonice extrem de convingătoare. În timpul apelului, victima este anunțată că o rudă sau un prieten apropiat ar fi avut un accident ori s-ar afla într-o situație gravă și are nevoie urgentă de bani.
Reprezentanții MAI au transmis un mesaj în mediul online prin intermediul căruia avertizează românii: „NU ESTE REAL. ESTE O VOCE FALSĂ. Și totuși… sună exact ca el/ea. Am avut un accident… Ajută-mă, te rog! Am nevoie de bani. ACUM! STOP. Respiră. Infractorii folosesc inteligența artificială pentru a clona vocea celor dragi, folosind doar câteva secunde de audio de pe rețelele sociale”.
Autoritățile explică faptul că scenariul este construit special pentru a provoca panică și pentru a împinge victima să reacționeze rapid, fără să verifice informația. „Scenariul e mereu unul de panică: accident ori altă urgență care nu suportă amânare. Ce vor? Bani. Rapid. Fără să te lase să gândești”.
În cazul în care primești un astfel de apel, Ministerul recomandă câteva măsuri clare: „Închizi IMEDIAT. Suni persoana care îți cere ajutorul pe numărul cunoscut. NU trimiți bani. NU oferi date personale sau bancare”. Autoritățile îndeamnă la calm și vigilență și recomandă distribuirea informației pentru a preveni alte posibile victime. „Poate salva liniștea unei familii!”, transmit reprezentanții MAI.

