O femeie din Florida a pierdut 15.000 de dolari după ce escrocii i-au clonat vocea fiicei sale pentru a simula un apel disperat de ajutor în urma unui presupus accident rutier. Incidentul a atras atenția națională, scoțând în evidență pericolul tot mai mare al escrocheriilor bazate pe voce generată de inteligență artificială.
Sharon, o rezidentă din Florida, a primit un apel tulburător pe 12 iulie. Vocea suna exact ca cea a fiicei sale, April – plângând, panicată, susținând că a fost arestată după ce a rănit grav o femeie însărcinată într-un accident de mașină.
Apoi, o altă persoană a preluat apelul, s-a prezentat drept avocat și a cerut 15.000 de dolari pentru cauțiune.
Panicată, Sharon a mers la bancă și retras imediat banii. Apoi i-a predat unei persoane despre care credea că este afiliată cu autoritățile.
„Nu există nimeni care să mă poată convinge că nu era ea,” Sharon a relatat presei americane. „Îi cunosc plânsul fiicei mele.”
„Mi-a dat instrucțiuni foarte precise. Mi-a spus să nu le dezvălui celor de la bancă la ce vor fi folosiți banii, căci asta ar putea afecta viitorul fiicei mele.”
A retras suma, a pus banii într-o cutie, așa cum i s-a cerut. Un Chevrolet Tahoe negru a apărut apoi la casa ei pentru a ridica pachetul.
Situația a luat o turnură și mai bizară: potrivit wfla.com, Sharon a primit un alt apel în care i s-a spus că fătul femeii rănite a murit și că familia acesteia, descrisă ca fiind „oameni creștini”, a acceptat să nu o dea în judecată pe fiica ei dacă le oferă încă 30.000 de dolari.
În acel moment, nepotul lui Sharon – fiul fiicei sale – a suspectat că ceva nu este în regulă. Familia a reușit să ia legătura cu adevărata April, care fusese la muncă pe toată durata întâmplării.
„Am țipat,” a spus Sharon. „Când i-am auzit vocea, am cedat. Era bine. Era încă la muncă.”
„Soțul meu și cu mine suntem pensionari de curând. Banii aceia erau economiile noastre,” le-a declarat Sharon reporterilor.
Familia, devastată emoțional și financiar, a lansat o campanie GoFundMe intitulată „Rugăciune și ajutor pentru John și Sharon – Înșelați cu AI”, cerând sprijinul comunității pentru a compensa pierderea.
Incidentul a fost rezultatul unei escrocherii elaborate, orchestrate cu ajutorul tehnologiei deepfake pentru a reproduce cu acuratețe vocea fiicei. Acest fenomen este în creștere.
Familia Trapp din zona golfului San Francisco a trecut printr-o înșelătorie identică anul trecut, când au primit un apel panicat de la „fiul lor” care susținea că ar fi fost implicat într-un accident auto, ar fi rănit o femeie însărcinată și ar fi avut nevoie de 15.000 de dolari pentru cauțiune.
Escrocii s-au dat nu doar drept fiul, ci și drept polițiștii, instruind mama panicată să retragă rapid banii și să-i predea unui curier deja trimis spre locuința familiei.
Aceste cazuri evidențiază capacitățile alarmante ale AI-ului în mâinile criminalilor.
Un clip postat pe rețelele sociale sau un mesaj vocal poate fi folosit de escrocii să antreneze un model AI care să imite convingător vocea unei persoane.
Iată câteva metode de protecție:
Nu în ultimul rând, informează-te cu privire la cele mai noi tipuri de escrocherii. Educă-te constant asupra amenințărilor și învață-ți familia și colegii să facă același lucru. Citește știrile din domeniul cibernetic pentru a afla ce exploatează escrocii pe măsură ce tehnologia evoluează.
S-ar putea să te intereseze și:
tags
Filip has 15 years of experience in technology journalism. In recent years, he has turned his focus to cybersecurity in his role as Information Security Analyst at Bitdefender.
Toate articolele11 Februarie 2025
10 Februarie 2025