
Una mujer del condado de Hillsborough fue estafada con $15,000 después de que unos delincuentes clonaran la voz de su hija para fingir una desesperada llamada de auxilio tras un falso accidente automovilístico. El incidente ha captado la atención nacional, destacando el creciente peligro de las estafas telefónicas impulsadas por inteligencia artificial.
Sharon, una residente de Florida y madre, recibió una angustiante llamada telefónica el 12 de julio. Sonaba exactamente como su hija April: llorando, en pánico, y alegando que había sido arrestada tras un accidente de coche que había dejado gravemente herida a una mujer embarazada.
Luego, otra persona tomó la llamada, se identificó como abogado y solicitó $15,000 para pagar la fianza.
Aterrada, Sharon retiró de inmediato los fondos y los entregó en persona a un individuo que creía estar vinculado con las autoridades.
“No hay nadie que pudiera convencerme de que no era ella,” dijo Sharon. “Conozco el llanto de mi hija.”
“Él me dio instrucciones muy específicas,” añadió. “Me dijo que no le dijera al banco para qué era el dinero, que eso podría afectar el crédito de mi hija.”
Retiró el dinero y lo colocó en una caja como le indicaron. Poco después, una camioneta negra Chevy Tahoe llegó a su casa para recoger el paquete.
La situación tomó un giro aún más extraño: según wfla.com, Sharon recibió otra llamada en la que le dijeron que el bebé no nacido de la mujer herida había fallecido, y que la familia –descrita como “personas cristianas”– accedía a no demandar a su hija si entregaban otros $30,000.
Fue en ese momento cuando el sobrino de Sharon, hijo de su hija, sospechó que algo no estaba bien. Finalmente, la familia logró comunicarse con la verdadera April, quien había estado ocupada trabajando mientras ocurría toda esta pesadilla.
“Grité,” dijo Sharon. “Cuando escuché su voz, me derrumbé. Estaba bien. Seguía en el trabajo.”
“Rezo para que esto no le pase a nadie más,” dijo Sharon a los periodistas. “Mi esposo y yo estamos recién jubilados. Ese dinero eran nuestros ahorros.”
La familia, devastada por el golpe emocional y financiero, lanzó una campaña en GoFundMe titulada “Oración y Ayuda para la Recuperación de John y Sharon - Estafa con IA”, buscando apoyo comunitario para compensar la pérdida.
El incidente fue resultado de una estafa elaborada utilizando tecnología de audio deepfake para replicar con escalofriante precisión la voz de la hija. Y esta tendencia va en aumento.
La familia Trapp, en el Área de la Bahía de San Francisco, sufrió el mismo tipo de engaño el año pasado cuando recibieron una llamada frenética de su “hijo”, diciendo que había estado en un accidente, que había herido a una mujer embarazada y que necesitaba $15,000 para pagar la fianza.
Los estafadores no solo se hicieron pasar por el hijo, sino también por la policía, instruyendo a la angustiada madre a retirar rápidamente el dinero del banco y entregarlo a un mensajero que ya estaba camino a la casa.
Estos casos destacan las alarmantes capacidades de la inteligencia artificial generativa cuando es utilizada con fines delictivos.
Incluso un breve clip de audio —como un video en redes sociales o un mensaje de voz— puede ser suficiente para que los estafadores entrenen un modelo de IA que imite la voz de alguien de forma convincente.
Pero hay formas de protegerte:
Haz del conocimiento un hábito. Mantente informado sobre las últimas estafas, edúcate regularmente sobre amenazas emergentes y enseña a tu familia y colegas a hacer lo mismo. Lee noticias sobre ciberseguridad para saber qué técnicas están utilizando los estafadores a medida que la tecnología avanza.
También puedes leer:
tags
Filip has 17 years of experience in technology journalism. In recent years, he has focused on cybersecurity in his role as a Security Analyst at Bitdefender.
Ver todas las publicacionesNovember 24, 2025
September 15, 2025
August 21, 2025
August 05, 2025