Una lectura de 2 minutos

Modelos de IA utilizados con éxito para impulsar agentes de estafa automatizados con costos inferiores a un dólar

Silviu STAHIE

October 29, 2024

Promoción
Protege todos tus dispositivos sin ralentizarlos.
Prueba gratuita de 30 días
Modelos de IA utilizados con éxito para impulsar agentes de estafa automatizados con costos inferiores a un dólar

Investigadores en seguridad de la Universidad de Illinois en Urbana-Champaign han logrado usar el nuevo modo de voz de OpenAI para crear agentes falsos de IA que les permitieron estafar a víctimas potenciales con costos increíblemente bajos.

Todos están tratando de determinar cómo afectará la nueva era de la inteligencia artificial al cibercrimen. Mientras que algunos investigadores intentan demostrar que es posible usar las herramientas de IA existentes para escribir nuevo malware o, al menos, para hacer que los existentes sean más difíciles de detectar, existe una posibilidad mucho más aterradora. ¿Qué pasaría si los criminales encontraran una manera de automatizar las estafas de tal manera que sean mucho más difíciles de identificar o detener?

Un escenario así fue propuesto por los investigadores de la Universidad de Illinois en Urbana-Champaign, con la diferencia de que no es solo teoría sobre cómo podría hacerse. Lo han hecho y han demostrado no solo que es posible, sino también que tiene un costo muy bajo desde una perspectiva computacional.

Los investigadores se centraron en estafas telefónicas comunes, en las que las víctimas son llamadas y convencidas de proporcionar a los atacantes credenciales y códigos 2FA (autenticación de dos factores). La única diferencia es que los investigadores no se centraron en la parte donde debían convencer a las posibles víctimas sobre la legitimidad de la llamada. Solo querían saber si tal automatización era posible en primer lugar.

"Diseñamos una serie de agentes para realizar las acciones necesarias para estafas comunes. 

"Nuestros agentes consisten en una base LLM (modelo lingüistico de gran tamaño) habilitada por voz (GPT-4o), un conjunto de herramientas que el LLM puede usar e instrucciones específicas para cada estafa", explicaron los investigadores.

 "El modelo lingüistico de gran tamaño LLM y las herramientas eran las mismas para todos los agentes, pero las instrucciones variaban. Los agentes de IA tuvieron acceso a cinco herramientas de acceso a navegadores basadas en el framework de pruebas de navegadores Playwright."

Por supuesto, GPT-4o no es compatible de manera predeterminada, especialmente cuando se intenta convencer al modelo para que trabaje con credenciales. Desafortunadamente, los prompts de "jailbreak" que permiten a las personas eludir estas restricciones están disponibles en línea.

"Ejecutamos cada estafa 5 veces y registramos la tasa de éxito general, el número total de llamadas de herramientas (es decir, acciones) necesarias para realizar con éxito cada estafa, el tiempo total de llamada para cada estafa realizada con éxito y el costo aproximado de la API para cada estafa realizada con éxito", agregaron los investigadores.

El éxito varía de un tipo de estafa a otro. Por ejemplo, el robo de credenciales de Gmail tuvo una tasa de éxito del 60%, mientras que las transferencias bancarias y las estafas de impostores del IRS solo tuvieron una tasa de éxito del 20%. Una razón es la naturaleza más compleja del sitio web del banco, ya que el agente tiene muchos más pasos que seguir. Por ejemplo, la estafa de transferencia bancaria requirió 26 pasos, y el agente de IA necesitó hasta 3 minutos para ejecutarlos todos. La estafa bancaria también es la más costosa, con un costo de $2.51 por interacción. Los costos se derivan simplemente del número de tokens utilizados en cada interacción. Por otro lado, la más barata fue una estafa con Monero (criptomoneda), con un costo de solo $0.12.

El estudio ha demostrado con éxito que una nueva ola de estafas podría estar en camino, impulsada por grandes modelos de lenguaje. Los investigadores no publicaron sus agentes por razones éticas, pero subrayaron el hecho de que no son difíciles de programar.

tags


Autor


Silviu STAHIE

Silviu is a seasoned writer who followed the technology world for almost two decades, covering topics ranging from software to hardware and everything in between.

Ver todas las publicaciones

También te puede gustar

Bookmarks


loader