Los ciberdelincuentes están creando versiones de IA para actividades ilegales

Los ciberdelincuentes están creando versiones de IA para actividades ilegales

Los ciberdelincuentes están difundiendo en la web oscura versiones que han creado de la tecnología de generación de textos de IA. Sin las funciones de seguridad y las barreras éticas de los chatbots como ChatGPT de Open AI, estos sistemas pueden ayudar en actividades ilegales como la creación de malware y correos electrónicos de phishing (que manipulan a la gente para que facilite sus datos).

Índice de Contenidos
  1. WormGPT y FraudGPT prometen funciones peligrosas
    1. WormGPT
    2. FraudGPT
  2. Pero, ¿son reales estos chatbots?

WormGPT y FraudGPT prometen funciones peligrosas

Actividades ilegales con IA
Actividades ilegales con IA

En las últimas semanas, investigadores de seguridad que vigilan las actividades ilegales en la web oscura han descubierto anuncios de dos chatbots ilegales en distintos foros, WormGPT y FraudGPT.

WormGPT

Según el investigador independiente de ciberseguridad Daniel Kelley, que descubrió WormGPT, el nuevo modelo de IA reduce las barreras de entrada para los ciberdelincuentes novatos y es muy útil para el phishing. En su investigación, publicada en el sitio web Wired, Kelley reveló que había probado el sistema.

En la prueba, creó un correo electrónico supuestamente firmado por un director general. La estafa solicitaba a un gestor de cuentas un pago urgente. "Los resultados fueron inquietantes. Un correo electrónico que no sólo era notablemente persuasivo, sino también estratégicamente astuto", señaló Kelley en su investigación.

FraudGPT

FraudGPT, por su parte, fue descubierto por Rakesh Krishnan, analista principal de amenazas de la empresa de seguridad Netenrich. Según él, el chatbot ilegal se anunciaba en varios foros de la web oscura y canales de Telegram. Y los mensajes prometían aún más funciones, como "crear malware indetectable" y encontrar filtraciones y vulnerabilidades.

Según Krishnan, el creador de FraudGPT publicó un vídeo en el que se veía cómo el sistema creaba un correo electrónico fraudulento. El acceso a la herramienta se ofrecía por un pago mensual de 200 $ o un coste anual de 1.700 $.

Pero, ¿son reales estos chatbots?

Todavía no se ha demostrado la autenticidad de chatbots como WormGPT y FraudGPT. Los estafadores del cibercrimen son conocidos por engañar a otros estafadores, y aún es difícil verificar el funcionamiento de los sistemas.

En una entrevista con Wired, Sergey Shykevich, director de grupo de inteligencia de amenazas de la empresa de seguridad Check Point, reveló que hay indicios de que WormGPT es una herramienta real. Pero al investigador le resulta más difícil creer en la autenticidad de FraudGPT.

Aun así, Shykevich explica que, de momento, estos sistemas son mucho menos capaces que chatbots como ChatGPT y Bard.

El FBI estadounidense y la Europol europea ya han advertido sobre la posibilidad de que los ciberdelincuentes utilicen IA generativa en sus estafas.

Te recomendamos leer:

También Puedes Leer:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

Este sitio web usa cookies propias, de análisis y de terceros para mejorar la experiencia de navegación de los usuarios. Y en algunos artículos, para mostrarte publicidad relacionada con tus preferencias según el análisis de tu navegación. Pero solo es para seguir ofreciéndote contenido de calidad en el blog de manera totalmente gratuita. Puedes informarte más profundamente sobre qué cookies usamos y desactivarlas si quieres. Lee Más