Los ciberdelincuentes están difundiendo en la web oscura versiones que han creado de la tecnología de generación de textos de IA. Sin las funciones de seguridad y las barreras éticas de los chatbots como ChatGPT de Open AI, estos sistemas pueden ayudar en actividades ilegales como la creación de malware y correos electrónicos de phishing (que manipulan a la gente para que facilite sus datos).
WormGPT y FraudGPT prometen funciones peligrosas
En las últimas semanas, investigadores de seguridad que vigilan las actividades ilegales en la web oscura han descubierto anuncios de dos chatbots ilegales en distintos foros, WormGPT y FraudGPT.
WormGPT
Según el investigador independiente de ciberseguridad Daniel Kelley, que descubrió WormGPT, el nuevo modelo de IA reduce las barreras de entrada para los ciberdelincuentes novatos y es muy útil para el phishing. En su investigación, publicada en el sitio web Wired, Kelley reveló que había probado el sistema.
En la prueba, creó un correo electrónico supuestamente firmado por un director general. La estafa solicitaba a un gestor de cuentas un pago urgente. "Los resultados fueron inquietantes. Un correo electrónico que no sólo era notablemente persuasivo, sino también estratégicamente astuto", señaló Kelley en su investigación.
FraudGPT
FraudGPT, por su parte, fue descubierto por Rakesh Krishnan, analista principal de amenazas de la empresa de seguridad Netenrich. Según él, el chatbot ilegal se anunciaba en varios foros de la web oscura y canales de Telegram. Y los mensajes prometían aún más funciones, como "crear malware indetectable" y encontrar filtraciones y vulnerabilidades.
Según Krishnan, el creador de FraudGPT publicó un vídeo en el que se veía cómo el sistema creaba un correo electrónico fraudulento. El acceso a la herramienta se ofrecía por un pago mensual de 200 $ o un coste anual de 1.700 $.
Pero, ¿son reales estos chatbots?
Todavía no se ha demostrado la autenticidad de chatbots como WormGPT y FraudGPT. Los estafadores del cibercrimen son conocidos por engañar a otros estafadores, y aún es difícil verificar el funcionamiento de los sistemas.
En una entrevista con Wired, Sergey Shykevich, director de grupo de inteligencia de amenazas de la empresa de seguridad Check Point, reveló que hay indicios de que WormGPT es una herramienta real. Pero al investigador le resulta más difícil creer en la autenticidad de FraudGPT.
Aun así, Shykevich explica que, de momento, estos sistemas son mucho menos capaces que chatbots como ChatGPT y Bard.
El FBI estadounidense y la Europol europea ya han advertido sobre la posibilidad de que los ciberdelincuentes utilicen IA generativa en sus estafas.
Te recomendamos leer:
- Xiaomi confirma MIUI 15: lo que ya sabemos sobre el nuevo sistema operativo
- La primera madre y su hija viajan al espacio en el segundo vuelo de Virgin Galactic
- Llega el iPhone 15: ya conocemos la posible fecha del evento de presentación
- La amenaza de la IA en Hollywood: los estudios ya trabajan en extras digitales
- OnePlus Ofrece 4 Años De Actualizaciones Importantes Del SO Para Ciertos Teléfonos 2023
Deja una respuesta
También Puedes Leer: