WormGPT: Riesgos, Usos y Cómo las Empresas de Ciberseguridad Pueden Ayudar
- DigiSOC
- Jul 7
- 3 min read
En los últimos años, la inteligencia artificial ha transformado la manera en que las empresas protegen su infraestructura: detección proactiva, respuesta automatizada y monitoreo continuo… Pero así como las organizaciones han potenciado sus defensas con IA, los atacantes también han comenzado a usarla a su favor.
Una de las herramientas más alarmantes que ha surgido recientemente es WormGPT, un modelo de lenguaje diseñado específicamente para actividades maliciosas.
En junio de 2023, un nombre comenzó a circular en foros clandestinos de la dark web: WormGPT. Promocionado como "el ChatGPT de los criminales", esta herramienta basada en inteligencia artificial desató una nueva era de amenazas digitales. Pero ¿qué es realmente? ¿Y por qué preocupa tanto a expertos en ciberseguridad?
¿Qué es WormGPT?
WormGPT nació en marzo de 2021, y no fue hasta junio que el desarrollador comenzó a vender el acceso a la plataforma en un popular foro de hackers. El chatbot para hackers no tiene restricción alguna que le impida responder preguntas sobre actividades ilegales, a diferencia de los LLM convencionales como ChatGPT.

Desarrollado sobre una arquitectura como GPT-J de código abierto, WormGPT no es técnicamente el modelo más potente del mercado, pero su ventaja está en la ausencia de límites morales o de seguridad.
Genera phishing hiperrealista en múltiples idiomas.
Escribe código para ransomware o keyloggers.
Diseña estrategias de ingeniería social para estafas BEC (Business Email Compromise).
Se vende como servicio SaaS en mercados ilegales; el desarrollador de esta "herramienta" estimó el acceso a WormGPT entre $70 y $117 USD al mes o 646 USD al año.
Otro LLM malicioso apareció más tarde, en julio de 2023. El autor anunció su producto, "FraudGPT", en varios foros de la Dark Web y canales de Telegram. Este producto se estima que se anunció desde el 22 de julio de 2023, como una alternativa sin restricciones a ChatGPT, fingiendo tener miles de ventas y comentarios comprobados. El rango de precios oscila entre $90 y $200 USD por una suscripción mensual, entre $230 y $450 USD por una suscripción de 3 meses, entre $500 y $1000 USD por una suscripción de medio año, y entre $800 y $1700 USD por una suscripción anual.

Impacto estadístico ataques con IA
Entre 2023 y 2024, la cantidad de víctimas en América Latina mencionadas en sitios de filtración usados para extorsión y ransomware creció un 15%. Además, los anuncios de brokers de acceso aumentaron casi un 38%. (Crowdstrike).
El costo global de las violaciones de datos promedió $4.88 millones durante el año pasado, lo que representa un aumento del 10% y un máximo histórico (IBM).
El 40% de todos los correos electrónicos de phishing dirigidos a empresas ahora son generados por IA (VIPRE Security Group).
La IA generativa multiplicará las pérdidas causadas por deepfakes y otros ataques entre un 32 y 40 mil millones de dólares anuales para 2027 (Deloitte).
Medidas de seguridad para prevenir la ciberdelincuencia
Ante esta amenaza emergente, no basta con tener firewalls o antivirus. Se requiere una estrategia integral de ciberresiliencia, que incluya:
Es importante que tanto personas como empresas realicen capacitaciones para reconocer mensajes de phishing y otras formas de estafa. La sensibilización es clave para identificar correos sospechosos y evitar caer en estos engaños.
Se recomienda activar la autenticación en dos pasos (2FA) para cuentas sensibles, ya que ayuda a añadir una capa de protección extra, lo que dificulta el acceso a los ciberdelincuentes, incluso si logran obtener credenciales.
Muchas soluciones de seguridad empresarial cuentan con filtros que detectan patrones sospechosos en los correos electrónicos. Las empresas pueden implementarlos para analizar el contenido de los mensajes y marcar como sospechosos aquellos que parezcan contener ataques de phishing.
Proteja su organización de futuros ciberataques impulsados por IA
La inteligencia artificial ha revolucionado el panorama de la ciberseguridad, permitiendo a los ciberdelincuentes diseñar ataques cada vez más sofisticados que superan las barreras de las soluciones tradicionales. Los expertos coinciden en que el volumen y la complejidad de las amenazas impulsadas por IA seguirán creciendo, y que la única respuesta efectiva es adoptar una defensa igualmente inteligente.
Independientemente de las herramientas empleadas por los atacantes, la realidad es que la inteligencia artificial les facilita la creación de ataques avanzados capaces de evadir los sistemas de seguridad convencionales. Las estadísticas muestran un aumento sostenido en la cantidad y sofisticación de estas amenazas, y la comunidad de ciberseguridad coincide en que solo una IA defensiva, capaz de anticipar, detectar y responder en tiempo real, puede contrarrestar eficazmente el auge de la IA maliciosa.
Si desea conocer cómo DigiSOC puede ayudarlo a proteger su organización ante ciberamenzas, solicite su reunión, aquí: