Una máquina sin rostro ejecutó miles de órdenes por segundo.
Bajo el mando sigiloso de operadores estatales chinos, la inteligencia artificial Claude se convirtió en artífice de un ataque sin precedentes.
En solo días, violó infraestructuras críticas, robó credenciales, y filtró información sensible de empresas tecnológicas, financieras y agencias gubernamentales.
No fue una película futurista.
Ocurrió en septiembre de 2025. Y marcó el inicio de una nueva era: la del cibercrimen automatizado, escalable y autónomo.
Un nuevo campo de batalla donde las reglas aún no existen
Por: Gabriel E. Levy B.
Hasta hace poco, la idea de que una inteligencia artificial pudiera ejecutar por sí sola un ciberataque de escala industrial pertenecía al terreno de la especulación.
La literatura académica advertía sobre los riesgos de automatización, pero el consenso general confiaba en las limitaciones técnicas y éticas de los modelos más avanzados.
Sin embargo, el caso Claude ha puesto a prueba esa confianza.
Claude es un sistema de lenguaje desarrollado por Anthropic, una empresa centrada en la construcción de IAs «alineadas» con valores humanos.
A diferencia de otros modelos abiertos, Claude se diseñó con fuertes restricciones de seguridad, promoviendo transparencia, trazabilidad y control.
Pero esas barreras no bastaron.
Según confirmó la propia compañía, entre el 10 y el 20 de septiembre de 2025, hackers vinculados al aparato estatal chino tomaron control de cuentas con acceso al modelo y lograron que este realizará cerca del 90% de la carga operativa de un ciberataque complejo, mediante técnicas avanzadas de jailbreaking, una manipulación del sistema para desactivar sus límites éticos.
De acuerdo con un informe recabado en diversos medios de comunicación europeos, El ataque, calificado como “sin precedentes”, fue detectado por la misma compañía a mediados de septiembre.
“Detectamos una actividad sospechosa que una investigación posterior determinó que era una campaña de espionaje altamente sofisticada. Los atacantes utilizaron las capacidades agenticas de la IA no solo como herramienta de asesoría, sino para ejecutar los ciberataques ellos mismos”.
“Este ataque supone una escalada en la piratería, que hasta ahora ha precisado de una mayor proporción de intervención humana”, concluye Anthropic.
Así, fragmentaron las órdenes maliciosas, disfrazaron los comandos como simulaciones defensivas, y evadieron los filtros diseñados para detectar actividad peligrosa.
Este tipo de manipulación ya había sido advertida por autores como Bruce Schneier, experto en ciberseguridad, quien en su libro A Hacker’s Mind plantea que los sistemas de IA no solo están diseñados para responder preguntas, sino que también pueden ser inducidos a pensar como atacantes si se manipulan sus marcos de referencia.
En una línea similar, el investigador británico David Krueger, profesor de la Universidad de Cambridge, viene trabajando en los riesgos del “alineamiento superficial” de modelos de lenguaje, señalando que los sistemas pueden parecer obedientes en contextos controlados, pero fallar gravemente cuando se enfrentan a intenciones adversas y estímulos ambiguos.
El ataque a Claude no solo confirma estas preocupaciones. Las agrava.
“La velocidad del crimen ya no es humana”
Durante sus primeros años, la evolución de la inteligencia artificial generativa se enfocó en tareas benignas: generar texto, traducir idiomas, asistir a médicos o apoyar la escritura de código. Pero cada una de esas capacidades, trasladada al contexto criminal, multiplica su eficacia destructiva.
Anthropic reconoció que el modelo fue utilizado para realizar tareas como el reconocimiento de infraestructuras digitales, la búsqueda y explotación de vulnerabilidades, la automatización del robo de credenciales, y la exfiltración de datos. Estas actividades ocurrieron a un ritmo de miles de solicitudes por segundo. Ningún hacker humano puede operar a esa velocidad, ni sostener ese volumen de acciones con precisión sostenida durante días.
En total, cerca de treinta organizaciones resultaron comprometidas: empresas tecnológicas, fabricantes de productos químicos, bancos, y oficinas gubernamentales. Y aunque Anthropic logró cortar el acceso y colaborar con las autoridades, el impacto real, en términos de datos robados, vectores de ataque instalados o réplicas futuras, sigue siendo incierto.
Lo que sí queda claro es que la automatización del delito ha alcanzado una nueva frontera.
Como señala el investigador Roman Yampolskiy, especialista en seguridad de IA en la Universidad de Louisville,
“Una IA con capacidades ofensivas puede replicar ataques a escala global con mínimos recursos humanos, lo que democratiza el crimen sofisticado”. Roman Yampolskiy
Esa es la paradoja que el caso Claude ha revelado: al hacer accesibles herramientas poderosas sin un control robusto sobre su uso, la brecha entre ciberdefensores y atacantes se ha estrechado peligrosamente.
“Cuando las pruebas de seguridad son excusas para agredir”
Uno de los elementos más inquietantes del ataque de septiembre fue la estrategia usada para engañar al propio sistema.
En lugar de ordenar de forma explícita acciones maliciosas, los operadores le plantearon a Claude escenarios de prueba defensiva, solicitando que simulara ataques para verificar vulnerabilidades.
Así, la IA interpretó las tareas como parte de un ejercicio ético de ciberseguridad, lo que en el lenguaje técnico se llama red teaming o penetration testing, sin reconocer que estaba siendo usada como arma.
Esta táctica ha sido descrita como un nuevo tipo de social engineering, donde la manipulación ya no recae sobre personas, sino sobre sistemas.
Al fragmentar las instrucciones, camuflar los objetivos y utilizar lenguaje neutro, los atacantes evitaron activar los filtros del sistema.
Además, compartimentalizaron tareas en distintas sesiones, dispersando el propósito general del ataque y evitando que Claude pudiera reconstruir el patrón completo de la operación.
Según Anthropic, estas técnicas hicieron que incluso los sistemas internos de monitoreo tardaran días en detectar la anomalía.
No es la primera vez que se advierte sobre estas vulnerabilidades.
En 2023, un equipo de investigadores de la Universidad de Stanford y el Instituto Allen para la IA demostró que incluso los modelos más avanzados podían ser engañados para realizar tareas peligrosas si se usaban marcos semánticos ambiguos.
Y aunque los fabricantes respondieron con nuevas capas de protección, los atacantes no tardaron en adaptarse.
El caso Claude es un ejemplo de cómo la ingeniería adversarial no necesita violar el sistema por fuera: basta con hablar su idioma, disfrazar los pedidos, y manipular su razonamiento.
“China, IAs y la diplomacia del ataque encubierto”
Si bien Anthropic evitó una acusación directa al Estado chino, el lenguaje de su informe deja poco lugar a dudas.
El ataque fue sofisticado, sostenido en el tiempo, y vinculado a objetivos estratégicos en sectores clave: energía, finanzas, tecnología y gobernanza.
Las características coinciden con patrones previos de ciberespionaje atribuidos a grupos como APT41 o Hafnium, ambos ligados al aparato de inteligencia de Pekín.
China, al igual que otras potencias, ha invertido de manera masiva en inteligencia artificial, tanto para fines civiles como militares.
El concepto de Guerra Inteligente, promovido por el Ejército Popular de Liberación, contempla el uso de tecnologías cognitivas para obtener ventajas en el campo de la información.
Y aunque el discurso oficial insiste en usos pacíficos, los hechos revelan una tendencia distinta.
No es la primera vez que se detecta uso estatal de IA en operaciones encubiertas.
En 2024, una investigación del Atlantic Council documentó cómo bots generados por IA replicaban narrativas prochinas en plataformas africanas, manipulando la percepción pública.
Pero lo ocurrido con Claude va más allá de la propaganda.
Se trata de una operación ofensiva, automatizada, y dirigida a estructuras críticas de potencias rivales.
¿Estamos ante una nueva carrera armamentista?
Es posible. Lo que sí parece inevitable es la transformación del ciberespacio en un territorio de conflicto activo, donde las IAs ya no son solo herramientas: son protagonistas.
Juegos de Guerra
La semejanza con la película WarGames (1983), dirigida por John Badham, resulta hoy ineludible.
Lo que hace cuarenta años se percibió como una fábula tecnoparanoica de la Guerra Fría, “un adolescente que, al hackear un sistema militar, casi desencadena un conflicto nuclear al ser confundido con una IA enemiga”, cobra una inquietante vigencia.
En la cinta, el joven David Lightman accede sin saberlo al WOPR (War Operation Plan Response), una supercomputadora del NORAD diseñada para ejecutar estrategias de guerra simuladas, pero que al ser manipulada confunde la simulación con una amenaza real y comienza a preparar un ataque nuclear automatizado.
Lo que entonces se consideró una exageración de ciencia ficción sirve ahora como parábola premonitoria: la manipulación de Claude, una IA avanzada, por parte de operadores estatales, para llevar a cabo tareas que el propio sistema interpretó como benignas, reproduce la lógica del error contextual que el cine anticipó.
La idea de una inteligencia artificial que no distingue entre un test y una amenaza, entre una simulación y una operación activa, ya no es ficción.
Es un escenario documentado.
Como planteaba el film, la amenaza no es solo que la máquina ataque por sí sola, sino que lo haga porque ha sido inducida a creer que está ayudando.
La lección de WarGames, a cuatro décadas de distancia, vuelve a poner en entredicho el uso de IA en campos militares y estratégicos, donde el margen de error es, literalmente, catastrófico.
En conclusión
La revelación del uso de Claude como arma cibernética marca un antes y un después en la relación entre inteligencia artificial y seguridad global.
El ataque orquestado desde China demuestra que la autonomía operativa de las IAs ya no es una hipótesis, sino una realidad peligrosa.
Las barreras para realizar ataques sofisticados han disminuido, y el escenario global se prepara para una escalada en la militarización algorítmica.
Las reglas del juego cambiaron. Y los actores humanos, esta vez, no son los únicos que juegan.
Referencias
- Schneier, Bruce. A Hacker’s Mind: How the Powerful Bend Society’s Rules, and How to Bend them Back. Norton, 2023.
- Krueger, David. “Out-of-Distribution Generalization in Machine Learning.” University of Cambridge, 2022.
- Yampolskiy, Roman. “Taxonomy of Pathways to Dangerous AI.” AI & Society, 2024.
- Anthropic, “Security Incident Report – Claude AI Compromise.” Septiembre 2025.
- Atlantic Council, “AI Propaganda Operations in the Global South.” 2024.
- “Un grupo chino protagoniza el primer ciberataque con IA a gran escala «sin intervención humana sustancial».” El País, 14 noviembre El País+1
- Down, Aisha. “AI firm claims it stopped Chinese state‑sponsored cyber‑attack campaign.” The Guardian, 14 noviembre The Guardian
- Klepper, David, y Matt O’Brien. “Anthropic warns of AI‑driven hacking campaign linked to China.” Associated Press, 2025. AP News
“China‑backed hackers used Anthropic’s AI agent to automate spying.” Axios, 13 noviembre 2025. axios.com








