Gobierno de México podría enfrentar próximamente una creciente amenaza de ciberataques impulsados por IA: experto

El Gobierno de México podría enfrentar en los próximos meses una ola creciente de ciberataques impulsados por inteligencia artificial autónoma, alertó Víctor Ruiz, fundador de SILIKN, una startup tecnológica y especialista en ciberseguridad. Aunque aún no se han registrado incidentes masivos con IA 100% autónoma, las tendencias globales indican que esta amenaza está más cerca de lo que se piensa.
Según datos de 2025, los ciberataques a entidades gubernamentales mexicanas aumentaron un 260% respecto a 2024, con un uso cada vez más frecuente de herramientas de IA para actividades como fraudes con deepfakes, ataques de phishing dirigidos y evasión de sistemas de defensa.
“El Gobierno federal y estatal opera en un entorno de “alta vulnerabilidad cibernética”.
Víctor Ruiz, SILIKN
Según Ruiz, lo anterior se debe a que México no cuenta con una ley nacional de ciberseguridad dedicada a la IA, lo que deja brechas en la regulación de amenazas autónomas.
Ciberataques dirigidos a dependencias de México
La inteligencia artificial autónoma puede ejecutar ataques cibernéticos sin intervención humana. Estas herramientas analizan grandes volúmenes de datos, detectan vulnerabilidades y atacan en tiempo real, explicó el experto de SILIKN. Y detalló que en manos de ciberdelincuentes, representan una nueva era de amenazas invisibles y difíciles de detener.
Ruiz también destacó que uno de los ejemplos más preocupantes es el uso de modelos de lenguaje avanzados para crear correos electrónicos falsos que imitan perfectamente comunicaciones oficiales. Esta táctica ya se está utilizando en campañas de phishing para robar información o acceder a sistemas confidenciales.
“Los ataques actuales ya utilizan IA para adaptarse en tiempo real, lo cual los vuelve prácticamente invisibles para los sistemas tradicionales de defensa”.
Víctor Ruiz, SILIKN
México, en desventaja, sin ley nacional y con estrategia desactualizada
Ruiz afirmó que México carece de una ley nacional de ciberseguridad enfocada en IA.
“La Estrategia Nacional de Ciberseguridad vigente data de 2017 y no contempla amenazas autónomas. Además, los recortes presupuestales del 1.6% en 2025 han limitado la modernización tecnológica de los sistemas gubernamentales”, explicó el especialista en ciberseguridad.
Sólo el 2% de las organizaciones mexicanas, incluyendo entidades públicas, se consideran preparadas para enfrentar amenazas con IA, según datos de la unidad de investigación de SILIKN.
“Sin un marco legal actualizado y recursos adecuados, el Estado no podrá defenderse de amenazas cada vez más automatizadas”, advirtió Ruiz.
Casos recientes evidencian el riesgo creciente
Aunque los ataques con IA totalmente autónoma aún no son comunes, ya se han detectado incidentes donde esta tecnología jugó un rol clave. En febrero de 2025, el hackeo conocido como “Inferno Leaks” expuso 701 GB de datos sensibles, desde información electoral hasta registros bancarios. El ataque involucró IA para automatizar escaneos, explotar fallas y evadir defensas, dijo Ruiz.
Y aseguró que también se han registrado brechas en al menos 10 estados, incluyendo Ciudad de México y Estado de México. “Estas filtraciones podrían escalar rápidamente si la IA evoluciona hacia operaciones completamente autónomas”.
“Lo preocupante no es sólo lo que ya ocurrió, sino lo que está por venir si no se actúa pronto”.
Víctor Ruiz, SILIKN
¿Qué se necesita para frenar esta amenaza?
Especialistas como Víctor Ruiz advierten que la única forma de responder a esta amenaza es con acciones urgentes y coordinadas:
- Actualizar la Estrategia Nacional de Ciberseguridad, integrando protocolos específicos para IA
- Crear una ley nacional de ciberseguridad enfocada en amenazas autónomas
- Implementar tecnologías de defensa con IA, como honeypots y auditorías automatizadas
- Capacitar a funcionarios públicos en ciberdefensa avanzada
- Establecer alianzas con empresas especializadas
- Adoptar marcos regulatorios internacionales para regular el uso de IA de alto riesgo




