Alertan por los riesgos de IA generativa en México, estos son los peligros

El uso de inteligencia artificial generativa (GenAI) en empresas mexicanas ha crecido de forma acelerada, pero también ha traído nuevos riesgos. Así lo revela el informe “The State of Generative AI 2025” del equipo Unit 42 de Palo Alto Networks, líder global en ciberseguridad.
Según el análisis, el tráfico de herramientas GenAI aumentó más del 890% en 2024 a nivel mundial. Como consecuencia, los incidentes de pérdida de datos se multiplicaron por 2.5 en lo que va de 2025. Hoy ya representan el 14% de todos los incidentes de seguridad en plataformas SaaS como correo electrónico, almacenamiento en la nube o colaboración digital.
¿Qué está pasando con GenAI en México?
En nuestro país, el uso de GenAI también está en auge. De acuerdo con el informe, las organizaciones mexicanas usan en promedio más de 60 apps de IA generativa. Las más comunes por número de transacciones son:
- Grammarly: 66.9%
- ChatGPT: 12.1%
Pero si se mide por volumen de datos transferidos, el panorama cambia:
- ChatGPT lidera con 37.6%
- Grammarly lo sigue con 31.3%
- Microsoft Power Apps con 15.5%
“Shadow AI”: el nuevo riesgo silencioso
Una de las mayores preocupaciones es el uso de herramientas de IA sin supervisión del área de TI, conocidas como “Shadow AI”.
“En México, donde estas tecnologías se adoptan rápidamente, es clave establecer políticas claras de uso y mecanismos de control que les permitan aprovechar sus beneficios sin comprometer la seguridad”, explicó Daniela Menéndez, Country Manager de Palo Alto Networks México.
Casos como un trabajador usando IA para redactar correos, un estudiante pidiendo ayuda para tareas o un programador generando código con IA gratuita pueden parecer inofensivos. Pero si no se controlan, podrían derivar en filtraciones de datos confidenciales, sanciones regulatorias o pérdida de propiedad intelectual.
¿Cómo protegerse del uso descontrolado de GenAI?
Palo Alto Networks propone una estrategia que combina tecnología y cultura de seguridad. Algunas de las acciones clave incluyen:
Controles de acceso condicional
Permiten limitar el uso de ciertas herramientas GenAI según el perfil del usuario, el dispositivo que usa o el nivel de riesgo de la app. Por ejemplo, el área legal podría tener restricciones adicionales para evitar compartir documentos sensibles.
Inspección de contenidos en tiempo real
Sirve para detectar y bloquear datos delicados antes de que se compartan con plataformas externas, como números financieros, datos personales o propiedad intelectual.
Enfoque Zero Trust
Este modelo parte de la idea de que nada ni nadie es confiable por defecto, por lo que ayuda a prevenir ataques sofisticados, incluso si vienen disfrazados en respuestas generadas por IA.
Capacitación continua
Tener herramientas no es suficiente. También es crucial que el personal sepa cómo usarlas con responsabilidad y seguridad.
México, clave para una adopción segura de la GenAI
Sectores como salud, educación, manufactura y servicios financieros avanzan rápido en digitalización. Por eso, México se vuelve un mercado estratégico para implementar políticas de seguridad frente al boom de la GenAI.
Con herramientas como AI Access Security, las empresas pueden ganar visibilidad en tiempo real, controlar accesos y proteger sus datos sin frenar la innovación.




