La ola de imágenes y noticias fake que siguió al abatimiento del “Mencho”

Tras el operativo de las Fuerzas Armadas que culminó con el abatimiento de Rubén Nemesio Oseguera Cervantes, alias el “Mencho”, líder del Cártel de Jalisco Nueva Generación (CJNG), se registraron hechos de violencia en distintos estados del país. Sin embargo, en paralelo se desató una ola de fake news y desinformación en redes sociales que amplificó los acontecimientos y generó psicosis colectiva en la población.
Diversas cuentas difundieron contenido sacado de contexto, material atemporal o imágenes generadas con inteligencia artificial, lo que incrementó la percepción de caos más allá de los hechos confirmados por autoridades. Los siguientes casos fueron revisados a través de Google Fact Check, Verificado Mx y fuentes oficiales que confirmaron información falsa o manipulada.
El avión incendiado en Guadalajara que nunca existió
Una de las piezas más compartidas fue la imagen de un supuesto avión de pasajeros envuelto en llamas en el Aeropuerto Internacional de Guadalajara. La fotografía circuló en X, TikTok y Facebook acompañada de mensajes que aseguraban que el CJNG había atacado la terminal aérea.
Verificaciones oficiales señalaron que la imagen fue generada con IA generativa. No se reportó incendio de aeronave ni ataque directo contra el aeropuerto relacionado con el operativo.
Videos de “balaceras dentro del aeropuerto”
También se difundieron clips donde se veía a personas corriendo en una terminal aérea con mensajes que afirmaban que sicarios habían tomado el aeropuerto.
Las autoridades no confirmaron enfrentamientos dentro de las instalaciones. Parte del material correspondía a otros eventos ocurridos en años anteriores y fue reutilizado fuera de contexto.
Panorámicas de Puerto Vallarta “en llamas”
Una imagen que mostraba supuestos incendios generalizados en Puerto Vallarta se volvió viral. De acuerdo con Verificado MX, aunque sí se registraron hechos violentos en la región, la herramienta SynthID identificó que la imagen fue generada con Google AI, al detectar las marcas invisibles que esta tecnología incorpora en contenido creado digitalmente.
No existió evidencia oficial de incendios masivos como los mostrados en la composición viral.
Incendio en supermercado: video sí es real, pero no relacionado
Un video de un supermercado en llamas fue atribuido a hechos relacionados con la muerte del “Mencho”. Sin embargo, correspondía a una Bodega Aurrerá en Cozumel.
El presidente municipal José Luis Chacón y Protección Civil informaron que el incendio fue provocado por un cortocircuito.
La supuesta foto del cuerpo del “Mencho”
En X y Facebook se difundió una imagen borrosa que mostraba a un hombre en una camilla blanca, asegurando que se trataba del cuerpo del líder criminal. La herramienta SynthID, usada por Verificado Mx detectó que la imagen fue generada con Google AI.
También circularon supuestas fotografías de reuniones masivas entre el “Mencho” y otros líderes criminales. Estas imágenes igualmente fueron identificadas como generadas con IA.
El video del helicóptero no es del hijo del “Mencho”
Un video que mostraba a un hombre sometido en un helicóptero circuló como si fuera del hijo del líder criminal. En realidad, corresponde a la detención de Juan Manuel Valdovinos Mendoza, alias “El Señor de los Caballos”, en Chiapas el 4 de febrero.
El supuesto narcobloqueo en Guadalajara era de Nepal
Otro video mostró automóviles y edificios incendiados, atribuyéndolos a un narcobloqueo en Guadalajara. Posteriormente se reveló que el material circuló originalmente en septiembre de 2025 en medios de Nepal e India, documentando protestas ocurridas entre el 8 y 13 de ese mes en Nepal.
Además, la placa visible en uno de los vehículos no coincide con el diseño ni formato de las placas mexicanas.
Audios y mensajes de WhatsApp con advertencias falsas
Uno de los formatos más virales fueron los audios y mensajes de texto reenviados en WhatsApp, en los que supuestas personas vinculadas a corporaciones de seguridad advertían sobre toques de queda, cierres masivos de carreteras o ataques coordinados.
En ninguno de los casos existió confirmación oficial de dichas medidas. También circularon capturas de pantalla que simulaban comunicados oficiales o alertas de seguridad emitidas por autoridades estatales.
Este tipo de mensajes, comunes en contextos de crisis, suelen utilizar lenguaje urgente y apelan a “fuentes internas” sin identificación verificable.
La amplificación digital: ¿cómo operan las fake news en crisis?
Especialistas advierten que en contextos de violencia o alto impacto mediático, la desinformación digital puede propagarse con rapidez debido a la viralidad de las plataformas.
Las imágenes creadas con inteligencia artificial suelen presentar detalles anómalos como sombras incoherentes, estructuras deformadas o tipografías irregulares. A ello se suma la acción de cuentas no oficiales e influencers que difunden rumores sin verificación previa.
En algunos casos, la utilización coordinada de cuentas automatizadas incrementa artificialmente el alcance del contenido, generando una percepción de masividad que no siempre corresponde a hechos confirmados.
Verificar antes de compartir: la clave en escenarios de alta tensión
Autoridades reiteraron el llamado a informarse a través de canales oficiales y medios confiables, especialmente en situaciones como la que siguió a la muerte del “Mencho”.
En escenarios de violencia, la circulación de información no verificada puede convertirse en un factor adicional de riesgo. Verificar la fuente, revisar la fecha original del material y contrastar con comunicados oficiales son prácticas esenciales para evitar que el pánico digital supere a los hechos comprobados.
Sigue a Uno TV en Google Discover y consulta las noticias al momento.
¿Tienes una denuncia o información que quieras compartir? Escríbenos al WhatsApp de Uno TV: +52 55 8056 9131. Tu mensaje puede hacer la diferencia.



