Próximos partidos

Rafael Nadal alerta sobre publicidad engañosa generada por IA

| 11:20 | Alberto Estrada | AFP/WeLiveSecurity/Blackbird
Rafael Nadal alertó sobre las estafas hechas con IA. Foto: AFP

El extenista español Rafael Nadal denunció este martes que suplantaron su imagen y su voz en videos falsos generados por inteligencia artificial en los que se le atribuyen propuestas falsas.

“Hemos detectado junto a mi equipo que circulan en algunas plataformas videos falsos generados por inteligencia artificial, en los que aparece una figura que imita mi imagen y voz”, señaló Nadal en un comunicado subido a sus redes sociales.

“En estos videos se me atribuyen consejos o propuestas de inversión que no provienen de mí. Se trata de publicidad engañosa“, prosiguió el ganador de 22 Grand Slams.

Nadal, que empezó diciendo que este mensaje era poco habitual en sus redes pero “necesario”, pidió a sus seguidores que tuvieran cuidado: “Yo no he realizado ni respaldo este tipo de mensajes”.

La IA se aprovecha de estas celebridades para estafar

En los últimos años se han registrado varios casos de estafas o publicidad engañosa donde la imagen de celebridades es aprovechada por los ciberdelincuentes.

Lionel Messi

La imagen del jugador argentino fue utilizada por cibercriminales para realizar una estafa con deepfake, mediante la cual promovían una aplicación con ganancias sospechosamente altas e irresistibles.

De acuerdo con el sitio WeLiveSecurity, la app en cuestión se llamaba “Wildcat Dive”, y en el video apócrifo Messi aseguraba que era una de sus principales fuentes de ingresos y que gracias a ella pudo ayudar a muchas personas a ganar dinero.

A través de publicidades en Instagram, los cibercriminales distribuyeron fragmentos de una entrevista apócrifa para la que habían utilizado de base una entrevista real que el futbolista había concedido a un reconocido programa argentino de streaming.

Elon Musk

Los ciberdelincuentes aprovecharon la imagen del magnate para anuncios de X y YouTube para promover falsas inversiones en Bitcoin, lo que le costó a más de 7 mil personas aproximadamente 80 millones de dólares, de acuerdo con la Federal Trade Commission de Estados Unidos.

Scarlett Johansson

La actriz también fue víctima de los ciberdelincuentes cuando se utilizó su imagen haciendo una declaración política controvertida, lo que generó confusión pública.

MrBeast

El famoso youtuber tuvo que alertar a sus seguidores después de que en 2023 saliera un anuncio fraudulento que promocionaba obsequios falsos.

Paris Hilton

La empresaria se vio envuelta en la polémica cuando se publicó un anuncio viral donde promocionaba una marca de lujo, sin su consentimiento, desatando batallas legales y debates sobre los derechos digitales.

Brad Pitt

Una mujer francesa fue estafada por 850 mil dólares por un individuo que utilizó imágenes generadas por IA para hacer pasar por Brad Pitt.

La estafa, que 18 meses duró, incluyó cartas de amor, una propuesta de matrimonio y falsas fotos hospitalarias generadas por IA, en las que se afirmaba que Pitt necesitaba dinero para su tratamiento contra el cáncer.

¿Cómo evitar ser víctima de una estafa que utiliza deepfake?

Más allá de que los engaños que utilizan deepfake sean cada vez más realistas y difícil de detectar, hay prácticas que permiten reducir el riesgo de ser víctima de este tipo de estafas, como lo recomienda WeLiveSecurity.

  • Desconfiar de los anuncios llamativos, que ofrecen una ganancia demasiado buena para ser verdad. Y también de aquellos que involucran a personalidades de renombre mundial
  • Prestar atención a la calidad del video: si se evidencian fallas a nivel visual, mala sincronización o baja resolución, posiblemente se trate de un deepfake
  • Utilizar un software de seguridad en todos los dispositivos, que contribuya al bloqueo de sitios falsos y mails con contenido malicioso
  • Para las empresas, es importante que no se puedan autorizar pagos solamente por una llamada o videollamada. En este punto se puede incluir el uso de palabras clave o códigos internos, como método extra de validación
  • Ponderar la capacitación continua: estar entrenado para reconocer las señales de alarma de deepfakes y fraudes es otro hábito clave
  • Aprovechar las herramientas que existen actualmente para detectar deepfakes y combatir la desinformación