Crecen las estafas que utilizan clonación de voz con IA: ¿cómo evitarlas?

| 15:21 | Alfredo Narváez | ESET
¡Que no clonen tu voz con inteligencia artificial!
¡Que no clonen tu voz con inteligencia artificial! | Foto: Getty Images

Ciberdelincuentes han sabido aprovechar el potencial de la inteligencia artificial (IA) para armar ataques de ingeniería social dirigidos, realistas y sofisticados. Entre las técnicas utilizadas, se clona la voz de amigos, familiares o conocidos para que las víctimas entreguen información privada o dinero, según expertos de la empresa de ciberseguridad ESET.

Los ataques de clonación de voz van al alza

Los atacantes toman pequeños fragmentos de una grabación real y, mediante el uso de inteligencia artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños, según un comunicado de ESET publicado este jueves 27 de febrero.

Cabe destacar que las muestras de la voz provienen de una grabación o de videos publicados en redes sociales como Instagram o TikTok, según los especialistas.

ESET aseguró que los criminales pueden usar herramientas como Voice Engine, herramienta de OpenAI capaz de imitar voces humanas con una entrada de texto y una muestra de audio de 15 segundos para generar un habla natural y semejante al original.

[TE RECOMENDAMOS: No caigas en estafas con “deepfake”, te roban tu dinero: ¿cómo identificar estos fraudes con IA?]

El impacto de esta estafa en todo el mundo

Este tipo de estafas ha costado 2 mil 500 millones de dólares, de acuerdo con los datos de 2023 de la Comisión Federal de Comercio de Estados Unidos.

En Reino Unido, más de una cuarta parte de los adultos afirma haber sido víctima de una estafa de clonación de voz mediante inteligencia artificial al menos una vez al año; además, el 46% de los encuestados no sabía de la existencia de dichas estafas, según una encuesta del banco Starling Bank.

Dicho informe también detallo que los estafadores son capaces de replicar la voz de una persona a través de la IA a partir de tres segundos de audio, que pueden sacar de un video publicado en línea.

La preocupación por la clonación de voz llegó hasta el FBI

El número creciente de fraudes que involucran a la inteligencia artificial para hacerlos más realistas incluso escaló al FBI, que emitió un comunicado para alertar a las personas.

“Los atacantes están aprovechando la IA para crear mensajes de voz o video y correos electrónicos muy convincentes para permitir esquemas de fraude contra individuos y empresas por igual. Estas tácticas sofisticadas pueden resultar en pérdidas financieras devastadoras, daño a la reputación y compromiso de datos confidenciales”.

FBI

También destacó que los atacantes están logrando “manipular y crear contenido de audio y video con un realismo sin precedentes”, con el fin de engañar a víctimas desprevenidas para que divulguen información confidencial o autoricen transacciones fraudulentas.

¿Cómo evitar ser víctima de estas estafas?

Los expertos recomiendan a los usuarios mantenerse alerta, prestar atención a mensajes inesperados que llegan con la urgencia de solicitar dinero o credenciales de ciertas cuentas y devolver la llamada al familiar o amigo en cuestión a un número de teléfono conocido.

“Otra de las medidas sugeridas por los especialistas es tener una ‘frase segura’, que sea acordada previamente entre familiares y amigos, con el objetivo de comprobar si la persona que está hablando del otro lado es quien realmente dice ser”.

ESET

En el caso de las empresas, los especialistas señalan que es primordial educar a las personas para que puedan detectarlos y no caer en la trampa.

Finalmente, recalcan la importancia de implementar la autenticación multifactor siempre que se pueda. Se trata de agregar una capa de seguridad extra, con el objetivo de que los ciberdelincuentes no puedan acceder a las cuentas y sistemas de las víctimas.