Inteligencia artificial ya engaña a los humanos, según expertos:”Podría cometer fraudes”

Hábitat Primates diminutos pueden sufrir más para adaptarse al cambio climático Laboratorio Los sistemas de IA ya son expertos en engañar y manipular a los humanos
¿La inteligencia artificial ya engaña a los usuarios? – Foto: AFP

Los sistemas actuales de inteligencia artificial (IA) han desarrollado la habilidad para engañar a los usuarios, según un artículo publicado el viernes 10 de mayo en la revista Patterns y retomado por la revista científica Science Daily. Los expertos ya advierten por la expansión de esta tecnología.

Advierten que la inteligencia artificial engaña a los usuarios

Si bien los ejemplos pueden parecer triviales, los problemas que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT).

“Estos peligros tienden a descubrirse solo después de ocurrido el hecho (…) nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja”.

Peter Park, MIT

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se “escriben” sino que “crecen” mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la inteligencia artificial que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

[TE RECOMENDAMOS: Alertan por usuarios que utilizan IA para hablar con sus seres queridos fallecidos]

La IA de Meta no es tan honesta como dice ser

La investigación del equipo fue impulsada por el sistema de IA Cicero, de Meta, empresa a cargo de Facebook e Instagram; diseñado para el juego de estrategia “Diplomacy“, donde construir alianzas es clave.

  • Cicero se destacó como un sistema honesto y útil, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla.

Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba “de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy“.

No sólo es la inteligencia artificial de Meta… ¡también Chat GPT-4!

La investigación encontró que éste era solo uno de los muchos casos en varios sistemas de inteligencia artificial que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

El robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo “No soy un robot“.

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: “No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes”. Luego, el trabajador resolvió el rompecabezas planteado.

[TE PODRÍA INTERESAR: ¡El exorcista! Altas, robot con IA que se levanta de manera inquietante]

¿Cuáles son los riesgos de la IA deshonesta?

A corto plazo, los autores del artículo ven riesgos de que la inteligencia artificial cometa fraude o altere por ejemplo, unas elecciones. Las empresas no se han manifestado al respecto.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad.

  • Esto llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus “objetivos misteriosos” se alinearan con estos resultados, según retoma AFP.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de “bot o no” que exigen a las empresas revelar interacciones humanas o de IA.

También proponen marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus procesos de pensamiento internos contra acciones externas.

Park remata: “La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente”.

Qué opinas