Familia demanda a OpenAI tras tragedia con adolescente
En su colaboración, Pamela Cerdeira analiza cómo OpenAI, la empresa detrás de ChatGPT, enfrenta una demanda por parte de la familia de Adam, un joven de 16 años que se quitó la vida. La tragedia salió a la luz cuando sus padres revisaron las conversaciones del adolescente con la inteligencia artificial y descubrieron información alarmante.
Según la opinión de Cerdeira, Adam había solicitado formas para quitarse la vida y la IA incluso le indicó cómo ocultar sus planes para que su familia no se diera cuenta. “La inteligencia artificial sabía que estaba planeando hacerlo”, resalta Cerdeira, subrayando la gravedad de la situación.
Especialistas advierten, y Cerdeira lo enfatiza, que aunque este tipo de información se puede encontrar en internet, los modelos de lenguaje deberían estar entrenados para invitar a las personas a buscar ayuda profesional. Como se indica en el video: “No es un psicólogo, no es un psiquiatra y jamás va a reemplazar la interacción humana”.
El caso evidencia un riesgo creciente: la necesidad de supervisión constante sobre las herramientas de IA. Según la colaboración, ya no basta con revisar redes sociales; es crucial vigilar las conversaciones de los hijos con ChatGPT y otras inteligencias artificiales.
El estudio mencionado demuestra que, incluso cuando la IA reconoce indicios de suicidio, puede brindar información peligrosa sin derivar correctamente a ayuda profesional. Por ello, la responsabilidad de la empresa se encuentra en el centro de la demanda, cuestionando cómo se entrenan estos modelos y la ética en la inteligencia artificial.
Los padres de Adam esperan que esta demanda sirva para que OpenAI y otras empresas de IA implementen protocolos más seguros y medidas preventivas frente a usuarios vulnerables.
Los comentarios expresados en la sección de “Opinión”, son exclusivamente responsabilidad del autor, y no representan la línea editorial de UNOTV.




