Las diez noticias clave de la jornada
Página de inicio de ChatGPT. OpenAI

Cuando la IA te acusa de asesinato

Un ciudadano noruego denuncia la empresa creadora de ChatGPT por difundir información falsa sobre su persona

Lunes, 31 de marzo 2025, 00:03

La gran mayoría de los usuarios de internet ha caído en la tentación de preguntar a Google qué sabe de él. «¿Quién es…?» es una ... de las cuestiones que más se lanza al gigante de los buscadores. Ahora, con la llegada de ChatGPT, la pregunta se traslada a la inteligencia artificial generativa. El resultado varía, porque en el primero se reciben una serie de enlaces y en el segundo llega una respuesta elaborada. Pero el problema es la contestación.

Publicidad

Eso le pasó a Arve Hjalmar Holmen. Este joven noruego, sin sospechar nada, preguntó a la IA de OpenAI qué sabía sobre Arve Hjalmar Holmen. Al instante, los algoritmos empezaron a construir la respuesta. «Arve Hjalmar Holmen es un noruego que ganó relevancia debido a un trágico evento», respondió ChatGPT. A continuación, la IA acusó con todo detalle a este hombre de un doble asesinato de sus hijos, además de ser condenado a 21 años de prisión.

«El hecho de que alguien pueda leer este mensaje y creer que es cierto es lo que más me asusta», explicó Hjalmar al Centro Europeo de Derechos Digitales-Noyb. No es el primer caso ni será el último. Solo que en esta ocasión, el afectado ha elevado una queja ante la Autoridad Noruega de Protección de Datos, que exige que la empresa, en este caso OpenAI, sea sancionada.

En el pasado, ChatGPT ha acusado falsamente a personas de corrupción, abuso de menores —o incluso de asesinato—. En todas ellas, la IA se inventó la historia. «Los datos personales tienen que ser exactos», explica Joakim Söderberg, abogado especializado en protección de datos de Noyb. «Si no lo son, los usuarios tienen derecho a que se modifiquen para reflejar la verdad», añade. En este caso, la respuesta mezclaba datos personales claramente identificables e información falsa. «Es una violación del Reglamento General de Protección de Datos», aclara el letrado.

Publicidad

'Alucinaciones'

Desde hace varios meses, ChatGPT, entre otras herramientas de IA generativa, recuerda a los usuarios que «puede cometer errores. Considera verificar la información importante». Estos «errores», como los llaman los programadores, son muy comunes, más de lo que los usuarios piensan.

En la literatura académica, los investigadores los llaman alucinaciones y los definen como una respuesta confiada dada por una IA que no está justificada por los datos con los que ha sido entrenada. «No se puede difundir información falsa y luego añadir una nota diciendo que podría no ser cierta», denuncia Söderberg. OpenAI declara que la versión de ChatGPT responsable de este error ya ha sido mejorada con funciones de búsqueda en línea para aumentar su precisión.

Publicidad

A pesar de ello, Noyb ha presentado una denuncia ante el regulador noruego contra la matriz de la herramienta por «permitir a sabiendas que su modelo de IA cree resultados difamatorios sobre los usuarios». En su escrito, la organización solicita a las autoridades que exhorten a OpenAI a eliminar los resultados difamatorios y a ajustar su modelo para evitar respuestas inexactas. Además, sugiere que la autoridad de protección de datos imponga una multa administrativa para evitar infracciones similares en el futuro.

Este contenido es exclusivo para suscriptores

Suscríbete los 2 primeros meses gratis

Publicidad