Secciones
Servicios
Destacamos
La gran mayoría de los usuarios de internet ha caído en la tentación de preguntar a Google qué sabe de él. «¿Quién es…?» es una ... de las cuestiones que más se lanza al gigante de los buscadores. Ahora, con la llegada de ChatGPT, la pregunta se traslada a la inteligencia artificial generativa. El resultado varía, porque en el primero se reciben una serie de enlaces y en el segundo llega una respuesta elaborada. Pero el problema es la contestación.
Eso le pasó a Arve Hjalmar Holmen. Este joven noruego, sin sospechar nada, preguntó a la IA de OpenAI qué sabía sobre Arve Hjalmar Holmen. Al instante, los algoritmos empezaron a construir la respuesta. «Arve Hjalmar Holmen es un noruego que ganó relevancia debido a un trágico evento», respondió ChatGPT. A continuación, la IA acusó con todo detalle a este hombre de un doble asesinato de sus hijos, además de ser condenado a 21 años de prisión.
«El hecho de que alguien pueda leer este mensaje y creer que es cierto es lo que más me asusta», explicó Hjalmar al Centro Europeo de Derechos Digitales-Noyb. No es el primer caso ni será el último. Solo que en esta ocasión, el afectado ha elevado una queja ante la Autoridad Noruega de Protección de Datos, que exige que la empresa, en este caso OpenAI, sea sancionada.
Noticia relacionada
En el pasado, ChatGPT ha acusado falsamente a personas de corrupción, abuso de menores —o incluso de asesinato—. En todas ellas, la IA se inventó la historia. «Los datos personales tienen que ser exactos», explica Joakim Söderberg, abogado especializado en protección de datos de Noyb. «Si no lo son, los usuarios tienen derecho a que se modifiquen para reflejar la verdad», añade. En este caso, la respuesta mezclaba datos personales claramente identificables e información falsa. «Es una violación del Reglamento General de Protección de Datos», aclara el letrado.
Desde hace varios meses, ChatGPT, entre otras herramientas de IA generativa, recuerda a los usuarios que «puede cometer errores. Considera verificar la información importante». Estos «errores», como los llaman los programadores, son muy comunes, más de lo que los usuarios piensan.
En la literatura académica, los investigadores los llaman alucinaciones y los definen como una respuesta confiada dada por una IA que no está justificada por los datos con los que ha sido entrenada. «No se puede difundir información falsa y luego añadir una nota diciendo que podría no ser cierta», denuncia Söderberg. OpenAI declara que la versión de ChatGPT responsable de este error ya ha sido mejorada con funciones de búsqueda en línea para aumentar su precisión.
A pesar de ello, Noyb ha presentado una denuncia ante el regulador noruego contra la matriz de la herramienta por «permitir a sabiendas que su modelo de IA cree resultados difamatorios sobre los usuarios». En su escrito, la organización solicita a las autoridades que exhorten a OpenAI a eliminar los resultados difamatorios y a ajustar su modelo para evitar respuestas inexactas. Además, sugiere que la autoridad de protección de datos imponga una multa administrativa para evitar infracciones similares en el futuro.
¿Ya estás registrado/a? Inicia sesión
Publicidad
Publicidad
Publicidad
Publicidad
Esta funcionalidad es exclusiva para registrados.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para registrados
¿Ya eres registrado?
Inicia sesiónNecesitas ser suscriptor para poder votar.