Los activistas de la privacidad presentaron el lunes una queja contra OpenAI, fabricante de ChatGPT, por la incapacidad de la empresa para corregir la información errónea que su chatbot "alucina" regularmente sobre las personas, una medida que aumentará la presión sobre las empresas tecnológicas para que aborden lo que se convirtió en un problema bien conocido pero difícil de solucionar, a medida que se apresuran a desplegar las herramientas de IA a más clientes.
Datos claves
La organización sin ánimo de lucro con sede en Viena noyb, abreviatura de "none of your business", presentó una queja sobre protección de datos ante el organismo de control de datos de Austria, acusando a OpenAI de violar el Reglamento General de Protección de Datos (RGPD) de Europa, la ley de privacidad y seguridad más estricta del mundo.
"Inventarse datos sobre las personas no es una opción", afirmó el grupo en un comunicado sobre la denuncia, que fue presentada en nombre de una "figura pública" anónima y acusa a OpenAI de negarse a corregir o borrar la información y las declaraciones falsas que había inventado sobre la persona.
Por ejemplo, el grupo dijo que ChatGPT dio "varias informaciones inexactas" cuando se le preguntó por la fecha de nacimiento de la figura y que OpenAI dijo que "no hay forma de evitar que sus sistemas" muestren la información falsa.
En su lugar, la queja decía que OpenAI sólo ofrecía bloquear o filtrar los resultados basados en preguntas como el nombre de la figura -lo que filtraría toda la información sobre ellos- algo que, según noyb, seguiría dejando los datos incorrectos en los sistemas de OpenAI, sólo que no se mostrarían a los usuarios.
También acusó a OpenAI de no revelar información relevante sobre la persona cuando se le solicitó, incluyendo qué datos habían sido procesados, sus fuentes y con quién habían sido compartidos, una obligación legal que la abogada de noyb Maartje de Graaf dijo que "se aplica a todas las empresas", añadiendo que es "claramente posible" hacer un seguimiento de las fuentes de información cuando se entrena un sistema de IA.
OpenAI, que ya reconoció anteriormente el problema que suponen las alucinaciones de la IA para herramientas como ChatGPT, no respondió inmediatamente a la solicitud de comentarios de Forbes.
Cita crucial
"Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, las consecuencias pueden ser graves", afirmó de Graaf en un comunicado. Está claro que las empresas son actualmente incapaces de hacer que chatbots como ChatGPT cumplan la legislación de la UE, cuando procesan datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología tiene que seguir los requisitos legales, no al revés.
El punto principal
La denuncia sube la apuesta contra OpenAI sobre cómo utiliza y entrena los modelos que alimentan ChatGPT. La empresa, al igual que muchos de los principales creadores de IA generativa, ya se enfrenta a una letanía de demandas por derechos de autor sobre los datos que usó para entrenar sus modelos y a una serie de otras cuestiones legales como la privacidad de los datos que raspó para el entrenamiento.
Las llamadas alucinaciones, en las que el sistema de IA produce un resultado engañoso o falso en una consulta pero lo presenta como si fuera cierto, son también un creciente quebradero de cabeza legal, como la demanda por difamación de un locutor de radio de Georgia. La denuncia no es la primera vez que OpenAI se topa con el poderoso régimen europeo de protección de datos, y la empresa ya fue obligada a introducir cambios por la autoridad de protección de datos de Italia en 2023.
Qué hay que tener en cuenta
El GDPR es un poderoso conjunto de normas que puede obligar a una empresa a realizar cambios importantes en sus operaciones para poder seguir operando en el mayor bloque comercial del mundo. También faculta a los reguladores para imponer multas de hasta el 4% de la facturación mundial. Las denuncias sobre datos pueden evolucionar hasta abarcar a toda la UE si el problema se extiende más allá de las fronteras de un país, y las investigaciones se realizan a través de organismos de control que cooperan. Noyb dijo que espera que el asunto se trate de esa manera, lo que podría aumentar las apuestas para OpenAI, aunque las investigaciones pueden tardar años en resolverse. Las empresas de IA estarán muy pendientes del resultado del caso.
Antecedentes clave
Noyb fue una fuerza potente dentro del espacio europeo de protección de datos desde su fundación en 2017, con un total de 839 casos que dieron lugar a 1.740 millones de euros (1.860 millones de dólares) en multas. Su cofundador, Max Schrems, es el activista y abogado detrás de algunos de los desafíos más devastadores a los acuerdos de intercambio de datos entre EE.UU. y la UE para grandes empresas como Meta. Las impugnaciones de Schrems acabaron anulando dos de estos grandes acuerdos -el Escudo de la privacidad y el Puerto Seguro UE-EE.UU.-, lo que obligó a las empresas a replantearse el negocio en línea.
Valoración de Forbes
Según las estimaciones de Forbes, Altman vale 1.000 millones de dólares. Aunque Altman es más conocido por cofundar y dirigir OpenAI, no tiene participaciones en ella y no le debe su riqueza. En su lugar, la fortuna de Altman y su estatus de multimillonario proceden de sus inversiones, que incluyen participaciones en la recién salida a bolsa Reddit, la mimada fintech Stripe y la empresa de fusión nuclear Helion. Antes de OpenAI, Altman fundó la empresa de cartografía social Loopt y fue socio y presidente del acelerador de startups Y Combinator.
*Con información de Forbes US