View Categories

Report of the Work Undertaken by the ChatGPT Taskforce

4 min read

Table of Contents

Author(s): European Data Protection Board (EDPB)
Year: 2024
Bibliographic Reference: European Data Protection Board (EDPB). (2024). Report of the Work Undertaken by the ChatGPT Taskforce.

Categoría asignada: Ética y regulación

Resumen: #

El Report of the Work Undertaken by the ChatGPT Taskforce, publicado en mayo de 2024 por el Comité Europeo de Protección de Datos (EDPB), presenta un informe preliminar sobre las investigaciones en curso respecto al cumplimiento de ChatGPT con el Reglamento General de Protección de Datos (GDPR). El informe resume las actividades llevadas a cabo por el grupo de trabajo creado para coordinar y supervisar las investigaciones en diferentes estados miembros de la Unión Europea sobre el uso y procesamiento de datos personales en el contexto de ChatGPT.

El documento comienza ofreciendo un contexto sobre la emergencia de los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) y la popularización de ChatGPT desde su lanzamiento en noviembre de 2022. Si bien estos modelos ofrecen beneficios significativos, su desarrollo y aplicación deben cumplir con las disposiciones del GDPR, dado que su entrenamiento involucra el uso de grandes volúmenes de datos personales, muchos de los cuales son obtenidos a través de técnicas como el web scraping.

Uno de los enfoques clave del informe es la legalidad del procesamiento de datos, en particular la recolección de datos mediante técnicas de web scraping. El grupo de trabajo investiga si OpenAI cumple con el Artículo 6(1)(f) del GDPR, que regula el procesamiento basado en intereses legítimos. Se enfatiza que los datos personales obtenidos, incluso aquellos disponibles públicamente, deben ser tratados con garantías técnicas y legales adecuadas, como la eliminación de categorías sensibles de datos. Esto es esencial para proteger los derechos fundamentales de los usuarios cuyos datos son utilizados para entrenar el modelo.

En cuanto a la transparencia y las obligaciones de información, el informe destaca la importancia de que los usuarios de ChatGPT estén claramente informados sobre cómo sus interacciones pueden ser utilizadas para entrenar el modelo. Además, se señala que cuando los datos personales se recogen a través de web scraping, se deben cumplir las disposiciones del Artículo 14 del GDPR, aunque se reconoce que en estos casos puede ser difícil o imposible notificar a cada persona afectada individualmente. Aun así, es fundamental que OpenAI informe a los usuarios de forma clara y accesible sobre el uso de sus datos.

El informe también se refiere al principio de equidad. Según el Artículo 5(1)(a) del GDPR, los datos no deben ser procesados de manera injusta o engañosa. Esto significa que OpenAI no puede transferir la responsabilidad de la protección de datos a los usuarios, por ejemplo, sugiriendo en los términos y condiciones que los usuarios son responsables de no compartir información personal sensible. Dado que es previsible que los usuarios introduzcan datos personales durante las interacciones, OpenAI tiene la obligación de implementar medidas para mitigar los riesgos asociados.

El principio de exactitud de los datos es otro tema importante discutido en el informe. El procesamiento de datos personales por parte de ChatGPT no tiene como objetivo generar información precisa o verificada, lo que significa que el sistema puede producir respuestas incorrectas o sesgadas. Aunque OpenAI ha implementado algunas medidas de transparencia para advertir sobre esta falta de fiabilidad, el EDPB señala que estas medidas no son suficientes para cumplir con el principio de exactitud exigido por el GDPR.

El grupo de trabajo también aborda los derechos de los sujetos de datos, como el derecho de acceso, rectificación, eliminación y objeción, conforme a los Artículos 15 a 22 del GDPR. Se resalta la importancia de que estos derechos puedan ser ejercidos de manera sencilla y accesible por los usuarios de ChatGPT. OpenAI ha implementado mecanismos para permitir que los usuarios eliminen sus datos, pero se observa que las opciones para corregir información errónea siguen siendo limitadas debido a la complejidad técnica del sistema.

Finalmente, el informe concluye que las investigaciones siguen en curso y que las recomendaciones presentadas son preliminares. Sin embargo, subraya la necesidad de que OpenAI, como responsable del tratamiento de los datos, continúe mejorando la implementación de medidas de protección de datos desde el diseño y por defecto, tal como lo requiere el GDPR. El documento también destaca la importancia de coordinar los esfuerzos entre las autoridades nacionales de protección de datos para garantizar un enfoque coherente en la supervisión del cumplimiento de ChatGPT con la normativa europea.

Este informe preliminar marca un paso crucial en la regulación de grandes modelos de IA como ChatGPT, destacando la importancia de la responsabilidad, la transparencia y la protección de los derechos de los usuarios.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MENU