Author(s): European Commission
Year: 2024
Bibliographic Reference: European Commission. (2024). Artificial Intelligence — Questions and Answers. Brussels: European Commission.
Categoría asignada: Ética y regulación
Resumen: #
El documento Artificial Intelligence — Questions and Answers de la Comisión Europea, publicado en agosto de 2024, proporciona un resumen del marco regulador de la inteligencia artificial (IA) en la Unión Europea, conocido como la Ley de IA. Este reglamento es el primero de su tipo en el mundo, y su objetivo es mitigar los riesgos relacionados con la salud, la seguridad y los derechos fundamentales asociados al uso de la IA, al mismo tiempo que impulsa la innovación y la competitividad en la UE.
El reglamento de IA se basa en un enfoque de clasificación por riesgos, lo que permite identificar y gestionar los diferentes niveles de peligro que plantea cada tipo de sistema de IA. Este enfoque abarca desde usos de alto riesgo hasta aquellos con un riesgo mínimo. El objetivo principal es garantizar que los beneficios de la IA se maximicen y que los riesgos se gestionen adecuadamente, preservando los valores europeos de derechos humanos, democracia y estado de derecho.
El documento define cuatro categorías de riesgo:
- Riesgo inaceptable: Esta categoría se refiere a aplicaciones de IA que están prohibidas porque infringen los valores fundamentales de la UE. Entre estas se incluyen prácticas como la manipulación subliminal de personas, el uso de IA para puntuar socialmente a los ciudadanos, y la categorización biométrica para inferir información sensible como la raza o las creencias políticas. Estas actividades están completamente prohibidas bajo el reglamento.
- Alto riesgo: Los sistemas de IA clasificados como de alto riesgo son aquellos que podrían tener un impacto adverso en la seguridad de las personas o en sus derechos fundamentales. Ejemplos incluyen sistemas de IA utilizados para evaluar la idoneidad de un tratamiento médico, para gestionar el acceso a servicios esenciales como créditos bancarios, o para monitorear el comportamiento de los trabajadores. Estos sistemas están sujetos a estrictos requisitos de conformidad, que incluyen la necesidad de auditorías externas, una gestión exhaustiva de la calidad de los datos y la supervisión humana en su operación.
- Riesgo específico de transparencia: Esta categoría incluye sistemas de IA que, aunque no representen un alto riesgo, tienen un potencial de manipulación o uso indebido. Los sistemas que generan contenido artificial como deepfakes o que utilizan chatbots deben informar claramente a los usuarios que están interactuando con una máquina y no con una persona real. La transparencia es fundamental para fomentar la confianza en estas tecnologías.
- Riesgo mínimo: La mayoría de los sistemas de IA caen en esta categoría, en la cual no se aplican requisitos adicionales más allá de la legislación vigente. Sin embargo, los proveedores de estos sistemas pueden optar voluntariamente por adherirse a códigos de conducta para garantizar un uso responsable de la IA.
El reglamento también introduce requisitos de transparencia y responsabilidad para los proveedores y desplegadores de IA. Los sistemas clasificados como de alto riesgo deberán pasar por una evaluación de conformidad antes de ser puestos en el mercado, garantizando que cumplen con los criterios de confianza y seguridad. Además, deberán estar registrados en una base de datos pública si son utilizados por autoridades públicas. Esto asegura un monitoreo continuo y facilita auditorías por parte de las autoridades de vigilancia del mercado.
La protección de los derechos fundamentales es una prioridad en la Ley de IA. Los sistemas de alto riesgo que podrían afectar derechos como la privacidad o la no discriminación deben someterse a evaluaciones de impacto sobre derechos fundamentales. Estas evaluaciones se llevan a cabo en áreas sensibles como la seguridad biométrica, la justicia y los sistemas de salud. De manera similar, se han impuesto salvaguardas para prevenir el sesgo racial y de género en los sistemas de IA, con medidas que aseguran que los datos utilizados para entrenar estos sistemas sean representativos y que las decisiones tomadas por la IA sean auditables y transparentes.
En conclusión, la Ley de IA de la UE establece un marco regulador robusto y flexible que busca equilibrar la promoción de la innovación con la protección de los derechos fundamentales y la seguridad pública. A través de una combinación de evaluaciones de riesgo, transparencia y auditoría, este reglamento tiene como objetivo crear un entorno seguro y confiable para el desarrollo y uso de la inteligencia artificial en la Unión Europea.