View Categories

Artificial Intelligence (AI) Act: Council Gives Final Green Light to the First Worldwide Rules on AI

4 min read

Table of Contents

Author(s): Council of the European Union
Year: 2024
Bibliographic Reference: Council of the European Union. (2024). Artificial Intelligence (AI) Act: Council Gives Final Green Light to the First Worldwide Rules on AI. Brussels: Council of the European Union.

Categoría asignada: Ética y regulación

Resumen: #

El documento Artificial Intelligence (AI) Act: Council Gives Final Green Light to the First Worldwide Rules on AI, publicado por el Consejo de la Unión Europea en mayo de 2024, anuncia la aprobación final del Acta de Inteligencia Artificial (AI Act), el primer conjunto de reglas a nivel global para la regulación de la IA. Este marco legal tiene como objetivo armonizar las reglas sobre el uso de la IA en el mercado único europeo, fomentando el desarrollo de sistemas de IA seguros y confiables que respeten los derechos fundamentales y promuevan la innovación en la UE.

El Acta de IA introduce un enfoque basado en el riesgo, lo que significa que cuanto mayor sea el riesgo que un sistema de IA represente para la sociedad, más estrictas serán las reglas a las que estará sujeto. Esta categorización de riesgo es central para garantizar que las tecnologías de IA no perjudiquen la seguridad pública, los derechos humanos o los valores fundamentales de la Unión Europea.

El reglamento clasifica los sistemas de IA en varias categorías:

  1. Riesgo inaceptable: Los sistemas de IA considerados inaceptables estarán completamente prohibidos debido a su potencial para causar daños significativos a las personas. Entre estos se encuentran la manipulación subliminal de comportamientos, la categorización biométrica basada en características sensibles como la raza o la religión, y el puntaje social, una práctica utilizada para evaluar a las personas según su comportamiento. Asimismo, se prohíbe el uso de la IA en la vigilancia predictiva basada en perfiles.
  2. Alto riesgo: Los sistemas de IA clasificados como de alto riesgo incluyen aquellos que afectan directamente los derechos fundamentales de las personas o su seguridad. Ejemplos de estos son los sistemas que determinan el acceso a servicios esenciales, como la atención médica, los préstamos bancarios o el empleo. Estos sistemas deben cumplir con requisitos estrictos antes de ser autorizados para su uso, como auditorías externas, transparencia en su funcionamiento y supervisión humana continua para minimizar riesgos.
  3. Riesgo específico de transparencia: Los sistemas que no presentan un alto riesgo pero que podrían utilizarse de manera engañosa, como los chatbots o los deepfakes, deben cumplir con requisitos de transparencia. Los usuarios deben ser informados cuando están interactuando con una IA y no con una persona. Esta medida busca prevenir la manipulación y fomentar la confianza en estas tecnologías.
  4. Riesgo mínimo: La mayoría de los sistemas de IA no presenta riesgos significativos, y por lo tanto no están sujetos a restricciones adicionales más allá de la legislación existente. Sin embargo, los desarrolladores pueden optar por adherirse a códigos de conducta voluntarios para promover un uso más ético de la IA.

El Acta de IA también aborda el tema de los modelos de IA de propósito general (GPAI), los cuales pueden ser utilizados en una amplia gama de aplicaciones. Si bien muchos de estos modelos no representan riesgos sistémicos, aquellos que lo hagan estarán sujetos a regulaciones más estrictas. Esto incluye garantizar la transparencia en su uso y la implementación de medidas de seguridad para prevenir su mal uso.

Para asegurar la correcta aplicación de las normas, se establece una nueva estructura de gobernanza. Esto incluye la creación de la Oficina de IA dentro de la Comisión Europea, encargada de supervisar la implementación de las reglas, y la creación de un Panel Científico independiente que proporcionará asesoramiento técnico. Además, un Consejo de IA con representantes de los Estados miembros asistirá en la aplicación coherente del Acta en toda la Unión Europea.

En cuanto a las penalizaciones, el Acta establece multas proporcionales para las empresas que infrinjan las reglas, con sanciones que pueden llegar hasta el 7% del volumen de negocios anual a nivel mundial. Las multas para las pequeñas y medianas empresas (PYMEs) serán ajustadas proporcionalmente.

El Acta de IA también incluye disposiciones para fomentar la innovación, tales como la creación de entornos controlados (regulatory sandboxes) donde las empresas, especialmente las PYMEs, puedan probar nuevas tecnologías de IA bajo supervisión, asegurando el cumplimiento de las normativas.

En resumen, la adopción del Acta de IA representa un hito en la regulación de la inteligencia artificial a nivel mundial, estableciendo estándares claros que equilibran la protección de los derechos fundamentales con la promoción de la innovación tecnológica en Europa.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MENU