La LSSI-CE (Ley de Servicios de la Sociedad de la Información y Comercio Electrónico) es la legislación que establece las regulaciones legales para el comercio electrónico y otros servicios relacionados...
Contenidos
El Reglamento de Inteligencia Artificial de la Unión Europea, conocido como AI Act, establece un marco legal para el desarrollo, comercialización y uso de sistemas de inteligencia artificial en el mercado europeo. Su contenido define obligaciones específicas para diferentes actores según el nivel de riesgo que presenten los sistemas de IA utilizados.
La AI Act es una norma propuesta por la Comisión Europea de Protección de Datos (CEPD), en el contexto de su estrategia digital, con el fin de regular el uso de la inteligencia artificial en los Estados miembros de la Unión Europea. Su desarrollo se enmarca en la intención de establecer un enfoque común que garantice el uso seguro y conforme a los valores y derechos fundamentales reconocidos por la UE.
El texto fue aprobado por el Parlamento Europeo en marzo de 2024 y posteriormente validado por el Consejo de la Unión Europea en mayo de 2024.
La normativa entra en vigor 20 días después de su publicación en el Diario Oficial de la Unión Europea, prevista durante el primer semestre de 2025. Su aplicación será gradual:
Dado que se trata de un reglamento europeo, no requiere transposición al derecho nacional. Sin embargo, los Estados miembros deberán designar autoridades competentes y adoptar medidas de implementación en sus jurisdicciones.
La Ley de Inteligencia Artificial se aplica a:
La AI Act persigue los siguientes fines:
Resumen AI Act |
---|
Qué es y quién lo impulsa: Norma propuesta por la Comisión Europea para regular la IA en la UE, basada en valores y derechos fundamentales. |
Calendario de aplicación: Aprobado en 2024. Entra en vigor 20 días tras su publicación (prevista en 2025). Aplicación: a los 6, 12 y 24 meses según el tipo de sistema. |
A quién afecta: Proveedores, desarrolladores, distribuidores, importadores y usuarios de IA. Excluye usos militares o de seguridad nacional. |
Objetivos del reglamento: Establecer normas comunes, garantizar derechos, fomentar transparencia y promover la innovación en IA en toda la UE. |
El Reglamento de Inteligencia Artificial se basa en una clasificación por niveles de riesgo, que determina el tipo de obligaciones aplicables:
Sistemas prohibidos por contravenir derechos fundamentales. Ejemplos:
Sistemas sujetos a requisitos estrictos, como evaluación de conformidad, documentación técnica, gobernanza de datos y supervisión humana. Incluye aplicaciones en:
Se exige transparencia al usuario. Ejemplo: sistemas que interactúan con humanos (chatbots), generación de contenido sintético, o reconocimiento de emociones.
La mayoría de sistemas actuales de IA entran en esta categoría. No están sujetos a obligaciones específicas, pero pueden adherirse voluntariamente a códigos de buenas prácticas.
Tipo de riesgo | Descripción |
---|---|
Riesgo inaceptable | Sistemas prohibidos por vulnerar derechos. Ejemplos: manipulación subliminal, puntuación social, clasificación biométrica sensible. |
Alto riesgo | Requisitos estrictos. Aplica a IA en empleo, educación, justicia, infraestructuras y servicios críticos. |
Riesgo limitado | Requiere transparencia. Ejemplos: chatbots, IA generativa, reconocimiento emocional. |
Riesgo mínimo | Sin obligaciones específicas. Uso libre con opción de buenas prácticas voluntarias. |
El Reglamento de Inteligencia Artificial (AI Act) menciona el papel del Delegado de Protección de Datos de forma puntual, en relación con los sistemas de IA considerados de alto riesgo.
Aunque el AI Act no introduce nuevas funciones específicas para el DPO en términos generales, sí reconoce su papel dentro de las organizaciones sujetas al Reglamento General de Protección de Datos (RGPD), cuando se trata del uso de IA de alto riesgo que implique tratamiento de datos personales.
Cuando una organización esté obligada a designar un DPO en virtud del RGPD, este podrá ser también responsable de aspectos relacionados con el cumplimiento del AI Act, en la medida en que el uso del sistema de IA implique tratamiento de datos personales.
En contextos donde la evaluación de impacto del sistema de IA incluya tratamiento de datos personales, el DPO debe participar de forma adecuada en dicho proceso, como lo exige el artículo 39 del RGPD.
Se reconoce que los DPO pueden desempeñar un papel de supervisión y asesoramiento sobre el cumplimiento de las obligaciones relativas a la protección de datos en los sistemas de IA, especialmente en lo relativo a:
El AI Act también prevé que las empresas (especialmente las que desarrollen o implementen sistemas de alto riesgo) designen o asignen funciones específicas para asegurar el cumplimiento del reglamento. Esta figura no tiene por qué ser el DPO, pero en algunas organizaciones podría coincidir con él o colaborar estrechamente.
Aspecto | Resumen |
---|---|
Compatibilidad con el RGPD | El DPO bajo el RGPD puede asumir funciones relacionadas con IA si hay tratamiento de datos personales. |
Evaluación de impacto | El DPO debe participar cuando el uso de IA implique una DPIA relacionada con datos personales. |
Funciones del DPO | Asesorar y supervisar en DPIAs, evitar sesgos y garantizar principios de protección de datos. |
Oficial de cumplimiento de IA | Figura distinta al DPO, aunque puede coincidir o colaborar con él en empresas con sistemas de alto riesgo. |
El AI Act fue aprobado en 2024 y entrará en vigor gradualmente. Las normas más estrictas para sistemas de alto riesgo se aplicarán a partir de 2026, aunque algunas obligaciones, como las prohibiciones absolutas, serán exigibles antes.
La ley clasifica los sistemas en función del nivel de riesgo: inaceptable, alto, limitado y mínimo. Cada categoría tiene exigencias diferentes. Por ejemplo, los sistemas de alto riesgo deben cumplir controles estrictos de calidad y supervisión.
Estas empresas deben:
Las multas pueden alcanzar los 35 millones de euros o el 7% del volumen de negocios mundial. El importe depende del tipo de infracción, siendo las más graves aquellas relacionadas con sistemas prohibidos o sin garantías de seguridad.
La LSSI-CE (Ley de Servicios de la Sociedad de la Información y Comercio Electrónico) es la legislación que establece las regulaciones legales para el comercio electrónico y otros servicios relacionados...
El Reglamento de Inteligencia Artificial de la Unión Europea, conocido como AI Act, establece un marco legal para el desarrollo, comercialización y uso de sistemas de inteligencia artificial en el...
El Reglamento DORA (UE 2022/2554) unifica la normativa en la Unión Europea para fortalecer la resiliencia del sector financiero frente a riesgos tecnológicos y cibernéticos, asegurando la continuidad operativa y...
Contenido esencial
© delegadoprotecciondatos.com. 2025. Todos los derechos reservados.
Con la finalidad de garantizar una experiencia de usuario de alta calidad, recurrimos al uso de tecnologías como las cookies, las cuales permiten almacenar y/o acceder a información en el dispositivo del usuario. La autorización para el uso de dichas tecnologías posibilita el tratamiento de datos como los patrones de navegación o los identificadores únicos de este sitio web. La negativa o revocación del consentimiento podría incidir negativamente en el funcionamiento de determinadas características y servicios ofrecidos.