AI Acta de la UE
AI Acta de la UE

Cronología de la Ley de Inteligencia Artificial de la UE (y una mirada al futuro)

Emily Bogin |

La Ley de IA de la UE marca un nuevo hito en el panorama de la gobernanza de la IA, y las empresas están tomando nota.

El pasado mes de marzo, la UE aprobó una nueva normativa sobre IA en la Ley de IA de la UE que lleva años gestándose. Empecemos con un breve repaso a la cronología:

Mientras que algunas partes ya se aplican, otros aspectos tienen una cola más larga antes de que las empresas deban cumplir la normativa. Entremos en materia.

Tendencias y retos jurídicos a los que se enfrentan actualmente los directores generales (y sus equipos jurídicos)

¿Cómo funciona la Ley de Inteligencia Artificial de la UE?

La Ley de IA de la UE adopta un enfoque basado en el riesgo para el uso de la inteligencia artificial. Esto significa que las normas que rigen la IA se centran más en cómo utiliza una empresa su tecnología, y con qué fin, que en limitar la tecnología en sí. Sin embargo, algunos riesgos se consideran "inaceptables" y este tipo de tecnologías estarán prohibidas. La Ley prohíbe los sistemas de IA que vigilan a las personas en función de características sensibles, como las opiniones políticas y la orientación sexual, aunque no se prohíbe del todo a las fuerzas de seguridad el uso de información biométrica sensible.

Las tecnologías de IA "de alto riesgo" estarán sujetas a un mayor escrutinio en forma de "sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de la actividad, documentación detallada, información clara al usuario, supervisión humana" y más. Estos riesgos se aplican a las tecnologías de IA que suponen una amenaza para la salud, la seguridad o los derechos fundamentales de las personas, como las herramientas de escaneado de currículos, las herramientas de evaluación de préstamos y los sistemas de identificación biométrica a distancia. Los sistemas de IA de riesgo limitado deben cumplir determinadas obligaciones de transparencia: son los llamados "riesgosespecíficos de transparencia". Los riesgos específicos de transparencia se gestionan mediante un etiquetado adecuado. En otras palabras, cuando se habla con un bot de IA, las empresas son responsables de identificar al bot como tal. La UE ha declarado que la mayoría de las tecnologías de IA no plantean ningún riesgo o un riesgo mínimo, y estas tecnologías de IA no estarán sujetas a obligaciones adicionales.

¿Cómo se aplica la Ley de Inteligencia Artificial de la UE?

La Ley de AI de la UE se aplicará tanto a nivel de los Estados miembros como a través de la Oficina Europea de AI. La Ley no es plenamente aplicable de forma inmediata, sino que se administrará por fases. Por ejemplo, las obligaciones de alto riesgo serán plenamente aplicables 36 meses después de la entrada en vigor de la Ley.

Al igual que el incumplimiento del GDPR, las infracciones de la Ley de IA de la UE conllevan fuertes sanciones y multas. Estas multas oscilan entre 7,5 millones de euros, o el 1,5% de la facturación global, y 35 millones de euros, o el 7% de la facturación. Más allá de las multas reglamentarias, las empresas que incumplan la Ley de la UE pueden enfrentarse a indemnizaciones civiles y daños a su reputación. Los ciudadanos tienen derecho a presentar quejas sobre los sistemas deIA y "recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos". Estas quejas dependerán de los conocimientos sobre IA y de la pericia de los ciudadanos perjudicados por estas tecnologías.

¿Cómo se preparan las empresas para la Ley de Inteligencia Artificial de la UE?

Antes de empezar a implantar la gobernanza, primero hay que entender qué es lo que se está gobernando. Las empresas estratégicas que desean cumplir la Ley de IA de la UE dan prioridad a la creación de un inventario de riesgos exhaustivo, una ubicación central en la que todas las tecnologías habilitadas para la IA puedan supervisarse y evaluarse de forma rutinaria para detectar riesgos.

Hágase las siguientes preguntas:

Ley de AI de la UE
  1. Identificación de riesgos - ¿Ha catalogado todos sus sistemas de IA en uso o en desarrollo dentro de su organización y documentado sus propósitos y riesgos potenciales?
  2. Evaluación de riesgos - ¿Sabe si sus tecnologías de IA cumplen los requisitos de la UE sobre riesgo inaceptable, alto, limitado o mínimo?
  3. Validación de IA - ¿Dispone de un sistema para formalizar la
    validación de una aplicación de IA para utilizarla en su empresa?
  4. Revisión de la IA: ¿conocen todas las partes interesadas los casos de uso, los límites de seguridad y los principales riesgos asociados a la adopción de estas aplicaciones de IA?
  5. Mitigación del riesgo de IA - ¿Ha formalizado un sistema para establecer los controles adecuados, en algunos casos aumentando la documentación, en otros aumentando la supervisión humana?
  6. Supervisión continua - ¿Puede mantener su dedicación a la supervisión de los cambios en la normativa sobre IA, así como de los sistemas internos de IA, para garantizar que su empresa sigue cumpliendo la Ley de IA de la UE?

Saber más sobre los requisitos de la Ley y cómo aplicar medidas de cumplimiento sólidas no sólo le ayudará a evitar sanciones, sino también a mejorar la confianza y fiabilidad de sus sistemas de IA.

¿Nuestra prioridad? En su éxito.

Programe una demostración u obtenga más información sobre los productos, servicios y compromiso de Mitratech.