VISION, ESTRATEGIAS, NORMAS Y GRUPOS DE TRABAJO SOBRE IA EN LA UNION EUROPEA.

Facebook
Twitter
Reddit
LinkedIn
Telegram
WhatsApp

VISION, ESTRATEGIAS, NORMAS Y GRUPOS DE TRABAJO SOBRE IA EN LA UNION EUROPEA.

Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@hotmail.com

RESUMEN                                                                                                

El Reglamento Europeo de Inteligencia Artificial, IA (Reglamento UE 2024/1689) de la Unión Europea, aprobado en marzo de 2024, es la primera normativa integral sobre IA en el mundo, destinada a regular el desarrollo, comercialización y uso de sistemas de inteligencia artificial en el territorio de la UE.

Su objetivo principal es garantizar que los sistemas de IA sean seguros, transparentes, trazables, no discriminatorios y respetuosos de los derechos fundamentales y valores europeos: dignidad humana, igualdad, democracia, promoviendo a su vez la confianza en los usuarios y proveedores y facilitando la innovación tecnológica de manera responsable, y mejorando la gobernanza y cumplimiento efectivo de la regulación en todos los Estados miembros.

El Reglamento establece obligaciones según el nivel de riesgo de los sistemas de IA que implican: Riesgos prohibidos o inaceptables, altos, limitados y mínimos.

Los riesgos prohibidos o inaceptables son aquellos referidos a manipulación cognitiva-conductual, generadores de puntuación social, identificación biométrica y categorización de personas.

Los riesgos altos corresponden a los sistemas de IA que afectan negativamente la seguridad o a los derechos fundamentales, divididos en doble categoría: aquellos utilizados en productos sujetos a la legislación de seguridad de productos de la UE, y los sistemas pertenecientes a áreas  específicas como gestión y operación de infraestructuras críticas, educación y formación profesional, empleo, servicios públicos y privados esenciales,…

Los riesgos limitados se dirigen a obligaciones de transparencia moderadas, como informar al usuario cuando interactúa con IA.

Por último, los riesgos mínimos, apuntan a aquellas aplicaciones con riesgos bajos no regulados directamente (ej. filtros anti-spam, videojuegos con IA).

Finalmente, el Reglamento tiene un alcance extraterritorial que afecta a proveedores y usuarios de IA fuera de la UE cuando sus sistemas se utilizan dentro de la Unión.

Este documento resume el Reglamento Europeo de Inteligencia Artificial e incluye algunos enlaces a visión ,estrategias, normas y  grupos de trabajo sobre el tema. El enlace al contenido original se encuentra en: https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas positivas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@hotmail.com

___________________________________________________

Esta ilustración de inteligencia artificial en realidad ha sido generada por IA

Ley de IA de la UE: primer reglamento sobre Inteligencia Artificial

El uso de la inteligencia artificial en la UE está regulado por la Ley de IA, la primera ley integral sobre IA del mundo. Descubra cómo le protege.

Tabla de contenido

Como parte de su estrategia digital , la UE quería regular la inteligencia artificial (IA) para garantizar mejores condiciones para el desarrollo y el uso de esta tecnología innovadora. La IA puede generar numerosos beneficios , como una mejor atención sanitaria, un transporte más seguro y limpio, una fabricación más eficiente y una energía más económica y sostenible.

Regulación de la IA en Europa: el primer marco integral

En abril de 2021, la Comisión Europea propuso la primera ley de inteligencia artificial de la UE, estableciendo un sistema de clasificación de la IA basado en riesgos. Los sistemas de IA que pueden utilizarse en diferentes aplicaciones se analizan y clasifican según el riesgo que representan para los usuarios. Los diferentes niveles de riesgo implican requisitos de cumplimiento más o menos estrictos para la IA.

Lo que el Parlamento quería en la legislación sobre IA

La prioridad del Parlamento era garantizar que los sistemas de IA utilizados en la UE fueran seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deberían estar supervisados ​​por personas, y no por la automatización, para evitar consecuencias perjudiciales.

El Parlamento también quería establecer una definición uniforme y tecnológicamente neutral para la IA que pudiera aplicarse a futuros sistemas de IA.

Ley de IA: diferentes reglas para diferentes niveles de riesgo

Las nuevas normas establecen obligaciones para proveedores y usuarios en función del nivel de riesgo de la calificación de riesgo de la IA. Si bien muchos sistemas de IA presentan un riesgo mínimo, es necesario evaluarlos.

Riesgo inaceptable

Las aplicaciones de IA prohibidas en la UE incluyen:

  • Manipulación cognitivo-conductual de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños.
  • IA de puntuación social: clasificación de personas según su comportamiento, estatus socioeconómico o características personales
  • Identificación biométrica y categorización de personas
  • Sistemas de identificación biométrica en tiempo real y remota, como el reconocimiento facial en espacios públicos

Se podrán permitir algunas excepciones para fines policiales. Los sistemas de identificación biométrica remota en tiempo real se permitirán en un número limitado de casos graves, mientras que los sistemas de identificación biométrica remota posterior, en los que la identificación se produce tras un retraso considerable, se permitirán para el enjuiciamiento de delitos graves y solo tras la aprobación judicial.

Alto riesgo

Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías:

1) Sistemas de IA utilizados en productos sujetos a la legislación de seguridad de productos de la UE . Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.

2) Sistemas de IA pertenecientes a áreas específicas que deberán registrarse en una base de datos de la UE:

  • Gestión y operación de infraestructuras críticas
  • Educación y formación profesional
  • Empleo, gestión de los trabajadores y acceso al autoempleo
  • Acceso y disfrute de servicios privados esenciales y servicios y beneficios públicos
  • Aplicación de la ley
  • Gestión de la migración, el asilo y el control de fronteras
  • Asistencia en la interpretación jurídica y aplicación de la ley.

Todos los sistemas de IA de alto riesgo se evaluarán antes de su comercialización y durante todo su ciclo de vida. Las personas tendrán derecho a presentar quejas sobre los sistemas de IA ante las autoridades nacionales designadas.

 

Requisitos de transparencia

La IA generativa, como ChatGPT, no se clasificará como de alto riesgo, pero deberá cumplir con los requisitos de transparencia y la legislación sobre derechos de autor de la UE:

  • Revelar que el contenido fue generado por IA
  • Diseño del modelo para evitar que genere contenido ilegal
  • Publicación de resúmenes de datos protegidos por derechos de autor utilizados para la capacitación

 

Los modelos de IA de propósito general de alto impacto que podrían suponer un riesgo sistémico, como el modelo de IA más avanzado GPT-4, tendrían que ser sometidos a evaluaciones exhaustivas y cualquier incidente grave tendría que ser notificado a la Comisión Europea.

El contenido que se genera o modifica con la ayuda de IA (imágenes, archivos de audio o video, por ejemplo, deepfakes) debe estar claramente etiquetado como generado por IA para que los usuarios sepan cuándo se encuentran con dicho contenido.

Fomentar la innovación en IA y las empresas emergentes en Europa

La ley tiene como objetivo apoyar la innovación y las empresas emergentes en IA en Europa, permitiendo a las empresas desarrollar y probar modelos de IA de propósito general antes de su lanzamiento público.

Por ello, exige que las autoridades nacionales proporcionen a las empresas un entorno de pruebas de IA que simule condiciones similares a las del mundo real. Esto ayudará a las pequeñas y medianas empresas (pymes) a competir en el creciente mercado de la inteligencia artificial de la UE.

Implementación

El Parlamento ha creado un grupo de trabajo para supervisar la implementación y aplicación de la Ley de IA. Los eurodiputados quieren asegurarse de que las normas de IA adoptadas contribuyan al desarrollo del sector digital en Europa.

El grupo coopera con la oficina de IA de la UE de la Comisión Europea , que se creó para aclarar disposiciones clave de la ley.

Cronograma de cumplimiento de la Ley de IA de la UE

En junio de 2024, la UE adoptó las primeras normas mundiales sobre IA. La Ley de Inteligencia Artificial será plenamente aplicable 24 meses después de su entrada en vigor, pero algunas partes lo serán antes:

  • La prohibición de los sistemas de IA que plantean riesgos inaceptables comenzó a aplicarse el 2 de febrero de 2025
  • Los códigos de prácticas se aplicarán nueve meses después de su entrada en vigor
  • Las normas sobre los sistemas de IA de propósito general que deben cumplir con los requisitos de transparencia se aplicarán 12 meses después de la entrada en vigor

Los sistemas de alto riesgo tendrán más tiempo para cumplir con los requisitos, ya que las obligaciones que les conciernen serán aplicables 36 meses después de su entrada en vigor.

Instrucciones

El Estudio Jurídico FERREYROS&FERREYROS es una firma especializada en aspectos legales y regulatorios relacionados con las Nanotecnologías, materia transversal, relacionada con la integración y convergencia de tecnologías (Nanotecnologías, Biotecnologías, Tecnologías de la Información y ciencias Cognitivas) (NBIC).

El Estudio realiza asesorías, consultorías, auditorías, formaciones, investigaciones y defensas en favor de agentes públicos y empresas privadas en Contenidos y Servicios vinculados con las NBIC, en todas las fases y etapas del negocio jurídico.

Desde la concepción, elaboración de proyectos, estudio de impacto, gestión, declaraciones y obtención de las autorizaciones y licencias, incluyendo negociación y ejecución de contratos y resolución de conflictos

Facebook
Twitter
Reddit
LinkedIn
Telegram
WhatsApp

Carlos Ferreyros

Doctor en Derecho. Magister en Informática Jurídica y Derecho Informático

Leave a Reply

Your email address will not be published. Required fields are marked *

Te puede interesar