Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
cferreyros@ferreyros-ferreyros.com
RESUMEN
La Ley de Inteligencia Artificial (“Ley de IA”) de la UE está vigente desde el 1 de agosto de 2024 pero el próximo 2 de agosto de 2026 se registrará la entrada principal más importante de la misma, cuando se aplique de forma general a la mayoría de los sistemas y entren en juego las obligaciones restantes, especialmente para los sistemas de alto riesgo para las empresas y transparencia.
Desde el mes de agosto de 2026, se establecen obligaciones aplicables los sistemas de alto riesgo basado en un principio reforzado de responsabilidad que recae en proveedores, importadores, distribuidores y operadores de sistemas quienes deben cumplir requisitos estrictos de gestión de riesgos, gobernanza de datos, documentación técnica, trazabilidad, supervisión humana, precisión, robustez y ciberseguridad en productos o servicios ofrecidos en la UE, incluso si la tecnología fue desarrollada fuera de Europa. En la práctica, las obligaciones más significativas recaerán sobre quienes implantan estos sistemas en el mercado o lo operan en contextos sensibles como empleo, educación, crédito, salud, seguridad o justicia.
Además, para ciertos usos de riesgo limitado, entran en juego las obligaciones de transparencia: expresados como garantía de información, cuando el usuario interactúa con un chatbot o en la identificación de contenidos generados por ellos cuando proceda.
Las obligaciones prácticas mínimas para 2026 serán:
- Identificar si el sistema usado es de riesgo prohibido, alto, limitado o mínimo.
- Preparar la documentación técnica y evidencia de cumplimiento antes de su despliegue.
- Implantar controles de supervisión humana y criterios de intervención o de apagado.
- Revisar datos, trazabilidad y calidad del modelo para reducir sesgos y errores.
- Asegurar ciberseguridad y monitoreo continuo del sistema.
- Cumplir las obligaciones de transparencia cuando el sistema interactúe con personas o en la identificación de contenidos generados por chatbot.
A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com
________________________________________________________
El 2026 marca la entrada en vigor de la tercera parte de la Ley de IA , la más estructurante para las empresas.
La normativa prevé una implementación gradual de sus disposiciones. Desde febrero de 2025, se aplican las normas que prohíben los sistemas de IA que presenten un riesgo inaceptable.
El 2 de agosto de 2025 entraron en vigor las obligaciones relativas a los modelos de IA de propósito general.
A partir del 2 de agosto de 2026, entrarán en vigor todas las demás obligaciones contempladas en la Ley de IA. Esta fecha límite incluye la mayoría de los requisitos organizativos, técnicos y de documentación impuestos a las partes interesadas, con la excepción de aquellos aplicables a los productos que incorporan sistemas de IA de alto riesgo, cuya entrada en vigor se pospone al 2 de agosto de 2027.
Obligaciones aplicables a los sistemas de IA de alto riesgo
La Ley de IA establece un conjunto de obligaciones basadas en un principio reforzado de responsabilidad, que recae sobre los proveedores, importadores, distribuidores y operadores de sistemas de IA de alto riesgo.
Estos sistemas son aquellos que, debido a su finalidad y ámbito de aplicación, pueden tener un impacto significativo en los derechos fundamentales, la seguridad o la salud de las personas, especialmente en los ámbitos de la biometría, la educación, la formación profesional, el empleo y los recursos humanos, la justicia o la aplicación de la ley.
Por ello, están sujetos a requisitos regulatorios más estrictos que implican, de manera muy concreta, una estructuración de la gobernanza de los proyectos de IA, y en particular:
- la implementación de un sistema de gestión de riesgos que abarque todo el ciclo de vida del sistema de IA, así como un sistema de gestión de calidad destinado a garantizar el cumplimiento normativo;
- el uso de conjuntos de datos de capacitación, validación y prueba de alta calidad, relevantes, representativos y apropiados para el propósito, junto con prácticas de gobernanza estrictas diseñadas para prevenir y corregir sesgos y violaciones de los derechos fundamentales;
- el desarrollo de un manual de usuario que describa el funcionamiento del sistema de IA de forma suficientemente transparente, para que los implementadores puedan comprender las limitaciones, las condiciones de uso y los resultados producidos;
- la implementación de mecanismos de control humano eficaces durante la fase de uso del sistema, en particular mediante el uso de interfaces hombre-máquina adecuadas;
- la integración de funcionalidades de registro que garanticen un nivel de trazabilidad proporcional al destino del sistema de IA, a lo largo de su ciclo de vida;
- el establecimiento de una declaración de conformidad de la UE y la colocación del marcado CE;
- notificar los incidentes graves a las autoridades de vigilancia del mercado de los Estados miembros afectados;
- el establecimiento de una documentación técnica completa que permita el cumplimiento de la normativa.
Obligaciones de transparencia
Las obligaciones de transparencia establecidas en la Ley de IA también entrarán en vigor el 2 de agosto de 2026. Su objetivo es garantizar que los usuarios estén informados cuando se exponen a sistemas de IA o a contenido generado por ellos.
En este sentido:
- Los proveedores de sistemas de IA diseñados para interactuar directamente con las personas, como los chatbots o los asistentes de voz, deben asegurarse de que los usuarios estén claramente informados de que están interactuando con un sistema de IA;
- El contenido generado o modificado por IA (texto, imagen, audio o vídeo) debe identificarse como tal, en particular mediante marcas legibles por máquina, salvo cuando la IA se limite a una asistencia técnica menor o no altere sustancialmente los datos de entrada;
- Quienes implementen sistemas de reconocimiento de emociones o de categorización biométrica deben informar a las personas que están sujetas a este tipo de análisis y que ciertos usos están expresamente prohibidos, en particular en contextos laborales y educativos;
- Los deepfakes o “manipulaciones hiperrealistas” deben ser denunciados específicamente, con procedimientos adaptados cuando el propósito sea artístico o satírico;
- Cuando se publican textos generados o manipulados por IA para informar al público sobre asuntos de interés público, debe mencionarse el uso de IA, a menos que una persona identificada asuma el control editorial efectivo.
