- No es hipotético. Es el escenario que miles de empresas europeas tienen encima sin saberlo.
El 2 de agosto de 2026 entra en plena vigencia el RIA (Reglamento de Inteligencia Artificial) para sistemas de alto riesgo.
Qué convierte un sistema en «alto riesgo»
Si tu empresa usa IA para filtrar CVs, puntuar candidatos, conceder crédito, evaluar el rendimiento de empleados o tomar decisiones sobre acceso a servicios esenciales, ya estás en la categoría que más obliga.
Los sistemas de alto riesgo abarcan empleo y gestión de trabajadores, servicios esenciales como banca y seguros, educación, infraestructuras críticas y administración de justicia. No hace falta haber desarrollado el modelo. Basta con desplegarlo.
El error que comete casi todo el mundo
Si pensamos que al usar ChatGPT, Copilot o Claude el proveedor cubre tu cumplimiento, nos encontramos ante un error.
OpenAI o Anthropic son el «Provider» bajo el Reglamento, pero tú eres el «Deployer».
La AEPD te responsabilizará a ti de asegurar que no se filtren datos personales a la API, validar que las respuestas no sean discriminatorias, implementar guardrails de seguridad y mantener registros de auditoría. El proveedor no te cubre. Tú eres responsable del uso.
Obligaciones que exige el RIA
- Documentación técnica del sistema.
- Evaluación de conformidad antes del despliegue.
- Supervisión humana real con capacidad de intervención.
- Logs auditables.
- Contenido etiquetado
Hasta 35 millones de euros o el 7% de facturación global por prácticas prohibidas. Hasta 15 millones o el 3% por incumplimiento de obligaciones de alto riesgo. Hasta 7,5 millones o el 1% por facilitar información incorrecta a las autoridades.
Referencias:
- Reglamento (UE) 2024/1689 — artificialintelligenceact.eu/es
- Comisión Europea — digital-strategy.ec.europa.eu
- AESIA — aesia.digital.gob.es
- RegulaAI / AEPD — guía deployer vs provider

Abogada especializada en Inteligencia Artificial Generativa, LLMS y ética de la IA. Participa en la elaboración del Código de Buenas Prácticas de la Comisión Europea y la Oficina Europea de IA, que regulará el uso de modelos de IA de propósito general en la UE. Miembro de OdiseIA en el área robots-persona.



