Tu empresa usa IA para seleccionar candidatos

Si tu empresa usa IA para seleccionar candidatos, presta atención.

Si tu empresa usa IA para seleccionar candidatos, presta atención.

Usas IA para seleccionar candidatos, dar crédito o evaluar empleados. Desde agosto de 2026, eso tiene requisitos legales concretos y multas de hasta 15 millones si no cumples.
Usas IA para seleccionar candidatos, dar crédito o evaluar empleados. Desde agosto de 2026, eso tiene requisitos legales concretos y multas de hasta 15 millones si no cumples.
 
  • No es hipotético. Es el escenario que miles de empresas europeas tienen encima sin saberlo.

El 2 de agosto de 2026 entra en plena vigencia el RIA (Reglamento de Inteligencia Artificial) para sistemas de alto riesgo. 

Qué convierte un sistema en «alto riesgo»

Si tu empresa usa IA para filtrar CVs, puntuar candidatos, conceder crédito, evaluar el rendimiento de empleados o tomar decisiones sobre acceso a servicios esenciales, ya estás en la categoría que más obliga.

Tu empresa usa IA para seleccionar candidatos

Los sistemas de alto riesgo abarcan empleo y gestión de trabajadores, servicios esenciales como banca y seguros, educación, infraestructuras críticas y administración de justicia. No hace falta haber desarrollado el modelo. Basta con desplegarlo.

PLAN CIBER

El error que comete casi todo el mundo

Si pensamos que al usar ChatGPT, Copilot o Claude el proveedor cubre tu cumplimiento, nos encontramos ante un error.

OpenAI o Anthropic son el «Provider» bajo el Reglamento, pero tú eres el «Deployer».

La AEPD te responsabilizará a ti de asegurar que no se filtren datos personales a la API, validar que las respuestas no sean discriminatorias, implementar guardrails de seguridad y mantener registros de auditoría. El proveedor no te cubre. Tú eres responsable del uso.

Obligaciones que exige el RIA

  • Documentación técnica del sistema.
  • Evaluación de conformidad antes del despliegue.
  • Supervisión humana real con capacidad de intervención.
  • Logs auditables.
  • Contenido etiquetado 

Hasta 35 millones de euros o el 7% de facturación global por prácticas prohibidas. Hasta 15 millones o el 3% por incumplimiento de obligaciones de alto riesgo. Hasta 7,5 millones o el 1% por facilitar información incorrecta a las autoridades.

sesgos seleccion candidaatos con ia

Referencias:

  • Reglamento (UE) 2024/1689 — artificialintelligenceact.eu/es
  • Comisión Europea — digital-strategy.ec.europa.eu
  • AESIA — aesia.digital.gob.es
  • RegulaAI / AEPD — guía deployer vs provider
Comparte esta noticia si crees que puede ser interesante. Gracias por leernos.

Entradas relacionadas

claude en la geurra como anthropic ses nego al pentagono

Claude (Anthropic) en guerra con el Pentágono

Claude en la guerra: Anthropic se negó a eliminar sus restricciones éticas sobre vigilancia masiva y armas autónomas. El Pentágono la vetó. Claude seguía activo en Irán mientras llegaba la demanda judicial.