El 20 de enero de 2026, OpenAI publicó en su sitio web oficial su enfoque sobre la denominada age prediction en ChatGPT.
Se trata de una nueva funcionalidad que permite al sistema estimar si un usuario es menor o adulto a partir de señales conductuales derivadas del uso del servicio.
Según lo descrito por la propia compañía, esta clasificación se basa en inferencias probabilísticas obtenidas del análisis de patrones de interacción, sin requerir necesariamente una declaración explícita de edad por parte del usuario.
Este cambio introduce un nuevo paradigma en la interacción con sistemas de inteligencia artificial.
la transición desde modelos que responden a datos proporcionados directamente por el usuario hacia sistemas capaces de inferir atributos personales a partir de su comportamiento.
Esta capacidad plantea cuestiones jurídicas relevantes en el contexto del Reglamento (UE) 2024/1689 (Reglamento de IA) y del Reglamento General de Protección de Datos (RGPD), particularmente en relación con la elaboración de perfiles, la exactitud de las inferencias y el uso de mecanismos biométricos de verificación como medida correctiva.
Ahora el sistema te observa, analiza tus horarios, tu antigüedad y tus patrones de chat para, mediante inferencia, etiquetarte como «menor» o «adulto».
En la UE, esta función se implementará más tarde debido a requisitos adicionales, pero el debate ya está aquí.
Esto activaría una cadena de consecuencias legales bajo el RIA y el RGPD que analizo en mi nuevo artículo:
– Si la IA se equivoca (falso positivo), la única salida es un escaneo facial con una tercera empresa (Persona).
– ¿Es adecuado que una inferencia de comportamiento condicione tu acceso a un sistema de IA?
– En caso de error de la IA al decidir «quién eres», la carga de corregirla mediante biometría ¿crees que debería recaer sobre ti?
Proteger a los menores es indiscutible. Pero utilizar ese argumento para normalizar el escaneo biométrico de adultos, podría ser desproporcionado.
Os comparto mi análisis completo.

Abogada especializada en Inteligencia Artificial Generativa, LLMS y ética de la IA. Participa en la elaboración del Código de Buenas Prácticas de la Comisión Europea y la Oficina Europea de IA, que regulará el uso de modelos de IA de propósito general en la UE. Miembro de OdiseIA en el área robots-persona.

