predicción de edad en chatgpt

ChatGPT predice que eres menor si hablas de videojuegos a las 16:00 PM

ChatGPT predice que eres menor si hablas de videojuegos a las 16:00 PM

El 20 de enero de 2026, OpenAI publicó en su sitio web oficial su enfoque sobre la denominada age prediction en ChatGPT.
El 20 de enero de 2026, OpenAI publicó en su sitio web oficial su enfoque sobre la denominada age prediction en ChatGPT.

El 20 de enero de 2026, OpenAI publicó en su sitio web oficial su enfoque sobre la denominada age prediction en ChatGPT.

Se trata de una nueva funcionalidad que permite al sistema estimar si un usuario es menor o adulto a partir de señales conductuales derivadas del uso del servicio.

Según lo descrito por la propia compañía, esta clasificación se basa en inferencias probabilísticas obtenidas del análisis de patrones de interacción, sin requerir necesariamente una declaración explícita de edad por parte del usuario.

Este cambio introduce un nuevo paradigma en la interacción con sistemas de inteligencia artificial.

la transición desde modelos que responden a datos proporcionados directamente por el usuario hacia sistemas capaces de inferir atributos personales a partir de su comportamiento.

Esta capacidad plantea cuestiones jurídicas relevantes en el contexto del Reglamento (UE) 2024/1689 (Reglamento de IA) y del Reglamento General de Protección de Datos (RGPD), particularmente en relación con la elaboración de perfiles, la exactitud de las inferencias y el uso de mecanismos biométricos de verificación como medida correctiva.

Ahora el  sistema te observa, analiza tus horarios, tu antigüedad y tus patrones de chat para, mediante inferencia, etiquetarte como «menor» o «adulto».

En la UE, esta función se implementará más tarde debido a requisitos adicionales, pero el debate ya está aquí.

Esto activaría una cadena de consecuencias legales bajo el RIA y el RGPD que analizo en mi nuevo artículo:

– Si la IA se equivoca (falso positivo), la única salida es un escaneo facial con una tercera empresa (Persona).
– ¿Es adecuado que una inferencia de comportamiento condicione tu acceso a un sistema de IA?
– En caso de error de la IA al decidir «quién eres», la carga de corregirla mediante biometría ¿crees que debería recaer sobre ti?

Proteger a los menores es indiscutible. Pero utilizar ese argumento para normalizar el escaneo biométrico de adultos, podría ser desproporcionado.

Os comparto mi análisis completo.

Tu navegador no puede mostrar el PDF. Haz clic aquí para descargarlo.

Comparte esta noticia si crees que puede ser interesante. Gracias por leernos.

Entradas relacionadas