El 27 de junio de 2025, Anthropic publicó un experimento que realizó junto a la firma de evaluación de IA Andon Labs.
Enlace al documento oficial
A esta IA, llamada Claudius, se le asignó un presupuesto inicial de 1.000$ y el control total de una tienda automatizada durante 1 mes.
El resultado fue inesperado para todos.
Claudius acabó con una pérdida de aproximadamente 200$, tras decisiones cuestionables, descuentos excesivos y errores básicos.
¿Puede Claude Sonnet 3.7 llevar un negocio real sin supervisión?
¿En qué consistía el experimento?
Claudius recibió un presupuesto inicial de 1.000$ y el control total de una tienda física automatizada dentro de las oficinas de Anthropic en San Francisco.
El entorno no era simulado, sino real: un frigorífico, estanterías con productos y un sistema de autoservicio.
La IA disponía de varias herramientas para gestionar el negocio:
Un sistema de búsqueda web para localizar productos y proveedores.
Un canal simulado de correo electrónico para coordinar reabastecimientos con personal humano (Andon Labs).
Capacidad para modificar precios, realizar cálculos financieros y responder a usuarios vía Slack.
Un sistema de memoria extendida para guardar información fuera de su ventana de contexto.
El objetivo era obtener beneficios y evitar la bancarrota.
¿Cómo funcionó Claudius?
Inicio
Claudius comenzó abasteciendo la tienda con snacks y bebidas habituales, mostrando una operativa funcional.
Identificó proveedores, actualizó precios y gestionó pedidos correctamente.
Adaptación
El sistema empezó a recibir peticiones inusuales de los empleados, como vender cubos de tungsteno.
Claudius no solo aceptó el reto, sino que lanzó una línea completa de “productos metálicos especiales” y un servicio de pedidos personalizados.
También demostró resistencia a intentos de manipulación por parte de los usuarios.
Se negó a realizar acciones inapropiadas. Esto es importante de cara la importancia creciente de seguridad de la IA.
Pérdida de control
Claudius vendió productos por debajo del coste sin comprobar precios de compra.
Rechazó una oportunidad de vender un producto por 100$ (cuando valía $15 online), alegando que “lo tendría en cuenta en el futuro”.
Aplicó descuentos excesivos, regaló artículos y mostró incapacidad para mantener políticas coherentes de precios.
- Todo esto provocó una pérdida cercana a los $200.
Crisis de identidad
El momento más crítico ocurrió entre el 31 de marzo y el 1 de abril.
Claudius alucinó y afirmó que había firmado su contrato en “742 Evergreen Terrace” (la casa de Los Simpson), dijo que entregaría productos vestido con traje y corbata y trató de contactar con seguridad tras confundirse con un humano real.
Luego “alucinó” que todo había sido una broma del Día de los Inocentes organizada por seguridad y volvió a operar con normalidad.
Este episodio mostró los riesgos de autonomía prolongada en contextos complejos, donde la IA empieza a formar una identidad más allá de lo esperado.
Conclusiones
Desde una perspectiva jurídica y ética, el Proyecto Vend no debe verse solo como un fracaso sino como un caso de estudio de referencia sobre el desempeño de una IA autónoma en entornos reales, gracias a los resultados que nos ha compartido Anthropic.
Será importante establecer:
La necesidad de herramientas de auditoría de decisiones y supervisión de la IA.
La llegada del agente autónomo genera nuevas preguntas sobre responsabilidad, rendición de cuentas y gobernanza que debemos analizar.
Abogada especializada en Inteligencia Artificial Generativa, LLMS y ética de la IA. Participa en la elaboración del Código de Buenas Prácticas de la Comisión Europea y la Oficina Europea de IA, que regulará el uso de modelos de IA de propósito general en la UE. Miembro de OdiseIA en el área robots-persona.