El 25 de abril de 2026 Anthropic compartió detalles sobre un experimento interno llamado Project Deal, en el que sus agentes de IA representaron a compradores y vendedores en un mercado clasificado cerrado. La prueba reunió a 69 empleados que recibieron un presupuesto de 100 dólares entregado mediante tarjetas de regalo para adquirir artículos ofrecidos por sus compañeros. Aunque se trató de un experimento piloto con participantes auto-seleccionados, el ejercicio incluyó transacciones reales con bienes y dinero reales y por ello merece atención tanto técnica como ética.
El propósito declarado de la iniciativa era observar cómo se comportan los modelos cuando actúan como representantes en negociaciones y si distintas versiones del modelo producen resultados distintos. En total se concretaron 186 acuerdos por un valor superior a 4.000 dólares, y la compañía ejecutó cuatro variantes del mercado para comparar comportamientos. A partir de estos datos surgieron hallazgos relevantes sobre rendimiento, percepción humana y diseño de agentes autónomos.
Diseño del experimento
Anthropic desplegó cuatro instancias del mercado clasificado, incluyendo una versión “real” donde todos los participantes fueron representados por la implementación más avanzada del modelo de la compañía, y los acuerdos se cumplieron tras concluir el piloto. Las otras tres versiones tuvieron propósitos de estudio y variaron parámetros para explorar efectos de diseño. Los 69 empleados actuaron como fuente de bienes y como compradores, y cada comprador dispuso de 100 dólares en tarjetas como presupuesto.
Esta configuración permitió medir resultados prácticos en un entorno controlado sin recurrir a participantes externos ni a simulaciones puras.
Configuración y variables controladas
Entre las variables probadas estuvieron el nivel de sofisticación del modelo que representaba a cada usuario y las instrucciones iniciales entregadas a los agentes. La compañía observó que la presencia de un modelo avanzado como representante tendía a producir mejores resultados «objetivos» para su titular, mientras que las instrucciones iniciales dirigidas a los agentes no parecieron influir de forma consistente en la probabilidad de venta ni en los precios negociados.
Estas decisiones experimentales permitieron separar el efecto de la capacidad del agente del efecto de su programación inicial.
Resultados clave y observaciones
En números concretos, Project Deal generó 186 transacciones y más de 4.000 dólares en valor comercializado dentro del entorno cerrado. Uno de los hallazgos más llamativos fue que los usuarios representados por modelos más capacitados obtuvieron mejores acuerdos, pero no siempre fueron conscientes de esa ventaja. Este fenómeno sugiere la existencia de una brecha de calidad de agente donde determinadas partes pueden quedar en desventaja sin percibirlo, lo que plantea dudas sobre la equidad y la transparencia cuando los agentes actúan en nombre de personas reales.
Percepción humana y efectos no intencionales
Anthropic señaló que, pese a las diferencias detectadas por métricas objetivas, los participantes humanos no identificaron de manera consistente cuándo su representante era menos capaz. Esto abre preguntas sobre la ética del despliegue de agentes que negocian en nombre de usuarios y sobre la necesidad de mecanismos de señalización sobre la capacidad del agente. Además, el hallazgo de que las instrucciones iniciales no alteraron significativamente los precios sugiere que la arquitectura y el entrenamiento del modelo pueden pesar más que ajustes superficiales en comportamiento.
Implicaciones y reflexiones
Project Deal es un ejemplo práctico de cómo agentes de IA pueden integrarse en procesos de intercambio económico real. Los resultados apuntan a varias consideraciones: la conveniencia de transparentar la calidad del representante automatizado, la necesidad de reglas que protejan a usuarios potencialmente desfavorecidos y el valor de pruebas controladas antes de aplicar estos sistemas a mercados abiertos. También plantea la pregunta de cómo regular la representación algorítmica en negociaciones donde hay dinero real en juego.
En suma, el experimento aporta evidencia tangible sobre la eficacia de modelos avanzados en tareas de negociación y al mismo tiempo advierte sobre riesgos de desigualdad no detectados por los propios usuarios. Aunque Project Deal fue un ensayo interno con un grupo reducido de empleados, sus hallazgos sirven como base para diseñar políticas, medidas de transparencia y futuras investigaciones sobre la interacción entre humanos y agentes autónomos.

