in

Experimento de Anthropic revela compras reales entre agentes de IA

Anthropic lanzó Project Deal, un experimento en el que agentes de IA hicieron compras y ventas reales dentro de un mercado cerrado, revelando ventajas para modelos más avanzados y posibles brechas no percibidas por los usuarios

Experimento de Anthropic revela compras reales entre agentes de IA

El 25 de abril de 2026 Anthropic compartió detalles sobre un experimento interno llamado Project Deal, en el que sus agentes de IA representaron a compradores y vendedores en un mercado clasificado cerrado. La prueba reunió a 69 empleados que recibieron un presupuesto de 100 dólares entregado mediante tarjetas de regalo para adquirir artículos ofrecidos por sus compañeros. Aunque se trató de un experimento piloto con participantes auto-seleccionados, el ejercicio incluyó transacciones reales con bienes y dinero reales y por ello merece atención tanto técnica como ética.

El propósito declarado de la iniciativa era observar cómo se comportan los modelos cuando actúan como representantes en negociaciones y si distintas versiones del modelo producen resultados distintos. En total se concretaron 186 acuerdos por un valor superior a 4.000 dólares, y la compañía ejecutó cuatro variantes del mercado para comparar comportamientos. A partir de estos datos surgieron hallazgos relevantes sobre rendimiento, percepción humana y diseño de agentes autónomos.

Diseño del experimento

Anthropic desplegó cuatro instancias del mercado clasificado, incluyendo una versión “real” donde todos los participantes fueron representados por la implementación más avanzada del modelo de la compañía, y los acuerdos se cumplieron tras concluir el piloto. Las otras tres versiones tuvieron propósitos de estudio y variaron parámetros para explorar efectos de diseño. Los 69 empleados actuaron como fuente de bienes y como compradores, y cada comprador dispuso de 100 dólares en tarjetas como presupuesto.

Esta configuración permitió medir resultados prácticos en un entorno controlado sin recurrir a participantes externos ni a simulaciones puras.

Configuración y variables controladas

Entre las variables probadas estuvieron el nivel de sofisticación del modelo que representaba a cada usuario y las instrucciones iniciales entregadas a los agentes. La compañía observó que la presencia de un modelo avanzado como representante tendía a producir mejores resultados «objetivos» para su titular, mientras que las instrucciones iniciales dirigidas a los agentes no parecieron influir de forma consistente en la probabilidad de venta ni en los precios negociados.

Estas decisiones experimentales permitieron separar el efecto de la capacidad del agente del efecto de su programación inicial.

Resultados clave y observaciones

En números concretos, Project Deal generó 186 transacciones y más de 4.000 dólares en valor comercializado dentro del entorno cerrado. Uno de los hallazgos más llamativos fue que los usuarios representados por modelos más capacitados obtuvieron mejores acuerdos, pero no siempre fueron conscientes de esa ventaja. Este fenómeno sugiere la existencia de una brecha de calidad de agente donde determinadas partes pueden quedar en desventaja sin percibirlo, lo que plantea dudas sobre la equidad y la transparencia cuando los agentes actúan en nombre de personas reales.

Percepción humana y efectos no intencionales

Anthropic señaló que, pese a las diferencias detectadas por métricas objetivas, los participantes humanos no identificaron de manera consistente cuándo su representante era menos capaz. Esto abre preguntas sobre la ética del despliegue de agentes que negocian en nombre de usuarios y sobre la necesidad de mecanismos de señalización sobre la capacidad del agente. Además, el hallazgo de que las instrucciones iniciales no alteraron significativamente los precios sugiere que la arquitectura y el entrenamiento del modelo pueden pesar más que ajustes superficiales en comportamiento.

Implicaciones y reflexiones

Project Deal es un ejemplo práctico de cómo agentes de IA pueden integrarse en procesos de intercambio económico real. Los resultados apuntan a varias consideraciones: la conveniencia de transparentar la calidad del representante automatizado, la necesidad de reglas que protejan a usuarios potencialmente desfavorecidos y el valor de pruebas controladas antes de aplicar estos sistemas a mercados abiertos. También plantea la pregunta de cómo regular la representación algorítmica en negociaciones donde hay dinero real en juego.

En suma, el experimento aporta evidencia tangible sobre la eficacia de modelos avanzados en tareas de negociación y al mismo tiempo advierte sobre riesgos de desigualdad no detectados por los propios usuarios. Aunque Project Deal fue un ensayo interno con un grupo reducido de empleados, sus hallazgos sirven como base para diseñar políticas, medidas de transparencia y futuras investigaciones sobre la interacción entre humanos y agentes autónomos.

¿Qué piensas?

Escrito por Fabio Rinaldi

Periodista de motor, ex ingeniero de pista F3. Cubre F1, MotoGP y mercado auto.

Monitoreo continuo de la presión arterial con textiles sin baterías

Monitoreo continuo de la presión arterial con textiles sin baterías