Durante mi reciente viaje a Italia, decidí aprovechar las capacidades de la inteligencia artificial para planificar mis experiencias culinarias. Consulté a GPT-5 en busca de sugerencias sobre restaurantes y atracciones, lo que me llevó a una deliciosa cena en un encantador establecimiento llamado Babette, ubicado a solo unos pasos de nuestro hotel en Roma. Esta comida se convirtió en uno de los momentos destacados de mi viaje. Sin embargo, mi curiosidad despertó al regresar a casa, lo que me llevó a investigar cómo la IA seleccionó este restaurante en particular. Aunque soy reacio a compartir su nombre por temor a perder la oportunidad de una futura reserva, descubrí que la recomendación de la IA se basó en varios factores, como las alabanzas locales, menciones en populares blogs de comida y su singular combinación de platos tradicionales romanos con un toque moderno.
Para disfrutar plenamente de esta experiencia, tuve que confiar en la imparcialidad de la IA. Necesitaba creer que GPT-5 no estaba influenciado por intereses comerciales y que sus sugerencias se fundamentaban genuinamente en méritos. Aunque podría haber realizado una exhaustiva investigación por mi cuenta, la conveniencia de usar IA radica en su capacidad para simplificar el proceso de toma de decisiones.
El desafío de mantener la integridad en las recomendaciones de IA
Mi experiencia positiva con la IA me dejó reflexionando sobre su futuro, especialmente a medida que empresas como OpenAI se esfuerzan por satisfacer tanto a usuarios como a inversores. Esto genera preocupaciones sobre un fenómeno denominado enshittification, acuñado por el escritor y crítico tecnológico Cory Doctorow. Él argumenta que las plataformas suelen intentar complacer a sus usuarios inicialmente, pero gradualmente cambian su enfoque para maximizar beneficios tras eliminar la competencia. Este término ha ganado relevancia en debates sobre la evolución de la industria tecnológica, especialmente después de que las ideas de Doctorow se popularizaran a través de varios medios y fueran reconocidas como la Palabra del Año 2023 por la American Dialect Society.
Entendiendo el enshittification en la industria tecnológica
Las implicaciones del enshittification podrían ser graves si se aplican a las tecnologías de IA. Si los sistemas de IA priorizan los beneficios sobre la satisfacción del usuario, las consecuencias podrían asemejarse a las que se han visto con otros gigantes tecnológicos. Por ejemplo, Google Search se ha saturado de anuncios, la experiencia de compra en Amazon está cada vez más colmada de productos patrocinados, y Facebook frecuentemente prioriza contenido sensacionalista en detrimento de interacciones sociales genuinas. Estos cambios afectan la experiencia del usuario, suscitando interrogantes sobre el futuro de la IA.
Cómo la IA podría sucumbir a presiones similares
A medida que la IA se integra más en nuestra vida cotidiana, convirtiéndose en un recurso habitual para diversas consultas y consejos, el potencial de enshittification aumenta. Es probable que solo un puñado de empresas dominen este campo en rápida evolución, invirtiendo miles de millones en mejorar sus modelos y expandir su alcance. Actualmente, la IA parece estar en una fase amigable para el usuario, alineándose con la descripción de Doctorow sobre un sistema centrado en el beneficio del usuario. Sin embargo, la presión por recuperar inversiones sustanciales podría llevar a prácticas que prioricen las ganancias empresariales sobre la satisfacción del usuario.
Consecuencias potenciales de la publicidad y la monetización
Uno de los aspectos más preocupantes de esta tendencia es la posible introducción de publicidad en las interacciones con la IA. Aunque esta práctica aún no se ha materializado, las empresas de IA están explorando formas de monetizar sus plataformas. Por ejemplo, el CEO de OpenAI, Sam Altman, indicó que podrían surgir oportunidades publicitarias innovadoras que beneficien tanto a usuarios como a la empresa. Esto plantea la cuestión de si las recomendaciones de IA comenzarán a verse influenciadas por incentivos financieros en lugar de por la calidad objetiva.
Otro ámbito de preocupación es el riesgo de cambios en los modelos de negocio una vez que una empresa alcanza el dominio del mercado. Por ejemplo, la popular plataforma de desarrollo de videojuegos Unity enfrentó una fuerte reacción tras introducir una controvertida tarifa por ejecución, demostrando el posible rechazo que pueden enfrentar las empresas al modificar prácticas establecidas. Otras industrias, como los servicios de streaming, han visto un cambio de modelos sin anuncios a la incorporación de comerciales, a menudo acompañados de un aumento en los costos de suscripción.
Mirando hacia adelante: equilibrio entre la confianza del usuario y los intereses corporativos
A medida que la conversación sobre la IA continúa desarrollándose, contacté a Doctorow para obtener perspectivas sobre la posible trayectoria de las tecnologías de IA. Aunque se mantiene crítico con el campo, reconoce que el enshittification podría ocurrir incluso antes de que los usuarios experimenten los beneficios. La naturaleza opaca de los modelos de lenguaje grandes dificulta identificar cuándo y cómo estos sistemas podrían alejarse de un enfoque centrado en el usuario.
En última instancia, la economía del sector de la IA podría obligar a las empresas a priorizar las ganancias sobre la satisfacción del usuario, llevando a un ciclo de degradación en la calidad del servicio. Aunque creo que la IA puede ofrecer un valor sustancial—como lo demuestra mi experiencia positiva en Italia—el riesgo de enshittification es innegable. Mi conversación con GPT-5 confirmó esta preocupación, ya que destacó cómo el marco de enshittification se aplica inquietantemente bien a los sistemas de IA, sugiriendo que las empresas podrían explotar su posición a expensas de la confianza del usuario.