Durante mi reciente viaje a Italia, decidí aprovechar los avances tecnológicos para enriquecer mi experiencia. Consulté un modelo de inteligencia artificial, GPT-5, que me ayudó a crear un itinerario lleno de recomendaciones de lugares para visitar y restaurantes. Una noche, seguí la sugerencia de la IA y me dirigí a un restaurante ubicado a pocos pasos de la pintoresca Via Margutta en Roma. Esta elección resultó ser una de las experiencias culinarias más memorables que he tenido.
Al regresar a casa, me surgió la curiosidad sobre cómo GPT-5 llegó a esta recomendación específica. Aunque prefiero no revelar el nombre del restaurante, conocido como Babette, puedo asegurar que es recomendable hacer reservas con antelación. El proceso de selección de la IA tuvo en cuenta diversos factores, como críticas positivas de los locales, menciones en populares blogs de comida y cobertura en medios italianos. Además, la comodidad de estar a poca distancia de mi alojamiento contribuyó a la decisión.
La necesidad de confianza en las recomendaciones de IA
Usar IA para recomendaciones requiere un nivel considerable de confianza por parte del usuario. Debía creer que GPT-5 actuaba de manera imparcial, eligiendo el restaurante en función de sus méritos y no por sesgos ocultos o patrocinadores. Si bien podría haber realizado una investigación exhaustiva para validar la sugerencia de la IA (de hecho, revisé la página web del restaurante), el atractivo principal de utilizar inteligencia artificial es minimizar esos esfuerzos manuales.
La experiencia fortaleció mi confianza en las capacidades de la IA, pero también planteó interrogantes sobre el futuro de estas tecnologías. A medida que empresas como OpenAI aumentan su influencia, ¿cambiará su enfoque de la satisfacción del usuario hacia la maximización de beneficios? Esta preocupación es bien descrita por el escritor y crítico tecnológico Cory Doctorow, quien se refiere a esta tendencia como enshittification. Según su teoría, las plataformas inicialmente priorizan la experiencia del usuario, pero a medida que eliminan la competencia, sus servicios disminuyen en calidad en su búsqueda de maximizar beneficios.
Las implicaciones de la enshittification en la IA
El término ha ganado popularidad desde que el ensayo perspicaz de Doctorow sobre el tema fue republicado en WIRED, ilustrando un fenómeno que muchos reconocen como un problema significativo en la industria tecnológica. De hecho, enshittification fue nombrada la palabra del año 2023 por la American Dialect Society. Desde entonces, Doctorow ha publicado un libro sobre el tema, que presenta un emoji en la portada que simboliza su esencia.
Si los sistemas de IA siguen una trayectoria similar de declive, las consecuencias podrían ser graves. Imagina un escenario donde los chatbots priorizan la publicidad sobre recomendaciones genuinas, lo que llevaría a una experiencia de usuario comprometida. Aunque actualmente no es el caso, las empresas de IA están explorando activamente estrategias de monetización. En una reciente entrevista, Sam Altman, CEO de OpenAI, insinuó la posibilidad de desarrollar productos publicitarios que podrían beneficiar a los usuarios mientras aumentan la rentabilidad de la empresa.
Publicidad y experiencia del usuario
OpenAI también se ha asociado con Walmart, permitiendo a los clientes comprar directamente a través de la aplicación ChatGPT. Esto plantea preocupaciones sobre conflictos de interés. Otras plataformas de IA, como Perplexity, han comenzado a incorporar resultados patrocinados, afirmando que estos anuncios no comprometerán su compromiso de ofrecer información imparcial. Sin embargo, como señala Doctorow, una vez que una empresa tiene la oportunidad de enshittificar sus ofertas, la tentación de hacerlo puede ser abrumadora.
Desafíos futuros para la tecnología de IA
La introducción de anuncios no es el único método por el cual la IA podría deteriorarse en calidad. Doctorow proporciona ejemplos de empresas que, una vez que aseguran una posición dominante en el mercado, cambian sus modelos de negocio y estrategias de precios. Un caso reciente es Unity, una popular plataforma de desarrollo de videojuegos, que enfrentó críticas tras introducir una nueva estructura de tarifas que los usuarios consideraron inaceptable.
Además, la experiencia de servicios de streaming como Amazon Prime Video ilustra cómo las empresas pueden comenzar con modelos amigables para el usuario y luego volver a flujos de ingresos basados en anuncios. Una vez que un servicio se establece, los precios suelen aumentar, y los usuarios deben pagar más para acceder a contenido sin anuncios. Un destino similar podría esperar a las aplicaciones de IA, donde los usuarios podrían verse obligados a actualizar a niveles más costosos para mantener el mismo nivel de servicio.
El futuro incierto de los sistemas de IA
Doctorow expresó escepticismo sobre el futuro de la IA. Argumentó que la tecnología aún no ha alcanzado la fase de buena para los usuarios que yo creo que actualmente representa. En su opinión, las empresas de IA podrían iniciar el proceso de enshittification incluso antes de ofrecer un valor sustancial a sus usuarios. La naturaleza opaca de los modelos de IA significa que su degradación podría ser difícil de percibir, permitiendo a las empresas explotar a los usuarios sin consecuencias inmediatas.
Al regresar a casa, me surgió la curiosidad sobre cómo GPT-5 llegó a esta recomendación específica. Aunque prefiero no revelar el nombre del restaurante, conocido como Babette, puedo asegurar que es recomendable hacer reservas con antelación. El proceso de selección de la IA tuvo en cuenta diversos factores, como críticas positivas de los locales, menciones en populares blogs de comida y cobertura en medios italianos. Además, la comodidad de estar a poca distancia de mi alojamiento contribuyó a la decisión.0