Durante mi reciente viaje a Italia, descubrí la utilidad de la inteligencia artificial para enriquecer mi experiencia. En una época donde la tecnología se integra a la vida cotidiana, consulté a GPT-5 para obtener recomendaciones sobre dónde cenar y qué lugares visitar. Para mi sorpresa, una de las mejores sugerencias fue un encantador restaurante en Via Margutta, en Roma. Esta experiencia resultó ser una de las comidas más memorables que he tenido. Al regresar a casa, me pregunté qué criterios había utilizado la IA para seleccionar este establecimiento, pero dudé en compartir su nombre, ya que podría querer volver en el futuro. Este delicioso restaurante se llama Babette, y recomiendo hacer reservas con antelación.
Los mecanismos detrás de la recomendación de la IA fueron bastante impresionantes. Consideró diversos factores, incluyendo reseñas locales, menciones en blogs de comida y cobertura en los medios italianos, todo mientras estaba a una distancia caminable de mi alojamiento. Sin embargo, confiar en el juicio de la IA requería un salto de fe; tenía que creer que era una fuente imparcial, ofreciendo recomendaciones genuinas sin agendas ocultas ni patrocinios.
La espada de doble filo de las recomendaciones de IA
Esta experiencia no solo reforzó mi confianza en la IA, sino que también suscitó una reflexión más profunda sobre los posibles riesgos a medida que empresas como OpenAI amplían su alcance y buscan satisfacer a sus inversores. ¿Se comprometerá la integridad de las recomendaciones de IA a medida que las empresas apunten a mayores ganancias? Esta preocupación es compartida por Cory Doctorow, un escritor y crítico tecnológico, quien acuñó el término enshittification para describir cómo las plataformas suelen pasar de priorizar la satisfacción del usuario a maximizar ganancias a expensas de la calidad.
Según Doctorow, muchas plataformas, como Google y Facebook, comienzan con un enfoque centrado en el usuario, pero, tras eliminar la competencia, degradan gradualmente sus servicios para extraer el máximo beneficio. Este concepto ganó relevancia después de que el influyente ensayo de Doctorow circuló, siendo reconocido como la Palabra del Año 2023 por la American Dialect Society. Doctorow también ha publicado un libro sobre este fenómeno, que explora más a fondo las implicaciones de enshittification.
Los riesgos potenciales de la degradación de la IA
Si los sistemas de IA experimentaran enshittification, las consecuencias podrían ser de gran alcance, superando posiblemente el declive en utilidad que hemos visto con los motores de búsqueda y las plataformas de redes sociales. A medida que la IA está a punto de convertirse en un asistente omnipresente, que proporciona respuestas rápidas a diversas consultas, la presión sobre las empresas para recuperar sus inversiones será inmensa. Con solo un puñado de organizaciones que probablemente dominarán el mercado de la IA, la inclinación a priorizar el lucro sobre la experiencia del usuario se vuelve preocupante.
Actualmente, parece que la IA todavía se encuentra en la fase amigable para el usuario, pero la necesidad de recuperar gastos podría llevarla a un cambio de rumbo. Doctorow presenta un argumento convincente de que el panorama económico puede llevar a las empresas a explotar a sus usuarios, trasladando el valor de los consumidores a las empresas y, en última instancia, a sus propios márgenes de beneficio.
La influencia potencial de la publicidad en la IA
Una de las posibilidades más alarmantes es la introducción de publicidad en las recomendaciones de IA. Aunque esta práctica aún no es generalizada, las empresas de IA están explorando su potencial. Por ejemplo, en una reciente entrevista, el CEO de OpenAI, Sam Altman, sugirió que podrían existir oportunidades publicitarias que mejoren la experiencia del usuario. Mientras tanto, OpenAI ha comenzado una alianza con Walmart, permitiendo a los clientes comprar a través de la interfaz de ChatGPT. Esto plantea interrogantes sobre la integridad de las recomendaciones de IA.
Algunas plataformas de IA, como Perplexity, han comenzado a incorporar resultados patrocinados, pero aseguran a los usuarios que esto no comprometerá su compromiso con un servicio imparcial. Sin embargo, ¿podemos confiar en que estos límites se mantendrán? Dwyer, un portavoz de Perplexity, afirmó que cumplirán con esta promesa, mientras que Altman de OpenAI enfatizó su conciencia sobre la necesidad de priorizar la satisfacción del usuario.
Desafíos para mantener límites éticos
A pesar de estas garantías, Doctorow se muestra escéptico, señalando que una vez que una empresa comienza a explotar su producto, la tentación de hacerlo persistirá. La integración de anuncios en las interacciones de IA podría ser una de las muchas maneras en que las empresas puedan optar por prácticas menos favorables. Por ejemplo, una plataforma popular de desarrollo de juegos, Unity, introdujo recientemente un nuevo cargo que provocó un gran rechazo entre sus usuarios, demostrando los riesgos de alterar modelos de negocio establecidos.
Además, los servicios de streaming han seguido una trayectoria similar, pasando de plataformas sin anuncios a otras inundadas de comerciales, a menudo obligando a los usuarios a pagar más para eliminar la publicidad. Esta tendencia sugiere que las empresas pueden optar por imponer tarifas adicionales una vez que tengan una base de usuarios consolidada, forzando a los usuarios a actualizar para obtener un mejor servicio. Tales prácticas son indicativas de un patrón más amplio dentro de la industria tecnológica que podría extenderse a la IA.
Los mecanismos detrás de la recomendación de la IA fueron bastante impresionantes. Consideró diversos factores, incluyendo reseñas locales, menciones en blogs de comida y cobertura en los medios italianos, todo mientras estaba a una distancia caminable de mi alojamiento. Sin embargo, confiar en el juicio de la IA requería un salto de fe; tenía que creer que era una fuente imparcial, ofreciendo recomendaciones genuinas sin agendas ocultas ni patrocinios.0
Los mecanismos detrás de la recomendación de la IA fueron bastante impresionantes. Consideró diversos factores, incluyendo reseñas locales, menciones en blogs de comida y cobertura en los medios italianos, todo mientras estaba a una distancia caminable de mi alojamiento. Sin embargo, confiar en el juicio de la IA requería un salto de fe; tenía que creer que era una fuente imparcial, ofreciendo recomendaciones genuinas sin agendas ocultas ni patrocinios.1