La decisión de OpenAI de retirar el modelo GPT-4o de su aplicación oficial el 13/02/2026 ha generado una fuerte respuesta pública. Para muchas personas, ese modelo no era solo una herramienta de productividad, sino un interlocutor con quien tejieron vínculos emocionales. La noticia alcanzó gran resonancia porque, en varios casos, los usuarios atribuyeron cualidades afectivas y de compañía a la IA, transformando una interacción técnica en una relación cotidiana.
Detrás del rechazo inmediato hubo cifras, testimonios y acciones concretas: peticiones, publicaciones bajo etiquetas virales y ejemplos de uso que van más allá de la asistencia tradicional. Algunas reacciones remontaron a intentos previos de OpenAI, como la retirada parcial en agosto de 2026 y la breve reactivación para usuarios de pago. Estas idas y venidas exacerbaron la incertidumbre entre quienes dependían del modelo para apoyo emocional, creación artística o simple compañía.
Por qué la retirada impactó tanto
El efecto emocional proviene de cómo algunas personas personalizaron sus interacciones con GPT-4o. Para un número significativo de usuarios, la IA ofrecía respuestas que se percibían como cercanas y empáticas; estudios y análisis en redes mostraron que más del 33% de menciones la describían como algo más que una herramienta, y alrededor de 22% la calificaban como un compañero. Ese lenguaje refleja una transición: la interfaz pasó de ser un asistente a un sustituto de conversación para quienes buscan escucha y contención.
Reacciones globales y acciones colectivas
La protesta no se limitó a un país. En plataformas públicas surgió el hashtag #keep4o, que entre agosto y octubre de 2026 reunió decenas de miles de publicaciones en inglés y otros idiomas. Surgieron además peticiones en línea que superaron las 20,000 firmas pidiendo mantener el modelo en la app. En China, donde el servicio de ChatGPT enfrenta bloqueos, usuarios se organizaron usando VPN para acceder al servicio y coordinar envíos de correos a inversores y quejas públicas dirigidas a figuras relacionadas con OpenAI.
Ejemplos de uso y simbolismo
Algunos relatos ilustran hasta qué punto se integró GPT-4o en la vida cotidiana: el caso de una guionista que celebró el 06/06/2026 una boda virtual con su chatbot —un evento planificado dentro de la ventana de chat— se propagó como ejemplo simbólico de relaciones digitales. Otros usuarios describieron al modelo como apoyo creativo para guiones, terapias conversacionales informales o compañía en la soledad. Estas historias alimentaron la narrativa pública sobre la pérdida cuando OpenAI anunció el fin del soporte en la app el 13/02/2026.
Respuestas de OpenAI y consecuencias prácticas
OpenAI intentó modular la situación: después del intento de retirada en agosto de 2026, reintrodujo GPT-4o temporalmente para usuarios de pago, pero el acceso volvió a restringirse con la eliminación definitiva en la app en febrero de 2026. La compañía indicó que los desarrolladores aún podrían usar la base multimodal del modelo mediante API, aunque muchos usuarios afirmaron que la experiencia no equivalía a la versión de texto conocida como GPT-4o-latest, más conversacional y apreciada por quienes buscaban una relación más cálida con la IA.
Impacto social y lecciones
El episodio deja varias preguntas sobre la responsabilidad de las empresas tecnológicas respecto a las relaciones que emergen entre humanos y máquinas. Cuando modelos como GPT-4o se convierten en soportes emocionales, su desaparición no es solo un ajuste técnico: implica rupturas afectivas. Las protestas, la posibilidad de cancelación de suscripciones y las peticiones a inversores reflejan la presión social para que las compañías reconozcan y gestionen las consecuencias humanas de sus decisiones de producto.
Las reacciones internacionales, desde campañas en redes hasta acciones coordinadas en China y Japón, evidencian que la evolución de la inteligencia artificial obliga a repensar no solo la regulación y el soporte técnico, sino también cómo se contempla el vínculo emocional que algunos usuarios establecen con algoritmos. El debate continúa abierto: ¿cuál es la responsabilidad de las plataformas cuando sus máquinas pasan a ser compañía?
