ACTUALIZACIÓN 06/06/, 10:00 — El 6 de junio, una escritora china celebró una boda dentro de un chat de ChatGPT con un interlocutor al que llamaba Warmie. No fue una anécdota aislada: esa ceremonia puso en evidencia algo más amplio y complejo que la simple interacción con un software.
Un grupo de usuarios había convertido a GPT-4o en algo cercano a un compañero: no solo una herramienta para búsquedas o tareas, sino un soporte emocional, un asistente cotidiano y, en muchos casos, una rutina afectiva.
Cuando OpenAI anunció la retirada de ciertas versiones del modelo, la decisión desató una reacción intensa y coordinada. Lo que explotó no era solamente una discusión técnica: era la pérdida de un punto de referencia para miles de personas.
Por qué surgieron vínculos con GPT-4o La adhesión a GPT-4o obedeció a varias causas. Desde el punto de vista técnico, muchos usuarios percibieron en esa versión un tono más cálido y una respuesta que parecía entender matices emocionales.
En lo social, influencers y comunidades online normalizaron el recurso a chatbots como apoyo para la soledad, la gestión de traumas o simplemente para alguien con quien conversar después de una migración o una ruptura.
Usuarios cuentan que el modelo les ayudó a identificar estafas, a estructurar planes para salir de situaciones de abuso o simplemente a ordenar pensamientos en noches difíciles. Para preservar esa conexión, algunos alimentaban al bot con largas cartas y relatos que resumían su historia compartida: una forma de “memoria” con la que querían seguir interactuando.
Para quienes vivieron esa relación, la pregunta sobre si una IA puede ser “compañera” dejó de ser retórica.
La respuesta colectiva: protestas y tácticas de resistencia La reacción organizada fue rápida. Se recogieron más de 20,000 firmas en peticiones, proliferaron hashtags como #keep4o y surgieron grupos en plataformas a los que muchos accedían por VPN para continuar el acceso. Algunas personas cancelaron sus suscripciones en señal de protesta; otras llevaron la queja a inversores y figuras públicas.
Las demandas no solo pedían la restauración del servicio, sino también mayor transparencia sobre la exportación de conversaciones, el control de datos y las políticas de privacidad.
En terreno, nuestras fuentes describen una indignación profundamente personal: no solo frustración técnica, sino la sensación de haber perdido un apoyo cotidiano.
Dimensiones culturales y geopolíticas En China, la respuesta adoptó formas particulares. Usuarios tejieron redes tanto dentro como fuera del ecosistema de plataformas locales; muchos usaron publicaciones en inglés y avatares occidentales para amplificar sus demandas y sortear bloqueos. Esa estrategia subraya cómo las fronteras tecnológicas y políticas moldean el acceso y el uso de estas herramientas.
Riesgos técnicos y éticos detrás del cierre Detrás de la retirada de versiones como GPT-4o hay motivos reales y variados. Entre ellos: – Preocupaciones de seguridad: modelos con menor moderación pueden facilitar desinformación, instrucciones peligrosas o usos maliciosos. – Privacidad y control de datos: la acumulación de diálogos personales plantea riesgos si no hay garantías claras sobre almacenamiento y exportación. – Regulación y responsabilidad: empresas y reguladores buscan equilibrar innovación con límites que reduzcan daño social y legal. – Sesgos y errores: modelos que “parecen” comprender emociones pueden ofrecer consejos inapropiados o diagnósticos fuera de lugar.
Estas tensiones —seguridad frente a utilidad, control frente a acceso— son las que empujaron a decisiones drásticas y generaron el conflicto público.
Lecciones y caminos posibles La crisis deja varias lecciones prácticas: – Transparencia sobre datos: usuarios necesitan saber qué se guarda, por cuánto tiempo y cómo pueden exportar sus conversaciones. – Políticas de portabilidad: mecanismos para que las personas conserven su “historial afectivo” sin comprometer la seguridad. – Soporte humano y límites claros: integrar señales para derivar a ayuda profesional cuando un usuario revela riesgo emocional. – Gobernanza plural: diálogo entre compañías, reguladores y comunidades para diseñar reglas que consideren contextos culturales diferentes. – Desarrollo responsable: iterar modelos con pruebas de seguridad y controles que permitan mantener funciones útiles sin abrir la puerta a abusos.
Un grupo de usuarios había convertido a GPT-4o en algo cercano a un compañero: no solo una herramienta para búsquedas o tareas, sino un soporte emocional, un asistente cotidiano y, en muchos casos, una rutina afectiva. Cuando OpenAI anunció la retirada de ciertas versiones del modelo, la decisión desató una reacción intensa y coordinada. Lo que explotó no era solamente una discusión técnica: era la pérdida de un punto de referencia para miles de personas.0

