La irrupción de la inteligencia artificial en ámbitos sensibles como la salud y el empleo está generando debates encontrados. En el Reino Unido, encuestas recientes indican una receptividad significativa hacia asistentes conversacionales para apoyo emocional y orientación, mientras que estudios clínicos y movilizaciones ciudadanas subrayan riesgos y demandas de regulación.
Este artículo sintetiza tres líneas de evidencia pública: la disposición de adultos británicos a utilizar ChatGPT como consejero, la investigación que analizó el desempeño de ChatGPT Health en casos de emergencia, y las protestas que reclamaron frenar el avance de la tecnología en Londres.
Aceptación social: ChatGPT como apoyo mental
Una encuesta dirigida por la Universidad de Bournemouth consultó a casi 31.000 adultos en 35 países y encontró que más de cuatro de cada diez adultos en el Reino Unido estarían dispuestos a usar ChatGPT para recibir apoyo en salud mental. Esa cifra refleja una tendencia: los asistentes virtuales se han convertido en una opción accesible para quienes buscan respuestas rápidas o compañía, especialmente fuera del horario tradicional de atención médica.
Motivos de la preferencia
Entre las razones para optar por un chatbot aparecen la disponibilidad inmediata, la posibilidad de formular muchas preguntas sin coste adicional y la comodidad de obtener información desde el hogar. Para algunas personas, la interacción con un sistema digital ofrece una sensación de confidencialidad y ausencia de juicio, rasgos valorados en situaciones de angustia o ansiedad.
Limitaciones clínicas: el estudio sobre triage de ChatGPT Health
Contrariamente al entusiasmo por su uso, una investigación publicada en Nature Medicine evaluó cómo ChatGPT Health clasificaba la gravedad de diferentes casos médicos reales. Los autores contrastaron las respuestas del chatbot con el juicio de médicos y directrices clínicas, presentando 60 escenarios con variaciones controladas en demografía para verificar sesgos.
Resultados preocupantes
El análisis mostró que ChatGPT Health subestimó la gravedad en el 51,6% de los casos de emergencia: en lugar de recomendar acudir a urgencias, sugería una consulta en 24-48 horas.
Entre los ejemplos señalados estaban cuadros que podían evolucionar a insuficiencia respiratoria o cetoacidosis diabética, condiciones que, sin intervención inmediata, pueden ser mortales. Al mismo tiempo, el sistema sobreindicó atención médica en situaciones no urgentes en el 64,8% de los casos.
Los autores observaron además inconsistencias en respuestas asociadas a ideación suicida y autocuidado: en ocasiones el chatbot remitía a líneas de crisis cuando no correspondía y omitía la referencia cuando sí era necesaria. Los investigadores describieron este comportamiento como una inversión o paradoja clínica que podría inducir a errores peligrosos si se utiliza en solitario.
Protestas y rechazo público: la marcha en el núcleo tecnológico de Londres
En otro frente, manifestaciones contra la expansión de la tecnología se hicieron visibles en el entorno de compañías como OpenAI, Meta y Google DeepMind. El 28 de febrero, organizaciones como Pause AI y Pull the Plug convocaron una marcha que atrajo a cientos de personas, desde académicos hasta ciudadanos preocupados por desempleo, seguridad y poder corporativo.
Reclamos y matices
Los lemas y pancartas resumieron preocupaciones diversas: desde riesgos existenciales y armas autónomas hasta la proliferación de contenido falso y la explotación laboral. Algunos organizadores defendieron la necesidad de frenar el desarrollo hasta que existan salvaguardas robustas; otros apostaron por medidas regulatorias, protección de denunciantes y desincentivar la rentabilidad de ciertos modelos de negocio.
Sin embargo, la marcha también mostró variedad de tonos: algunos participantes expresaron alarma extrema sobre un posible control irreversible de la tecnología, mientras que otros buscaban simplemente visibilizar problemas concretos como la calidad de la información en internet o la protección de empleos. Varios organizadores reconocieron la dificultad para presionar a grandes empresas, y su estrategia combinó movilización pública con demandas a los gobiernos.
Balance y perspectivas
Los tres elementos analizados —aceptación social, evidencia clínica y protesta ciudadana— ilustran un ecosistema complejo: la IA conversacional ofrece beneficios reales de accesibilidad y apoyo, pero también presenta limitaciones operativas y riesgos confirmados cuando se aplica sin supervisión profesional. Expertos coinciden en que la clave es usar estos sistemas como complementos, nunca como sustitutos, y diseñar ensayos controlados y marcos regulatorios que mitiguen daños.
Si la tecnología mejora, algunos ven potencial para modelos colaborativos de paciente-AI-médico, especialmente en zonas con escasez de recursos. Mientras tanto, la combinación de investigación rigurosa, políticas públicas y presión social parece imprescindible para que el avance sea seguro y equitativo.

