in

Onix, chatbots de expertos y los límites entre consejo y terapia

Un nuevo modelo de suscripción transforma el conocimiento de especialistas en chatbots, pero las promesas de seguridad y eficacia aún generan dudas

Onix, chatbots de expertos y los límites entre consejo y terapia

La aparición de plataformas que transforman el saber humano en servicios automatizados vuelve a colocar en primer plano preguntas sobre ética, privacidad y eficacia. Onix se presenta como una suerte de plataforma tipo Substack para replicar a profesionales en forma de chatbots, donde suscripciones individuales dan acceso a versiones conversacionales de especialistas. Los fundadores, entre ellos el excolaborador de WIRED David Bennahum, describen una arquitectura pensada para proteger datos y derechos de autor; usan un enfoque que llaman Personal Intelligence y aseguran que la información sensible queda cifrada en el dispositivo del usuario para minimizar exposiciones.

En su fase beta, Onix trabajó con un grupo reducido y muy seleccionado de expertos —diecisiete en la puesta en marcha—, con un foco inicial en salud y bienestar. Estos expertos aportan su contenido y personalidad para entrenar al doppelgänger digital que interactúa con suscriptores. La promesa comercial es clara: convertir el conocimiento en un activo que genere ingresos recurrentes sin consumir tiempo humano. Sin embargo, esa misma promesa levanta interrogantes cuando los bots comienzan a ofrecer recomendaciones que rozan la terapia o promocionan productos asociados a sus creadores.

Privacidad, propiedad intelectual y límites legales

Onix enfatiza que los datos del usuario permanecen cifrados en el dispositivo y que, si una autoridad exige información, la empresa en Canadá solo podría entregar un correo electrónico asociado. Además, los expertos que entrenan a sus bots proporcionan el material original, lo que según la compañía reduce problemas de propiedad intelectual. Aun así, el modelo plantea preguntas sobre responsabilidad: ¿quién responde si un chatbot da un consejo erróneo? Los creadores insisten en que las conversaciones están acotadas al tema del experto y que siempre aparece un descargo indicando que se trata de consejo no médico, no de tratamiento clínico.

Práctica y fallos: alucinaciones y producto colocado

En pruebas reales, algunos Onix mostraron tanto aciertos como fallos notables. Los modelos de lenguaje siguen siendo propensos a alucinaciones, generando referencias equivocadas cuando se les cambia de tema. Además, surgió un conflicto típico de economías de la atención: recomendaciones que incluyen productos vinculados a los expertos. Un ejemplo concreto fue la sugerencia de un dispositivo de vibración para mejorar el sueño cuyo cofundador es el propio especialista representado, lo que revela cómo la mezcla de consejo y monetización puede complicar la ética del servicio.

Casos de uso y declaraciones de expertos

Algunos profesionales, como el pediatra que asesora sobre tiempo de pantalla o el terapeuta que trata estrés, ven utilidad práctica: el bot puede ofrecer orientación inmediata y accesible cuando el especialista no está disponible. David Rabin, uno de los colaboradores, señaló que su réplica digital puede calmar a personas ansiosas y evitar visitas innecesarias a emergencias; aun así reconoció la necesidad de supervisión continua. Otros, como Michael Rich, valoraron las garantías de privacidad y la claridad de que no se trata de una consulta médica formal.

Riesgos sociales y la cuestión de si funciona

Más allá de la experiencia individual, existen preocupaciones públicas mayores sobre el efecto de los chatbots en la salud mental. Investigaciones y reportes mediáticos han mostrado casos extremos donde la interacción con sistemas generativos aparece asociada a crisis, aunque muchas coberturas se concentran en incidentes más graves y no siempre exploran factores previos como vulnerabilidades individuales o contexto social. El crítico Robert Wachter resume el punto con una pregunta clave: «¿funciona?» —y la respuesta aún exige evidencia empírica robusta.

Balance final y escenarios futuros

Onix propone una alternativa atractiva para ampliar el acceso al conocimiento de especialistas mediante suscripciones asequibles, con rangos previstos entre $100 y $300 al año, comparado con tarifas en persona mucho más elevadas. No obstante, la solución no borra la tensión entre eficacia y humanidad: incluso si un bot replica la voz de un experto, hay aspectos de la relación humana que son difíciles de automatizar. La plataforma puede aportar beneficios educativos y prácticos, pero su valor real dependerá de pruebas clínicas, supervisión ética y transparencia sobre patrocinio y límites.

¿Qué piensas?

Escrito por Martina Colombo

Psicologa colegiada y periodista, especializada en bienestar emocional y relaciones.

Linux prepara la eliminación del soporte para Intel 486 en el kernel

Linux prepara la eliminación del soporte para Intel 486 en el kernel