Neil deGrasse Tyson, conocido por traducir conceptos científicos complejos al gran público, lanzó un mensaje contundente sobre la inteligencia artificial durante el debate Isaac Asimov de 2026. Lejos de advertir sobre asistentes de correo o filtros de fotos, Tyson enfocó su crítica en la posibilidad de una IA superinteligente, una entidad que, en su opinión, podría superar la inteligencia humana de forma amplia y volverse difícil de controlar. En sus palabras, esa rama de la tecnología es letal y exige una acción colectiva, por lo que propone que todos los países acuerden su prohibición mediante un tratado.
Este planteamiento alimenta una discusión que va más allá de titulares: ¿cómo equilibrar la innovación útil con la prevención de riesgos extremos? Mientras herramientas como los generadores de texto y los modelos de imagen transforman la vida cotidiana, el debate público se centra ahora en escenarios a largo plazo. Tyson sugiere anticiparse a esos escenarios antes de que la tecnología evolucione hasta niveles que quizá no podamos revertir, y reclama mecanismos internacionales comparables a los acuerdos sobre armas y sustancias peligrosas.
La lógica detrás del llamado: analogías históricas y preocupaciones
Para explicar su postura, Tyson recurrió a una comparación con la Guerra Fría y la idea de mutual assured destruction, aunque adaptada al lenguaje público: la experiencia de convivir con armas nucleares obligó a las naciones a negociar. En su argumento, si una tecnología puede amenazar la supervivencia colectiva o desestabilizar decisiones críticas, entonces ninguna nación debería desarrollarla por sí sola.
El uso de la palabra tratado refleja la convicción de que la gobernanza multinacional es la herramienta más coherente para riesgos que trascienden fronteras y soberanías.
Qué implicaría intentar prohibir la superinteligencia
Proponer una prohibición global plantea desafíos técnicos y políticos considerables. En términos técnicos, un acuerdo tendría que definir con precisión qué se entiende por superinteligencia y establecer criterios verificables para evitar ambigüedades. Además, la naturaleza del software dificulta la contención: modelos y arquitecturas circulan entre equipos, publicaciones y repositorios, y la capacidad de cálculo puede distribuirse a través de nubes y centros internacionales.
Implementar inspecciones, sanciones y controles exportables sería un proceso complejo pero no necesariamente imposible si existe voluntad política.
Retos diplomáticos y de verificación
En el plano diplomático, un tratado internacional requeriría mecanismos de verificación que respeten la soberanía y reduzcan la desconfianza. Las negociaciones tendrían que incluir cláusulas sobre transparencia, auditorías independientes y sanciones creíbles para incumplimientos. Además, habría que afrontar la realidad de actores no estatales y laboratorios privados con incentivos comerciales. La experiencia con armas y sustancias peligrosas ofrece lecciones, pero trasladarlas al ámbito de la tecnología exige adaptaciones sustantivas.
Riesgo de frenar innovación útil
Un argumento en contra de la prohibición total es que podría frenar avances beneficiosos en salud, educación y ciencia. Tyson reconoce estos beneficios: la IA ya contribuye a descubrimientos médicos y eficiencia productiva. Por eso propone diferenciar entre ramas tecnológicas: mantener y regular las aplicaciones útiles mientras se impide el desarrollo de sistemas cuyo poder sea capaz de sobrepasar controles humanos. Esa distinción pretende proteger las ganancias cotidianas sin abrir la puerta a riesgos existenciales.
Contexto reciente y repercusiones en la industria
Las preocupaciones públicas han sido acompañadas por decisiones concretas en la industria. Por ejemplo, algunas empresas y grupos han revaluado colaboraciones con entidades militares o gubernamentales por el temor a usos autónomos de la tecnología. Casos como la retirada de acuerdos o la limitación de ciertas colaboraciones con defensa ejemplifican la tensión entre seguridad y desarrollo. Además, actores como OpenAI, xAI y Anthropic aparecen en el debate por sus ambiciones y por las discusiones internas sobre límites éticos.
En el plano público, el llamado de Tyson intensifica una conversación que ya incluye académicos, reguladores y activistas. Muchos expertos piden marcos regulatorios proporcionales que integren evaluación de riesgos, transparencia y participación ciudadana. Otros advierten que prohibir de forma absoluta podría empujar investigaciones a jurisdicciones menos reguladas. La realidad es que cualquier solución será políticamente compleja y requerirá compromisos, vigilancia continua y acuerdos internacionales que combinen prevención, investigación segura y control tecnológico.
En definitiva, la propuesta de Neil deGrasse Tyson apunta a colocar la superinteligencia en la agenda global antes de que su desarrollo sea irreversible. Su llamado a un tratado busca transformar una preocupación teórica en una prioridad de política pública: aceptar la utilidad de muchas aplicaciones de IA, pero rechazar aquello que, según él, podría poner en riesgo a la humanidad. La discusión continúa, y su propuesta ya empuja a gobiernos, empresas y ciudadanos a preguntarse hasta dónde queremos llegar con estas tecnologías.

