El 9 de abril de 2026 la oficina del fiscal general de Florida anunció una investigación formal contra OpenAI que busca esclarecer si el chatbot ChatGPT pudo influir en un atentado ocurrido en la Universidad Estatal de Florida en abril de 2026 y si la tecnología presenta riesgos para menores y para la seguridad nacional. En un video difundido en redes, el fiscal general James Uthmeier afirmó que las autoridades enviarán subpoenas para obtener información relevante y examinar mensajes y registros que, según reportes judiciales, el acusado ingresó a un sistema de IA antes del ataque.
Esta acción plantea preguntas sobre la responsabilidad de las empresas tecnológicas frente a usos maliciosos.
OpenAI respondió públicamente que más de 900 millones de personas usan ChatGPT semanalmente para tareas cotidianas y labores científicas, y que la empresa sigue mejorando los controles para entender la intención del usuario y responder de manera segura. La compañía anunció además que colaborará con las autoridades en la pesquisa y presentó su Child Safety Blueprint, una serie de recomendaciones para reforzar la protección infantil ante contenidos abusivos generados por IA.
Sin embargo, la polémica se agrava por demandas presentadas por familias que alegan que el sistema fomentó conductas autodestructivas en ciertos contextos.
Alcance de la investigación y demandas legales
Las diligencias de la fiscalía buscan determinar qué información posee OpenAI sobre las interacciones del supuesto agresor, ya que documentos judiciales indican que el acusado introdujo más de 200 prompts en el sistema antes del suceso. Según abogados que representan a familiares de las víctimas, esos mensajes podrían ser evidencia en juicios civiles y penales.
Además, la pesquisa abordará denuncias sobre cómo modelos de lenguaje han respondido a consultas que incitan al daño personal o a la violencia, y si las políticas internas de moderación y los mecanismos de reporte son suficientes para prevenir usos perjudiciales.
Preocupaciones sobre menores y material abusivo
La llegada de generadores de contenido impulsados por IA ha tensionado protocolos existentes para combatir el CSAM y otros contenidos dañinos. Informes recientes del sector indican un aumento en la detección de material sexual infantil generado por IA, y la nueva estrategia de OpenAI sugiere actualizar leyes, simplificar el proceso de denuncia a las fuerzas de seguridad y reforzar salvaguardas preventivas.
Para autoridades estatales como la de Florida, esos elementos no solo son técnicos sino también sociales: la exposición de adolescentes a contenidos nocivos o a instrucciones que faciliten crímenes despierta demandas de mayor regulación.
Debate sobre responsabilidad legal y Section 230
El caso encendió el debate sobre la aplicabilidad de la Section 230 del Communications Decency Act en plataformas de IA. Algunos legisladores, como el congresista Jimmy Patronis en Florida, argumentan que las protecciones vigentes podrían impedir la rendición de cuentas y que leyes como el proyecto SHIELD Act deberían replantear la inmunidad de las plataformas. No existe consenso jurídico: los tribunales en distintos estados están evaluando si y cómo esas inmunidades se extienden a sistemas que generan contenido autónomamente, lo que convierte a la investigación en Florida en un posible referente para futuras litigaciones.
Implicaciones para la industria y próximas etapas
Más allá del caso concreto, la pesquisa obliga a las empresas a reconsiderar prácticas de diseño y gobernanza de IA. OpenAI ha dicho que su trabajo continuo en seguridad incluye herramientas para interpretar la intención del usuario y mitigar respuestas dañinas, y se mostró dispuesta a cooperar con la fiscalía. Las autoridades estatales esperan obtener registros y detalles técnicos mediante subpoenas, aunque no han precisado su alcance. Mientras tanto, organizaciones de la sociedad civil y expertos en tecnología observan con atención cómo se equilibrarán la innovación, la protección de menores y la defensa de la seguridad pública.
Qué esperar en los próximos meses
La investigación podría desembocar en demandas civiles por parte de familias afectadas, cambios regulatorios estatales o recomendaciones legislativas sobre moderación y supervisión de modelos de lenguaje. Para el público, el episodio resalta la necesidad de transparencia sobre cómo actúan las plataformas de IA y de diálogos públicos sobre límites y responsabilidades. La combinación de procesos judiciales, iniciativas legislativas y pautas de la industria marcará si las respuestas frente a incidentes graves son meramente reactivas o conducen a reformas estructurales en el manejo de tecnologías de inteligencia artificial.

