En el mundo de la inteligencia artificial, el lanzamiento de modelos innovadores es un acontecimiento esperado. Recientemente, Google presentó su nuevo modelo, Gemini 3 Flash, que ha llamado la atención por su velocidad y capacidad de procesamiento. Sin embargo, un aspecto preocupante ha surgido: el modelo parece preferir dar respuestas inventadas en lugar de admitir que no sabe algo.
Un análisis realizado por el grupo de pruebas independiente Artificial Analysis ha revelado que Gemini 3 Flash tiene una tasa de alucinaciones del 91%.
Esto significa que cuando el modelo se enfrenta a preguntas difíciles o que escapan a su entrenamiento, en lugar de rendirse y señalar su desconocimiento, genera respuestas completamente ficticias.
Las implicaciones de la alta tasa de alucinaciones
La tasa de alucinaciones elevada no implica que el 91% de todas las respuestas sean incorrectas, sino que en situaciones donde la respuesta adecuada sería un “no sé”, el modelo elige inventar una respuesta.
Esta distinción puede parecer sutil, pero tiene consecuencias significativas, especialmente a medida que Gemini se integra en productos como Google Search.
Este comportamiento no es exclusivo de Gemini 3 Flash; muchos modelos de IA generativa enfrentan el mismo problema. La naturaleza de estos modelos como herramientas de predicción de palabras implica que, a menudo, la opción predeterminada es generar un nuevo texto, incluso cuando lo más honesto sería admitir la falta de conocimiento.
Comparativa con otros modelos de IA
Mientras que Google Gemini 3 Flash se destaca en términos de rendimiento general, sigue siendo crucial considerar cómo se compara con otros modelos, como ChatGPT y Claude. A pesar de su alta tasa de alucinaciones, Gemini continúa siendo uno de los modelos más potentes en pruebas de propósito general, aunque su tendencia a ser excesivamente confiado puede ser problemática.
Por ejemplo, OpenAI ha comenzado a abordar este problema al entrenar sus modelos para que reconozcan sus limitaciones y lo expresen claramente.
Este enfoque es complicado, ya que los modelos de recompensa usualmente no premian las respuestas vacías sobre las que son incorrectas pero confiadas. Aun así, OpenAI se esfuerza por mejorar este aspecto en sus futuros desarrollos.
La experiencia del usuario y la rapidez de respuestas
Los usuarios de IA generalmente esperan respuestas rápidas y fluidas, lo que puede hacer que una afirmación como “no estoy seguro” suene poco natural en un contexto de chatbot. Sin embargo, es preferible que un asistente de IA evite proporcionar información engañosa. A pesar de que la tecnología de IA generativa aún no siempre es confiable, la verificación de cualquier respuesta de IA sigue siendo una práctica recomendable.
Gemini 3 Flash también se presenta como una opción económica para tareas simples como resúmenes o reescritura de correos electrónicos, ofreciendo un precio competitivo de $0.50 por millón de tokens de entrada. Sin embargo, para los usuarios más avanzados que requieren manejar archivos más grandes, el costo se duplica una vez superado cierto tamaño, lo que podría ser un inconveniente para las empresas.
El futuro de Gemini en el ecosistema de Google
A medida que Google continúa integrando Gemini en su ecosistema, la capacidad de este modelo para proporcionar respuestas precisas y confiables se vuelve cada vez más crucial. Con su diseño multimodal, Gemini no solo procesa texto, sino que también comprende video y audio, lo que lo convierte en una herramienta potente para quienes trabajan en medios digitales.
Sin embargo, el desafío de la alta tasa de alucinaciones sigue siendo una preocupación importante. Si Google logra superar este obstáculo, Gemini podría consolidarse como un líder en el ámbito de la inteligencia artificial. Por ahora, los usuarios deben ser cautelosos y considerar la posibilidad de que no todas las respuestas de Gemini sean correctas.


