Por qué los modelos de lenguaje siguen generando respuestas incorrectas

Las alucinaciones en modelos de lenguaje son un problema persistente. Descubre las razones y posibles soluciones.

por que los modelos de lenguaje siguen generando respuestas incorrectas python 1757289639

Recientes investigaciones han planteado preguntas fundamentales sobre los modelos de lenguaje, como GPT-5 y ChatGPT. A pesar de los avances significativos en tecnología de inteligencia artificial, estos modelos continúan generando respuestas incorrectas, un fenómeno conocido como alucinaciones. Este artículo analiza las causas de estas alucinaciones, cómo se producen y las sugerencias para mitigar su impacto en la interacción con los usuarios.

Definición y contexto de las alucinaciones en IA

Según un informe de investigación de OpenAI, las alucinaciones son descritas como “declaraciones plausibles pero falsas generadas por modelos de lenguaje”. Aunque se han hecho mejoras en la precisión de estos modelos, las alucinaciones siguen siendo un desafío fundamental. De hecho, los investigadores realizaron una prueba con un chatbot ampliamente utilizado, preguntándole sobre el título de la tesis doctoral de Adam Tauman Kalai, uno de los autores del estudio. El resultado fue sorprendente: el chatbot proporcionó tres respuestas diferentes, todas incorrectas. Esto plantea una pregunta crítica: ¿cómo puede un modelo ser tan erróneo y, sin embargo, mostrar una confianza notable en sus respuestas?

Los autores del estudio sugieren que estas alucinaciones se deben, en parte, al proceso de preentrenamiento de los modelos. Este proceso se centra en la capacidad de predecir la siguiente palabra en una secuencia, sin la guía de etiquetas que indiquen si las afirmaciones son verdaderas o falsas. “El modelo solo ve ejemplos positivos de lenguaje fluido y debe aproximarse a la distribución general de los datos”, explican.

Causas y mecanismos detrás de las alucinaciones

Una de las razones por las que se producen alucinaciones es que ciertos hechos, especialmente aquellos que son poco frecuentes o arbitrarios, como las fechas de cumpleaños, no pueden preverse únicamente a partir de patrones. “Errores en la ortografía y el uso de paréntesis siguen patrones consistentes, por lo que desaparecen con la escala”, afirman los investigadores. Esto resalta un aspecto crítico: los modelos tienden a fallar en áreas donde no pueden predecir basándose únicamente en patrones de lenguaje.

El estudio propone que el enfoque actual para evaluar estos modelos no causa las alucinaciones, pero “está configurando los incentivos de manera incorrecta”. Los investigadores comparan este tipo de evaluación con exámenes de opción múltiple, donde adivinar puede resultar en respuestas correctas por azar. “Cuando los modelos son evaluados solo en base a la precisión, se les alienta a adivinar en lugar de admitir ‘no sé’”, afirman.

Posibles soluciones para mitigar las alucinaciones

La solución propuesta por los investigadores sugiere un cambio en la forma en que se evalúan los modelos de lenguaje. En lugar de premiar las respuestas correctas sin penalizar las incorrectas, se sugiere implementar un sistema de evaluación que “penalice más los errores confiados que la incertidumbre” y otorgue crédito parcial por expresiones adecuadas de incertidumbre. Esto se asemeja a los exámenes como el SAT, donde se penaliza a aquellos que adivinan sin fundamento.

Los investigadores advierten que no es suficiente agregar “nuevas pruebas que tengan en cuenta la incertidumbre”. Es esencial actualizar las evaluaciones ampliamente utilizadas, asegurando que su puntuación desincentive las adivinaciones. “Si las puntuaciones principales siguen recompensando las suposiciones afortunadas, los modelos continuarán aprendiendo a adivinar”, concluyen.

Con este enfoque, se espera que el desarrollo de modelos de lenguaje más precisos y confiables sea posible, superando uno de los retos más persistentes en la inteligencia artificial contemporánea.

¿Qué piensas?

Escrito por Staff

transformacion de los call centers el impacto de la ia en el servicio al cliente python 1757286010

Transformación de los call centers: el impacto de la IA en el servicio al cliente

entendiendo la importancia de las recomendaciones de zdnet python 1757293289

Entendiendo la importancia de las recomendaciones de ZDNET