20250421

Los modelos de IA o3 y o4-mini de OpenAI alucinan más: alerta en la industria

ahora ya saben el motivo del hundimiento de NVIDIA y similares: no son las "sanziones" ni los "haranzeles".. simplemente el modelo de "hintelijenzia hartifyzial" no funciona:

según los datos publicados por OpenAI y recogidos por TechCrunch, el modelo o3 incurrió en alucinaciones en el 33% de las preguntas del test PersonQA, una evaluación interna enfocada en medir la precisión del conocimiento sobre personas. Para efectos comparativos, los modelos anteriores o1 y o3-mini mostraron tasas respectivas del 16% y 14,8%.

El modelo o4-mini incluso superó esas cifras, fallando en un inquietante 48% de los casos evaluados bajo el mismo estándar. Estas estadísticas duplican o hasta triplican los niveles de error de modelos anteriores, lo que representa un desafío serio para su adopción en ámbitos donde la precisión es crítica.


miles de millones (y edificios, y centrales nucleares.. porque ésto traga energía en cantidades industriales) para tener una tasa de error del 48% (y ojo: que no te dice que "quizás".. no.. te lo dice como si fuera cierto)..

 

fue bonito mientras duró..


pues eso:

Los modelos de IA o3 y o4-mini de OpenAI alucinan más: alerta en la industria

No hay comentarios: