ahora ya saben el motivo del hundimiento de NVIDIA y similares: no son las "sanziones" ni los "haranzeles".. simplemente el modelo de "hintelijenzia hartifyzial" no funciona:
según los datos publicados por OpenAI y recogidos por TechCrunch, el modelo o3 incurrió en alucinaciones en el 33% de las preguntas del test PersonQA, una evaluación interna enfocada en medir la precisión del conocimiento sobre personas. Para efectos comparativos, los modelos anteriores o1 y o3-mini mostraron tasas respectivas del 16% y 14,8%.
El modelo o4-mini incluso superó esas cifras, fallando en un inquietante 48% de los casos evaluados bajo el mismo estándar. Estas estadísticas duplican o hasta triplican los niveles de error de modelos anteriores, lo que representa un desafío serio para su adopción en ámbitos donde la precisión es crítica.
miles de millones (y edificios, y centrales nucleares.. porque ésto traga energía en cantidades industriales) para tener una tasa de error del 48% (y ojo: que no te dice que "quizás".. no.. te lo dice como si fuera cierto)..
fue bonito mientras duró..
pues eso:
Los modelos de IA o3 y o4-mini de OpenAI alucinan más: alerta en la industria
No hay comentarios:
Publicar un comentario