• hace 3 meses
Transcripción
00:00El primer ejemplo que tengo es muy sencillo.
00:03Es sólo contar la letra R en una palabra sorbete.
00:08Empecemos con el modelo tradicional, GPT-40.
00:13Como pueden ver, el modelo falla en esto.
00:17Hay tres R, pero el modelo dice que hay solo dos R.
00:21¿Por qué un modelo avanzado como el GPT-40 hace un error tan sencillo?
00:27Es porque modelos como este son construidos para procesar la letra,
00:33no con los personajes o palabras.
00:36Es entre, a veces, llamados sub-palabras.
00:39Entonces, si le preguntamos a un modelo una pregunta
00:43que involucre entender la noción de personajes y palabras,
00:46el modelo puede hacer errores porque no está realmente construido para eso.
00:51Ahora, vamos a nuestro nuevo modelo y escribimos el mismo problema.
00:56Este es el previo de 01, que es un modelo de previsión.
00:59Así que, a pesar del GPT-40, empieza a pensar sobre este problema antes de ejecutar la respuesta.
01:04Y ahora ejecuta la respuesta. Hay tres R en la palabra sorbete.
01:08Entonces, esa es la respuesta correcta.
01:10Y este ejemplo muestra que, incluso para un problema de contando que parece ser inrelativo,
01:15tener una previsión construida puede ayudar a evitar los errores
01:20porque puede, tal vez, mirar su propia respuesta y revisarla,
01:24y ser más cuidadoso, y así sucesivamente.