"No, no hemos hecho que GPT-4 sea más tonto. Todo lo contrario: hacemos que cada nueva versión sea más inteligente que la anterior". Esto decía hace una semana Peter Welinder, vicepresidente de producto de OpenAI, ante las quejas crecientes de la comunidad, que aprecia una degradación en la experiencia de usuario.
Welinder no decía que estuvieran mintiendo, sino que proponía una hipótesis: "Cuando lo usas más, empiezas a notar problemas que antes no veías".
"Si tienes ejemplos en los que creas que se ha retrocedido, responde a este hilo y lo investigaremos".
Y varios usuarios respondieron, claro que sí. Así, por ejemplo, uno calificaba su hipótesis de 'razonable', "pero…
"… faltan cosas ahí. Puedo garantizarte que, como mínimo:
En un solo mensaje, sólo acepta un número menor de tokens.
El búfer circular es más pequeño, por lo que olvida los mensajes iniciales con más facilidad.
Es evidente que ChatGPT 4 solía permitir un mayor número de tokens que ChatGPT 3.5, y ahora es al revés".
En Genbeta
“Con GPT-4 puedes ganar 1.000 euros al día sin hacer nada”: qué hay detrás de estos mensajes en redes sociales
¿En qué se traducen estos detalles técnicos? Pues así lo describe otro usuario:
"La calidad se ha reducido, en mi opinión. ChatGPT ahora olvida el contexto proporcionado en mensajes anteriores: tienes que repetirlo, y si quieres un análisis —sobre tres trozos de código por ejemplo— para cuando llegas al …