Sam Altman, CEO de OpenAI —compañía desarrolladora de ChatGPT— participó hace unos meses en el evento 'Imagination in Action', organizado por el MIT… y, en un momento en el que ChatGPT está en boca de todos como buque insignia de la industria de la IA, algunos de los temas que se mencionan a lo largo de su intervención son ciertamente relevantes.
Así, por ejemplo, realiza un vaticinio sorprendente para muchos: que nos estamos acercando al límite de tamaño (medido en número de parámetros) de los grandes modelos de IA generadores de texto… pero que eso no significa que hayan alcanzado su techo de capacidad, pues podremos mejorarlos de otras maneras.
Denunciaba Altman cierta obsesión de la industria a la hora de sacar pecho por el número de parámetros de cada LLM, y lo compara directamente con la carrera entre fabricantes de chips que se dio en las décadas de 1990 y 2000 por conseguir el mayor número de megahercios.
"Por aquel entonces todos intentaban destacar sus grandes cifras". Hoy en día, sin embargo, los GHz han pasado a un segundo plano, y Altman cree que lo mismo deberíamos hacer con los parámetros de los modelos de IA, pues ambos son malos indicadores de calidad:
"La mayoría de vosotros no sabe cuántos gigahercios tiene su iPhone, pero sí que es rápido. Lo que realmente nos importa son las capacidades, y creo que es importante que nos mantengamos centrado en aumentar rápidamente la capacidad [de los LLM]".
…