Ayer, Stability AI —la compañía desarrolladora del modelo de inteligencia artificial de generación de imágenes Stable Diffusion— anunció el lanzamiento de la versión alfa de una nueva IA: StableLM. En este caso, como su nombre indica, se trata de un 'modelo de lenguaje'. Es decir, acaban de lanzar su propio GPT… y es open source.
En su comunicado, la empresa deja claro que la licencia de estos modelos es la Creative Commons BY-SA-4.0, por lo que "los desarrolladores pueden inspeccionar, utilizar y adaptarlos libremente con fines tanto comerciales como de investigación".
"La versión alfa está disponible en [versiones de] 3.000 millones y 7.000 millones de parámetros, a las que seguirán modelos de 15.000 a 65.000 millones de parámetros".
Esto está aún lejos del billón de parámetros de GPT-4 o los 175.000 millones de GPT-3, pero en Stability AI están convencidos de que no todo el rendimiento depende del tamaño (parámetros), sino también de la optimización de los contenidos con que se entrena al modelo:
"StableLM se entrena en un nuevo conjunto de datos experimental basado en The Pile [un famoso dataset usado por otros modelos open source], pero tres veces mayor. Daremos más detalles sobre este conjunto de datos a su debido tiempo. La riqueza de este conjunto de datos proporciona a StableLM un rendimiento sorprendentemente alto en tareas de conversación y codificación, a pesar de su pequeño tamaño".
En Genbeta
GPT-4 ha vuelto a cambiarlo todo: nueve increíbles …