Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 13/11/2024 12:11

Escrito por: Marcos Merino

La evolución de la IA generativa ha estancado, según uno de los creadores de ChatGPT: 'más' ya no es necesariamente 'mejor'

La evolución de la IA generativa ha estancado, según uno de los creadores de ChatGPT: 'más' ya no es necesariamente 'mejor'

La inteligencia artificial (IA) ha sido uno de los grandes avances tecnológicos de los últimos años, pero el modelo de desarrollo que ha impulsado sus aplicaciones más famosas (como GPT4 o MidJourney) parece haber agotado sus límites de crecimiento...

...por lo que los investigadores científicos y compañías del sector están buscando alternativas al enfoque tradicional de 'escalar' modelos, mientras enfrentan problemas de eficiencia, costos y resultados decrecientes.

Las limitaciones de escalar

Por "escalar", en el ámbito de los modelos de IA, nos referimos a mejorar su rendimiento aumentando su tamaño y capacidad mediante el uso de más datos y de mayor potencia computacional y parámetros, algo que pasa por entrenar redes neuronales más grandes y complejas utilizando cantidades masivas de recursos computacionales.

Pero la formación de estos modelos masivos no sólo es costosa (puede superar las decenas de millones de dólares por "ciclo de entrenamiento") sino también incierta, pues los investigadores no pueden predecir si el resultado justificará la inversión hasta que el proceso finalice, lo cual puede durar meses.

En cualquier caso, a medida que los modelos se hacen más grandes, la tendencia general es que los costos de entrenamiento, la necesidad de datos de alta calidad y los desafíos técnicos aumentan de manera desproporcionada... mientras que la rentabilidad de dicho esfuerzo se reduce progresivamente.










En Genbeta

"No estamos aquí para masturbarnos por el número de parámetros". El CEO de OpenAI quita importancia a lo que más se …

Top noticias del 13 de Noviembre de 2024