El lanzamiento de DeepSeek ya se ha convertido en un hito notable en la evolución de los modelos de IA, uno que demuestra que la comunidad 'oepn source' es capaz de igualar (o, al menos, de acercarse mucho), el rendimiento de los modelos propietarios de OpenAI, Google y Anthropic.
Su informe técnico (un PDF de 53 páginas) ofrece una gran cantidad de información detallada sobre cómo lo ha logrado; más interesante aún: de cómo lo ha logrado con recursos informáticos limitados.
Así esquiva las restricciones de exportación estadounidenses
En el competitivo mundo de la IA, la eficiencia computacional es un aspecto clave, sobre todo cuando estás sometido a limitaciones de hardware. DeepSeek ha logrado optimizar el rendimiento del suyo sin infringir las restricciones de exportación de chips impuestas por los EE.UU. a China.
Su secreto radica en tener en cuenta que innovar en materia de software puede ser tan útil como hacerlo en el campo del hardware: DeepSeek ha recurrido a un código de bajo nivel altamente eficiente que maximiza la gestión de la memoria y la comunicación entre los nodos (bloques de GPUs), logrando que estos procesen información y se comuniquen al mismo tiempo, sin generar 'atascos de datos'. Esta técnica se denomina 'Cross-Node All-to-All Communication'.
En Genbeta
NVIDIA ha triunfado este año gracias a sus chips para IA. Pero AMD es un serio rival que solo necesita una mejora en su software
Sólo se …