Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 21/02/2024 14:16

Escrito por: Marcos Merino

Google Gemini 1.5 tiene muchísima más memoria (varios libros, de hecho) que otras IA que conoces. La clave: la ventana de contexto

Google Gemini 1.5 tiene muchísima más memoria (varios libros, de hecho) que otras IA que conoces. La clave: la ventana de contexto

En el vertiginoso mundo de la inteligencia artificial, la innovación constante está resultando ser la clave para desbloquear nuevas capacidades y mejorar las ya existentes (eso, y escalar la capacidad de cómputo de las máquinas, claro).

Recientemente, la presentación del modelo Gemini 1.5 por parte de Google DeepMind ha marcado un hito significativo en el desarrollo de modelos de lenguaje (o LLM), particularmente en lo que respecta a la ventana de contexto y la eficiencia en el procesamiento de información multimodal.

Espera, ¿qué es eso de la ventana de contexto?

Para entender el impacto de Gemini 1.5 Pro, es fundamental comprender qué es una ventana de contexto: se refiere a la cantidad total de tokens (por ejemplo, palabras o caracteres) que el modelo puede analizar al mismo tiempo para generar una respuesta. Esta limitación afecta directamente la capacidad del modelo para comprender y generar texto basado en la información proporcionada.

¿Nunca te ha pasado que te hayas puesto a charlar con un chatbot durante un buen rato y que, al hacer referencia a algo que le dijiste al comienzo de la conversación, ya no sea capaz de recordarlo? Pues es, sencillamente, porque la información aportada ha sobrepasado su ventana de contexto.










En Xataka

Google lleva dos décadas siendo el rey de las búsquedas. Ahora mira con inquietud a un futuro post-búsquedas


Tradicionalmente, modelos como GPT-3 tienen ventanas de contexto que van desde los 8.000 hasta los …

Top noticias del 21 de Febrero de 2024