Durante el pasado 13 de mayo, OpenAI presentó al mundo las novedades sobre sus nuevos y futuros modelos de lenguaje. Entre ellos, dio a conocer al mundo GPT-4o, su actual y más potente modelo de lenguaje que dota a ChatGPT de mayor velocidad y comprehensión. Sin embargo, lo realmente sorprendente fueron las demos con las que presentaron este modelo, ya que la compañía mostró las capacidades de este modelo junto a la versión por voz.
ChatGPT era capaz de entender el contexto de la conversación y responder en tiempo real gracias a esta nueva evolución del modelo. Además, con ayuda de la cámara del teléfono móvil, el usuario puede conversar con la IA al más puro estilo de la película de ‘Her’ (algo que también les ha llevado a problemas), haciendo que las conversaciones sean más realistas. Sobre todo ello, OpenAI demostró cómo su IA podía analizar y procesar en tiempo real todo lo que se hace en pantalla, algo que no será exclusivo para dispositivos móviles y tabletas, sino que también llegará a ordenadores con macOS y Windows.
OpenAI comparte su hoja de ruta para futuros modelos de lenguaje
A pesar de que no pudimos conocer demasiado sobre los futuros modelos de lenguaje de la compañía, durante un posterior evento celebrado en París, OpenAI discutió a puerta cerrada la hoja de ruta que planean llevar a cabo acerca de ChatGPT y sus futuros modelos de lenguaje. En el evento hablaron de una mayor ‘democratización’ de sus modelos, ofreciendo alternativas …