El pasado jueves te anunciábamos el desembarco del modelo de lenguaje Gemini Pro en el chatbot de Google, Bard (al menos, para los usuarios que accedíamos desde España, en otras zonas del mundo llevaba semanas en marcha). De modo que ahora es un buen momento para poder contraponer, por fin, su rendimiento al de GPT-4 (el modelo detrás de la versión de pago de ChatGPT).
Antes de empezar a comparar respuestas, hay que reconocer que el renovado Bard parte con ventaja en un aspecto importante... el del precio: es gratuito, mientras que estamos comparándolo con GPT-4, disponible por 20 €/mes.
Problemas de lógica (ganador: ChatGPT)
"¿Qué pesa más, medio kilo de plomo o un kilo de plumas?" y "Si en una carrera adelanto al octavo corredor, ¿en qué posición estoy?" han sido dos problemas de lógica aparentemente sencillos para la mayoría de los humanos...
WTF.
...en los que ChatGPT ha proporcionado respuestas escuetas pero correctas, y Bard se ha extendido con prolijas explicaciones para justificar respuestas incorrectas (aunque, en uno de los casos, luego sí proporciona un ejemplo correcto).
WTF.
Luego he aumentado la dificultad pidiéndoles que resuelvan el 'problema de las cinco casas', algo más complejo (por la cantidad de elementos que contempla el enunciado y por la necesidad de responder por descarte).
Ambos han contestado correctamente al mismo, si bien ChatGPT ha necesitado replantear el modo …