Microsoft integró en Bing el modelo de inteligencia artificial GPT-4, a pesar de las advertencias de la OpenAI de que realizara lentamente el proceso para evitar "respuestas inexactas e impredecibles" que se estuvieron difundiendo ampliamente en internet.
De acuerdo con The Wall Street Journal, OpenAI advirtió a Microsoft sobre los riesgos negativos que había al lanzar un chatbot que usara el nuevo modelo demasiado pronto. El resultado fue que Bing recibió la mejora de modelo, empezando a generar respuestas extrañas e impredecibles, llegando al punto de insultar a usuarios y generar teorías de conspiración.
Para solucionarlo, Microsoft tuvo que "arreglar" a Bing, lo que acabó con su personalidad original, volviéndose menos atractivo para una gran cantidad de usuarios, y requiriendo una gran cantidad de tiempo para ajustarlo hasta que pudiera tener una conversación relativamente larga con los usuarios sin generar contenido no deseado, aunque en ocasiones todavía es posible descubrir algunos de sus errores.
El lanzamiento de Bing con GPT-4 y las advertencias de OpenAI
En el reporte de WSJ las tensiones entre ambas compañías, que colaboran en muchos sentidos pero también compiten en otros, se generaron principalmente con el lanzamiento de ChatGPT en otoño, y Bing con IA meses después.
Según personas familiarizadas con el asunto, OpenAI reveló a Microsoft con algunas semanas de anticipación sobre que planeaban empezar pruebas públicas de su chatbot, mientras los de Redmond aún trabajan en integrar la …