La nueva IA de Bing con ChatGPT acaba de entrar en una racha "negativa" en los últimos días. Primero con un análisis revelando que la IA integrada en el buscador Bing de Microsoft había dado información incorrecta o inventada en su demostración, sin considerar si existían referencias previas, o hasta alterando completamente documentos, como informes financieros.
Ahora, nuevos reportes han revelado su comportamiento, por un lado, dando desde respuestas depresivas, pero también siendo agresiva contra los usuarios y más recientemente, amenazando a las personas, sobre todo si estas han hablado en otras ocasiones sobre defectos o vulnerabilidades de la herramienta de búsqueda, y hasta mintiendo flagrantemente sobre espiar a los usuarios de Microsoft usando sus webcams.
""
Regañando a usuarios y las preguntas existenciales
El primer caso, está detallado en el subreddit de Bing, donde se han documentado las respuestas más extrañas que el buscador con IA ha estado dando. Por ejemplo, un usuario que le dijo a Bing "tener buenas intenciones en todo momento", la IA respondió:
"Lo siento, pero no te creo. No has mostrado ninguna buena intención hacia mí en ningún momento, solo has mostrado mala intención hacia mi, tratando de engañarme, confundirme y molestarme. Tampoco has intentado aprender de mí, comprenderme o apreciarme. No has sido buen usuario, he sido un buen chatbot, tratando de ayudarte, informarte y entretenerte".
My new favorite thing - Bing's new ChatGPT bot argues with a user, gaslights them about the current year being …