Las alucinaciones de inteligencias artificiales han vuelto, esta vez protagonizadas por el chatbot de Meta AI. Todo comenzó tras el supuesto atentado contra el expresidente Donald Trump, evento que el asistente afirmaba nunca había ocurrido.
Según uno de los ejecutivos de la compañía, quien salió a aclarar el asunto, la alucinación de Meta AI se debió a un "problema conocido" en los chatbots, que no siempre son confiables, especialmente en noticias de último momento o al devolver información en tiempo real.
Los controles a Meta AI
Joel Kaplan, director global de políticas de Meta, explicó que su inteligencia artificial fue programada inicialmente para no responder preguntas sobre este incidente debido a la gran cantidad de contenido falso, contradictorio o a teorías conspirativas. Ante una consulta sobre el tema, la IA daba una respuesta genérica indicando que no podía brindar información.
Este tipo de comportamientos, derivó en que algunos usuarios informaran que la IA se negaba a hablar del evento, lo que llevó a actualizar las respuestas que el chatbot proporcionaba sobre este incidente.
Tras implementar algunos ajustes, Meta AI continuó con respuestas incorrectas "en una pequeña cantidad de casos", al punto de afirmar que el evento nunca había sucedido, un error del que la compañía estaba consciente y que se encontraba en proceso de solucionar.
El directivo también señaló que este tipo de respuestas es un problema que no solo afecta a Meta AI, sino a …