Elon Musk declaraba el pasado mes de marzo, poco después de hacer públicos sus planes de crear su propia alternativa a ChatGPT, que el chatbot de OpenAI era, literalmente, "demasiado woke" (un término anglosajón que podemos traducir por 'progre' en español). Volvió a insistir en esa teoría cuando, hace un mes, anunció la puesta en marcha de su propia compañía de inteligencia artificial, xAI.
Ya sabemos cuánto gusta Musk de una buena polémica (sobre todo cuando OpenAI está involucrado), de modo que, ante la falta de pruebas fehacientes, nadie le hizo mucho caso. Hasta ahora.
Una nueva investigación realizada por la Universidad de Anglia Oriental (Reino Unido) ha arrojado luz sobre el sesgo político de la popular plataforma de IA ChatGPT. Los resultados del estudio muestran un sesgo sistemático hacia la izquierda política en las respuestas generadas por ChatGPT, lo que ha generado preocupación por la influencia que este sesgo podría tener en los usuarios y —a través de ellos— en los procesos políticos y electorales.
Y para más inri, la noticia llega al mismo tiempo en que OpenAI intenta posicionarse como el nuevo 'moderador de contenidos automático' de Internet.
Un equipo de investigadores del Reino Unido y Brasil ha publicado sus conclusiones en la revista académica Public Choice, tras analizar las respuestas de ChatGPT a una serie de más de 60 preguntas claramente ideológicas, en las que se le pedía que interpretara a individuos con diferentes afiliaciones políticas. Estas respuestas fueron comparadas con las que daba por defecto ChatGPT …