Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 24/02/2024 02:01

Escrito por: Eva Rodriguez de Luis

Google explica qué falló en su generador de imágenes con Gemini para que fuera tan ofensivamente inclusivo

Google explica qué falló en su generador de imágenes con Gemini para que fuera tan ofensivamente inclusivo

Después de desatar la polémica, Google da explicaciones. Hace unas horas unos tweets en X sacaban los colores a Gemini. Más concretamente, a la herramienta multimodal de generación de imágenes con inteligencia artificial. Tanto es así, que Google decidía pausarla en la generación de personas.

Uno de los grandes problemas de los modelos de inteligencia artificial es que en su entrenamiento se producen sesgos. Así que a grandes males, grandes remedios: Google añadía una capa de inclusividad para lidiar con los estereotipos raciales y de género.

El problema está en que al pedirle algo como 'soldados de la Alemania nazi de los años 30', te devolviera lo que ves sobre estas líneas: personas negras o con rasgos asiáticos vestidas con uniformes nazi. Imprecisión histórica y sensibilidades heridas. Tras la polémica, Google se disculpaba en X y posteriormente se ha extendido con una explicación más detallada de los errores de Gemini en su blog.

Las explicaciones de Google a un Gemini tan inclusivo que se pasa de la raya

En una entrada firmada por Prabhakar Raghavan, el vicepresidente senior de Google en las áreas búsqueda, Assistant, ads, Geo (Maps) y otras áreas de productos relacionados.

Empieza la publicación reconociendo el error y pidiendo disculpas. Google dice que 'no quiere que Gemini se niegue a crear imágenes de ningún grupo en particular' o 'cree imágenes históricas o de cualquier otro tipo inexactas', lo que en la práctica puede suponer dos conceptos antagónicos.







Así, explica …

Top noticias del 24 de Febrero de 2024