Google ha publicado sus principios sobre inteligencia artificial en forma de siete mandamientos o, llamémosle, manifiestos de intenciones por aquello de que un gran poder conlleva una gran responsabilidad. Son estos:
Google: objetivos para las aplicaciones de inteligencia artificial
Google cree que la inteligencia artificial debe
Ser socialmente beneficiosa
Evitar crear o reforzar sesgos injustos
Construirse y comprobarse de cara a la seguridad
Ser responsable ante la gente
Incorporar principios de diseño de privacidad
Mantener altos estándares de excelencia científica
Estar disponible para usos que concuerden con estos principiosAunque muchas de estas cuestiones éticas son debatibles, la lectura de este manifiesta explica por qué Google ha anunciado que no continuará colaborando con los militares estadounidenses (se puede cuestionar que sea #1 beneficioso, #3 seguro o #4 responsable) y también establece las lineas rojas que ningún proyecto debería cruzar.
Recientemente también se cuestionaba el comportamiento de la inteligencia artificial de Google Duplex, todavía en fase experimental, pues «podía engañar a la gente haciéndose pasar por un ser humano» (entre otras cosas). Esto rompería el principio #4 de responsabilidad y quizá alguno más.
Hubiera estado bien añadir el tradicional Don’t be evil que por desgracia Google ha ido relegando año a año en su código de conducta hasta algo bastante irrelevante (igual que Alphabet, de quien es filial), pero al menos tienen siete mandamientos que no suenan mal y están obligados a cumplirlos. Si con el tiempo los ignoran, modifican o amplían, será otra cuestión.
# Enlace Permanente