La Inteligencia Artificial ya es capaz de crear cuadros, generar imágenes con cualquier elemento o emular estilos pictóricos. Para acometer esta tarea, es entrenada a través de obras artísticas reales, creadas por artistas que, en muchos casos, no reciben remuneración por ello. Ante esta situación los artistas se han rebelado a través de Nightshade, la herramienta para envenenar la IA.Un software que altera las imágenes para confundir a la IASegún indica el MIT Technology Review, se trata de un software de código abierto que ha sido desarrollado por investigadores de la Universidad de Chicago. A su vez, está incluida en Glaze, una herramienta aún mayor desarrollada por los mismos investigadores, que impedía a las IA ser entrenadas con las obras de arte que las empleasen. Esta última alteraba las imágenes de forma imperceptible para el ojo humano, pero de manera que una IA se confundiese, no pudiendo usarlas para aprender. Sin embargo, Nightshade da un paso más: contraataca.La diferencia entre Glaze y Nightshade radica en que está última "estropea" el correcto funcionamiento de la IA. Su modus operandi consiste en clasificar erróneamente los conceptos que aparecen en la obra para que la máquina los aprenda mal. Un ejemplo básico, que se ha empleado con éxito para sus creadores, es hacer creer a la IA que un perro es un gato, y viceversa.What is Nightshade? It's a tool that performs a data poisoning attack against generative AI image models. Poisoning is not new. Poisoning genAI models at scale is new. You …