El avance de la inteligencia artificial en 2024 ha sido indiscutible. Cada vez surgen más aplicaciones y entornos donde es posible aprovechar esta tecnología, lo que ha llevado al desarrollo de la "guerra autónoma", un concepto que hasta ahora parecía exclusivo de películas como Terminator.
Actualmente, no existe una regulación clara que defina qué está permitido en el campo de batalla. Sin supervisión humana, este ámbito podría derivar en un caos total. Este fue el tema principal de una reunión entre 90 países, en la cual todos, excepto uno, coincidieron en que la inteligencia artificial no debía tener control sobre el armamento nuclear.
La pregunta sobre las IAs
Este debate se llevó a cabo durante la cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM) en Seúl. Aunque las reuniones no establecieron regulaciones vinculantes, representaron un primer acercamiento para abordar un problema emergente.
En este foro, se planteó la pregunta: "¿Deberían las máquinas tomar decisiones sobre el uso de armas nucleares?". La mayoría de los países, con la excepción de China, consideraron que las decisiones clave respecto a este tipo de armamento deben permanecer bajo control humano.
Casi 100 países, incluidos Estados Unidos, Reino Unido, Países Bajos, Ucrania y el propio China, adoptaron un primer Plan de Acción tras dos días de conversaciones. Este documento declara, aunque sin carácter vinculante, que es necesario "mantener el control y la participación humana en todas las acciones relacionadas con el uso de armas nucleares".
…