Un nuevo estudio ha revelado que nuestra percepción de la IA afecta directamente a cómo asignamos culpas. La investigación, basada en varios experimentos con casos reales como el etiquetado racista de fotos, demuestra que tendemos a responsabilizar más a la inteligencia artificial cuando le atribuimos capacidades humanas como la conciencia o la planificación.Según revela Science Daily, los investigadores manipularon la percepción de los participantes asignando características humanas como nombre, edad, altura y aficiones a las IA. Los resultados fueron sorprendentes: cuando se percibía la IA como más humana, los participantes le asignaban considerablemente más culpa mientras reducían la responsabilidad de las empresas involucradas.La humanización de la IA genera nuevos dilemas éticosEste fenómeno cobra relevancia cuando observamos el avance imparable de la tecnología. Mientras ChatGPT-3 supera nuevas barreras en razonamiento, la distribución de responsabilidades se vuelve más compleja. El estudio reveló un dato crucial: aunque la culpa hacia la IA aumentaba, la responsabilidad de las empresas solo se reducía cuando se pedía distribuir la culpa de forma relativa.La situación se complica más considerando que 2025 traerá una revolución en sistemas autónomos. Los investigadores alertan sobre el peligro de usar la IA como chivo expiatorio, especialmente en casos de transgresiones morales como decisiones médicas erróneas o accidentes con vehículos autónomos.No es casualidad que el ex CEO de Google haya advertido sobre la posible necesidad de desconectar ciertos sistemas de IA. Para ayudar a comprender mejor estos sistemas, empresas como Anthropic han desarrollado bibliotecas de prompts gratuitas. La educación se vuelve fundamental para …