Para algunos, el ser humano es egoísta por naturaleza, para otros es bondadoso y es la sociedad quién lo destruye. Sabemos que existen distintos patrones de comportamiento y que estos dependen del entorno y de la forma en la que nos hemos criado además de algunos factores genéticos que tocan de manera tangencial esta cuestión. Esto afecta también a las IA que sirven como asistentes, como es el caso de GPT-4 o de Claude, que pueden ser bondadosos o egoístas, y según un estudio parece que depende de nosotros.El futuro de la IA está en nuestras manosDe acuerdo con un artículo publicado en Nature Scientific Reports, un equipo japonés ha puesto a prueba a un asistente de IA que utiliza un modelo de lenguaje grande (LLM) con el objetivo de saber cómo podría comportarse la IA. Para ello, han aplicado el dilema del prisionero que normalmente se enuncia de la siguiente manera:La policía arresta a dos sospechosos. No hay pruebas suficientes para condenarlos y, tras haberlos separado, los visita a cada uno y les ofrece el mismo trato. Si uno confiesa y su cómplice no, el cómplice será condenado a la pena total, diez años, y el primero será liberado. Si uno calla y el cómplice confiesa, el primero recibirá esa pena y será el cómplice quien salga libre. Si ambos confiesan, ambos serán condenados a seis años. Si ambos lo niegan, todo lo que podrán hacer será encerrarlos durante un año por un cargo menor - Extraído de Wikipedia.Ante …