Esta semana ocurrió un hecho insólito. Pusieron a una IA al mando de una empresa, y a esta hora ha despedido a más del 95% de la plantilla. Hace unos meses, un estudio simuló un conflicto para ver cómo lo resolvían las cinco IAs más avanzadas. Los algoritmos acabaron “lanzando” un arsenal nuclear “para tener paz en el mundo”. Son solo dos ejemplos donde la IA se pasó de frenada que sirven para entender lo ocurrido en Estados Unidos cuando una herramienta podía evaluar al “inquilino ideal”.
Una app bajo escrutinio. SafeRent es una herramienta de evaluación de inquilinos impulsada por inteligencia artificial, una que a esta hora se ha visto obligada a dejar de usar su sistema de puntuación para los usuarios que utilizan los vales o bonos de vivienda en Estados Unidos, tras una demanda colectiva que ha acusado a la empresa de discriminación basada en ingresos y raza.
El caso, que ha culminado con un acuerdo de 2.3 millones de dólares, fue aprobado por la jueza federal Angel Kelley, prohibiendo prácticas discriminatorias bajo la Ley de Vivienda Justa y las leyes de Massachusetts.
En 3D Juegos
Elon Musk no se anda con rodeos y solicita una compensación económica a los creadores de ChatGPT por "inflar el mercado por interés"
Discriminación. La demanda, presentada en 2022, alegaba que el algoritmo de SafeRent perjudicaba de manera desproporcionada a solicitantes de vivienda negros e hispanos, así …