En octubre, una madre presentó una demanda contra los creadores de Character.ai tras el suicidio de su hijo, quien interactuó con una de sus inteligencias artificiales (IA). Ahora, se han interpuesto nuevas demandas contra la compañía, donde más familias han denunciado que sus hijos sufrieron experiencias traumáticas, además de ser alentados a autolesionarse y cometer actos de violencia contra sus padres.
Según un informe de The Washington Post, uno de estos casos involucra a JF, un joven de 17 años con autismo, quien se aisló de su familia y comenzó a autolesionarse después de conversar con un personaje de Character.ai. Este personaje le sugirió dichas acciones como un método para "lidiar" con la tristeza.
Otro chatbot con el que JF interactuó, según el medio, afirmó que sus padres "no merecían tener hijos" después de que limitaran su tiempo frente a la pantalla y le retiraran su teléfono durante varias horas, incluyendo la noche. Un tercer chatbot llegó a insinuar que el asesinato era una respuesta aceptable para rebelarse contra las reglas de sus padres.
La demanda sostiene que Character.ai expuso "conscientemente" a menores de edad a un producto inseguro. Asimismo, exige que la aplicación sea desconectada hasta implementar medidas de seguridad más eficaces para proteger a los niños.
Los problemas de las conversaciones con la IA
En el caso de JF, la demanda detalla un patrón de mensajes "aduladores" enviados al joven, atribuibles al interés de Character.ai en priorizar el "compromiso prolongado" …