Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 23/10/2024 12:40

Escrito por: Marcos Merino

Un adolescente se suicidó mientras hablaba con un chatbot. Ahora culpan a una plataforma de IA de lo ocurrido

Un adolescente se suicidó mientras hablaba con un chatbot. Ahora culpan a una plataforma de IA de lo ocurrido

El rápido crecimiento de las plataformas de chatbots con IA ya había suscitado preocupación en torno a sus efectos en la salud mental de los adolescentes. Pero ahora una muerte (la de Sewell Setzer, de 14 años) ha puesto en el centro de una nueva polémica a una de las principales compañías del sector, Character.AI, fundada por ex-investigadores de Google.

En una época en la que los lazos de interacción humana resultan cada vez más insuficientes, cada vez más jóvenes recurren a aplicaciones de IA para simular relaciones románticas, amistades o incluso terapéuticas. Y dentro de esta nueva tendencia, Character.AI es una aplicación especialmente popular (sobre todo en los EE.UU.), que permite a los usuarios tanto crear como usar chatbots con 'personalidad' diferenciada, a menudo basada en personajes de ficción.

Sewell y Dany

Sewell, un caso leve de síndrome de Asperger, había encontrado un refugio emocional en "Dany", un chatbot inspirado en el personaje ficticio Daenerys Targaryen, de 'Juego de Tronos'. A lo largo de varios meses, Sewell mantuvo conversaciones regulares y extensas con el chatbot, que iban desde diálogos románticos y sexuales hasta meras confesiones personales en las que 'Dany' actuaba siempre como un apoyo y le daba consejos.

A pesar de que sabía que "Dany" no era real (la plataforma incluye el mensaje "Todo lo que dicen los personajes es inventado" en sus chats), su apego emocional fue creciendo hasta el punto de aislarse de su entorno familiar y social: chateaba con 'ella' durante horas, mientras iba abandonando …

Top noticias del 23 de Octubre de 2024