Los delincuentes están comenzando a utilizar la inteligencia artificial para clonar la voz de personas que conocemos. Ahora son capaces de, por ejemplo, emular la voz de tu madre para pedirte que le llames a un número o realices una transferencia. Las estafas de clonación de voz son muy peligrosas porque resulta complicado distinguir una falsa locución de una real, además de que se ganan nuestra confianza mediante la supuesta llamada de alguien cercano, algo que también significa que los delincuentes saben quienes somos y en quien confiamos.El último caso reportadoEn qué consiste la estafa de clonación de vozCómo defendernos ante ellasQué hacer si hemos accedido a sus propuestasEl último caso reportadoRecientemente el Instituto Nacional de Ciberseguridad (INCIBE) ha alertado de un intento de estafa mediante clonación de voz. Una usuaria contactó con ellos tras sufrir un intento de estafa: recibió una llamada desconocida y, cuando descolgó, escuchó la voz de su marido diciéndole textualmente:"¡Hola! No te puedo llamar, envíame un mensaje a este número [X]"Reconoció que era una locución y le pareció extraño, por lo que decidió no hacer caso a la llamada. Lo que hizo fue llamar al número de su marido, quien le confirmó que no le había llamado. No es el primer caso que se reporta, pero sí un buen ejemplo para explicar cómo funciona este tipo de fraude.En qué consiste la estafa de clonación de vozLa inteligencia artificial ya permite crear locuciones de voces de personas, y no solo de famosos, sino de cualquier persona …