Entre las más recientes y peligrosas modalidades de ciberestafa destaca la clonación de voz, que permite replicar con gran precisión la voz de cualquier persona, lo que permite luego inculpar al 'clonado' en ciberdelitos, o usarle para robar dinero o datos a sus contactos.
Esta amenaza, que ha irrumpido con fuerza como consecuencia del auge de la inteligencia artificial (IA), fue uno de los temas principales abordados en el III Cybercamp, organizado hace unos días por el Instituto Nacional de Ciberseguridad (INCIBE).
Según el especialista en fraude informático Javier Álvarez, participante en dichas jornadas, apenas cuatro segundos de conversación son suficientes para duplicar la voz de una persona y utilizarla para engañar a familiares o amigos. Así lo explica:
"Si te llaman y, utilizando la voz de un familiar, te dicen que hagas un Bizum o una transferencia porque ha perdido la cartera o necesita dinero, te lo vas a creer porque es su voz".
"Siempre es preferible desconfiar, aunque la desconfianza sea elevada al cuadrado. Si desconfiamos, podemos alguna vez quedar mal con algún amigo por no prestarle el dinero, pero el 99 por ciento de las veces vamos a haber evitado un fraude".
Este tipo de engaño no solo afecta a particulares, sino también a empresas, donde los estafadores pueden suplantar a directivos para ordenar transacciones fraudulentas.
En Genbeta
Oír la voz de un familiar cuando te llaman pidiendo rescate por él… y que esté sano y …