Tecnología
14/07/2023
Ojo que pueden clonar tu voz con inteligencia artificial y estafarte
Desde BBC, aseguran que cada vez es más frecuente este modus operandi.
El uso malicioso de la inteligencia artificial es cada vez más frecuente. En este caso, desde BBC informan que cada vez es más común que se reciban denuncias de estafas realizadas de manera telefónica clonando la voz de personas conocidas de a quien se hace la llamada.
Pero, ¿cómo lo hacen? Es muy común que en tus redes sociales tengas videos en los que se escuche tu voz. Los estafadores lo que hacen es entrenar a una Inteligencia Artificial con estos audios para poder clonar, o llegar a una muy buena imitación, de tu tono. Así, llaman a una persona que sea cercana, como podría ser un familiar, y se hacen pasar por vos. Se menciona un caso en el que una madre recibió una llamada de su hija secuestrada, pero resultó ser una falsificación de voz. Un truco viejo con nueva tecnología.
Esta aberración ya se ha utilizado para influir en la opinión pública, falsificando audios de políticos y demás personajes reconocidos; por lo que también es un riesgo para la difusión de desinformación.
Desde esta plataforma internacional, recomiendan a las personas ser más cautelosas con lo que publican en sus redes. Además, siempre asegurarse haciendo un llamado a la persona a la que podrían estar imitando para verificar que se trate de la misma.
Por otro lado y ya con mayor complejidad, sugieren un softwares y programas que ayudan a identificar las falsificaciones mediante la comparación de espectrogramas.
¿Te da miedo hasta dónde podría llegar la IA?