La IA es utilizada para estafar a personas mediante la clonación de voz
Las extorsiones telefónicas ya andan a otro nivel, pues los delincuentes están usando la Inteligencia Artificial (IA) para ser más efectivos al estafar.
Bastan 30 minutos de recopilación de su voz en audio para que puedan suplantar voces.
Mediante las notas de voz o cualquier video que usted tenga en las redes sociales, los criminales recurren a las herramientas de la inteligencia artificial para clonar su voz y usarla para extorsionar a sus familiares y amigos.
“La voz de una persona o cualquier tipo de sonido tiene un timbre y tiene unos aspectos muy específicos, el Chat GPT puede llegar a reproducir este tipo de cosas, obviamente, entendiendo algunos procesos de sonidos y demás, pero sí lo puede llegar a hacer”, dijo Iván Díaz, gerente de seguridad de ECR Colombia Ciberseguridad conversando con Marisol Valdés quien hizo pública estás informaciones en Caracol.
“Existen diferentes plataformas que hoy en día simplemente ingresando la voz o ingresando este tipo de información de la persona de la que quieren clonar la voz pueden generar nueva información de estas personas”, indicó Alexander Ramírez, gerente general de ESET Colombia.
Lea también: ChatGPT “Puede volverse peligrosa rápidamente” dice su creador
Cómo evitar a estos delincuentes
Hay que “evitar compartir grabaciones extensas de la voz, en línea o en plataformas públicas, configurar los ajustes de privacidad en tus redes sociales, limitar el acceso a notas de voz o restringir compartir información personal”, afirmó el experto Ramírez
Se sugiere establecer una palabra clave con su familia si llega a sospechar que la persona con la que habla está siendo suplantada.