Cali, abril 15 de 2025. Actualizado: martes, abril 15, 2025 20:23

Delincuentes usan la IA para clonar la voz y estafar

Responder por audios podría representar un peligro, vea porqué

Responder por audios podría representar un peligro, vea porqué
Foto: Freepik
martes 8 de agosto, 2023

La inteligencia artificial ha revolucionado muchos aspectos de nuestra vida cotidiana, sin embargo, también está siendo usada para fines criminales, e incluso, en estafas con su propia voz, por lo cual, responder con audios podría ser peligroso.

La IA ha marcado un antes y después en el mundo de la tecnología, desde la forma en que interactuamos con la tecnología hasta la manera en que realizamos transacciones financieras.

No obstante, uno de los peligros emergentes es el uso de la inteligencia artificial para clonar la voz de las personas y perpetrar engaños y estafas de manera más convincente que nunca.

Así usan la inteligencia artificial para clonar la voz

Los delincuentes que utilizan la inteligencia artificial para clonar la voz han desarrollado técnicas sofisticadas para lograr sus objetivos fraudulentos.

Uno de los enfoques más comunes es el uso de software de síntesis de voz que utiliza algoritmos de IA para analizar y replicar patrones vocales específicos.

Por tanto, a través de este proceso, pueden crear grabaciones de audio de alta calidad que suenan sorprendentemente similares a la voz de la víctima con las que los estafadores pueden usarla para llevar a cabo una variedad de ataques.

En ese sentido, uno de los métodos más preocupantes es el fraude de suplantación de identidad, en el que los delincuentes llaman a las víctimas haciéndose pasar por figuras de autoridad, seres queridos o colegas de confianza.

De acuerdo con lo anterior, los criminales solo necesitan un audio para replicar su tono vocal, por ello, ha surgido preocupación por lo que muchas personas usan las notas de audio para comunicarse fácilmente, representando un peligro.

Tipos de Estafas con voz clonada por IA

Estafas de Soporte Técnico

Los estafadores se hacen pasar por técnicos de soporte legítimos y utilizan la voz clonada para persuadir a las víctimas de que deben proporcionar acceso a sus dispositivos o realizar pagos por servicios ficticios.

Fraudes Financieros

Los delincuentes pueden llamar a las víctimas haciéndose pasar por instituciones financieras y solicitar información personal o realizar transferencias de dinero fraudulentas.

Suplantación de Identidad

Mediante el uso de la voz clonada, los estafadores pueden hacerse pasar por familiares, amigos o colegas, aprovechando las relaciones de confianza para obtener información sensible.

Phishing por llamada

Utilizando la voz clonada, los estafadores pueden realizar llamadas convincentes para solicitar información confidencial, como contraseñas o números de seguridad social.

Fraudes en llamadas de video

Al clonar la voz y combinarla con tecnologías deepfake, los delincuentes pueden crear videos falsos que parecen mostrar a la víctima realizando acciones comprometedoras, luego exigen un rescate.

Es crucial mantener la precaución al recibir llamadas o mensajes de voz, especialmente si solicitan información personal o financiera. Además, es importante verificar la identidad del remitente antes de compartir datos confidenciales.

Comments

ads_top
Powered by Sindyk Content
Arriba