Imagen de Veracruz 
FacebookTwitterYoutube
TIEMPO EN LA REGIÓN
17 de octubre del 2024
Diario del Istmo
Suscribete a nuestros boletines
Lo mas viral

¡Cuidado! Este es el mensaje de voz que te llega a WhatsApp que es una estafa

La clonación sería uno de los métodos utilizados por estas personas encargadas de estafar a través de WhatsApp.
| 2024-08-28 | Lidyvet Murillo
¡Cuidado! Este es el mensaje de voz que te llega a WhatsApp que es una estafa
Los estafadores se están valiendo de las redes sociales para poder estafar a las personas haciéndose pasar por sus familiares.
Imagen de VeracruzImagen de Veracruz

Las estafas hoy en día con ayuda de las nuevas tecnologías suelen ser más comunes entre las personas que se dedican a realizar estos actos ilícitos, por lo que deberías de estar muy pendiente que no sea tu caso en dado caso de recibir una notificación de estafa.

Con la inteligencia artificial muchos de estas personas que se dedican a realizar este tipo de actos suelen aprovecharse de las personas más vulnerables para poder robar sus datos personales.

La mayoría de este tipo de estafas se cometen a través de aplicaciones de mensajería instantánea como lo es WhatsApp, por ello, es que sus creadores han indicado que en este 2024 realizarán una serie de adecuaciones que permitan inhibir estos actos.

Y es que muchas personas suelen subir fotografías muy personales, así como videos, mismos que pueden ser hackeados por personas que se dedican a estos actos, por lo que debes considerar muy bien el contenido que ocupas.

¿Cuál es la nueva modalidad de estafas en WhatsApp?

Ahora se reporta una nueva modalidad en la que los usuarios reciben mensajes de voz extraños de un familiar o conocido, que podrían ser intentos de robo de información utilizando Inteligencia Artificial (IA).

Expertos advierten que los delincuentes están utilizando IA para clonar la voz de un familiar o amigo cercano, haciéndose pasar por ellos para engañar a las personas y obtener sus datos personales y financieros a través de WhatsApp. Para lograrlo, la inteligencia artificial necesita apenas tres segundos de un audio, el cual puede ser tomado de una llamada o de redes sociales.

¡Cuidado! Este es el mensaje de voz que te llega a WhatsApp que es una estafa
A través de la Inteligencia Artificial, los estafadores están realizando clonaciones de voces y fotografías de familiares para robar tus datos personales.

El objetivo de estos estafadores es acceder a información bancaria o persuadir a las personas para que realicen depósitos o transferencias. Por ello, es crucial no proporcionar información personal por teléfono, especialmente cuando alguien se presenta como empleado bancario, ya que muchos estafadores se hacen pasar por ellos.

¿Qué es el vishing?

Este tipo de estafa se conoce como vishing, un ataque de ingeniería social en el que el estafador se hace pasar por otra persona. El vishing es particularmente difícil de detectar debido al uso de la IA. Los delincuentes utilizan bots para realizar llamadas automatizadas a los contactos de la víctima, imitando la voz de un conocido o familiar.

Para evitar caer en este tipo de estafa, es esencial mantener la calma y no ceder ante la presión. Si recibes una llamada de un supuesto familiar que afirma estar en peligro, lo mejor es colgar y llamar directamente a esa persona para verificar su situación. Otra medida preventiva es pedir a la llamada que se identifique; si se trata de una voz generada por IA, es probable que no pueda hacerlo, lo que indicaría que es una estafa.

Por último, es recomendable mantener la información personal privada, especialmente en redes sociales, y adoptar un perfil bajo para reducir el riesgo de ser víctima de este tipo de fraude.

/lmr 

  • Lo último
  • Lo más leído
Diario del Istmo
Diario del Istmo

SÍGUENOS EN REDES

 

Nosotros | Publicidad | Suscripciones | Contacto | Aviso de Privacidad

 

 

Reservados todos los derechos 2024