Según la Policía Nacional, los ciberdelincuentes están afinando sus métodos para llevar a cabo estafas en WhatsApp a un nivel más avanzado. Ya no se conforman con los viejos trucos, ahora utilizan inteligencia artificial para implementar el voice hacking. La app de mensajería es una de las más populares, pero también se ha convertido en terreno fértil para los hackers. Millones de usuarios comparten diariamente fotos, vídeos, documentos y, en algunos casos, incluso información bancaria a través de la plataforma. Esto la convierte en un objetivo atractivo para quienes buscan aprovecharse de la confianza que depositas en tus contactos. La última técnica conocida como la \"estafa del conocido" utiliza IA y una técnica que les permite clonar tu voz, la de un conocido o un familiar para engañarte y obtener dinero.Es por esta razón que la Policía Nacional ha lanzado una alerta que menciona que si recibes un mensaje o una llamada de uno de tus contactos pidiéndote dinero de forma urgente o información sobre tus datos bancarios, debes estar alerta, ya que podrías ser víctima de un fraude.No caigas en el nuevo fraude de WhatsApp: clonan la voz de tus contactosEste nuevo timo se basa en el voice hacking, una técnica que permite a los ciberdelincuentes clonar la voz de una persona utilizando inteligencia artificial. ¿Cómo lo hacen? Necesitan una muestra de voz de la persona que quieren suplantar, que pueden obtener de vídeos, redes sociales o incluso grabaciones de llamadas. Con esa muestra, la IA crea una réplica casi perfecta de la voz, la cual aprovechan para llevar a cabo sus fraudes. Una vez que tienen la voz clonada, los estafadores se hacen pasar por un contacto tuyo y te llaman por WhatsApp. Simulan una situación de emergencia, como un accidente o un problema económico, y te piden que les transfieras dinero urgentemente. Al final, como la voz es idéntica a la de tu contacto, es fácil caer en la trampa. Este tipo de técnica es peligrosa porque apela a la confianza que tienes en tus contactos. En este sentido, es más probable que le transfieras dinero a alguien que conoces y en quien confías, sin sospechar que en realidad se trata de un estafador.La IA ha demostrado ser una herramienta poderosa, pero en manos de ciberdelincuentes se convierte en una amenaza. Esta tecnología puede hacer mucho más que clonar voces: también se utiliza para generar imágenes falsas, manipular vídeos o automatizar ciberataques.El problema radica en que estas plataformas están cada vez más al alcance de personas con intenciones maliciosas. Esto plantea una preocupación legítima sobre cómo protegernos en un mundo donde lo digital y lo real se mezclan con tanta facilidad.Cómo protegerte del voice hacking Ante esta situación, es fundamental que extrememos las precauciones, por lo que si recibes una llamada o mensaje sospechoso, la Policía Nacional recomienda que verifiques siempre la información por otros medios antes de actuar, como llamar al contacto que supuestamente está en apuros. Es decir, no transfieras dinero sin confirmar la identidad de quien te lo pide, y mantén tu información personal y datos bancarios fuera de las redes sociales. Además, asegúrate de actualizar las configuraciones de privacidad en WhatsApp para limitar quién puede acceder a tu foto de perfil.