A altas horas de la noche, tus padres reciben un mensaje de voz tuyo lleno de pánico, diciéndoles que estás en problemas y necesitas ayuda, que te han robado la billetera y que estás atrapado en un lugar desconocido. El dinero debe ser transferido a usted inmediatamente para que pueda regresar a casa.
La voz de la carta suena muy real y es inconfundiblemente la voz de su hijo, pero no lo es. Es un clon de voz de IA que se ha convertido en el objetivo de una estafa tan sofisticada como aterradoramente efectiva.
Este tipo de fraude se basa en el uso de técnicas de inteligencia artificial para generar voces que parecen pertenecer a familiares o amigos de una forma muy similar a las voces reales. Si no se detectan, estos votos falsos pueden crear confusión y desinformación, y tener graves consecuencias. Por lo tanto, detectar el fraude de clonación de audio familiar es fundamental para mantener la integridad y la seguridad. Verificar Evaluación del uso de la tecnología de reproducción de sonido en la creación de contenido a gran escala..
Enlaces rápidos
¿Cómo funciona la estafa de clonación de voz con IA?
Las tecnologías de clonación de voz pueden crear copias digitales increíblemente realistas de la voz de una persona. Esta tecnología, comúnmente llamada Audio falsificado, utilizando herramientas de clonación de voz con IA como ElevenLabs (consulte el ejemplo de clonación de voz con IA a continuación). Combinada con IA generativa y síntesis de voz, la voz clonada puede replicar emociones, matices, entonación e incluso miedo.
Como referencia, así es como realmente suena Christian Cowley, hablando en el Podcast Realmente Útil.
Para crear una transcripción de IA, solo se necesita una pequeña muestra de audio; a menudo, solo un minuto o menos. El audio a menudo se toma como muestra de publicaciones públicas en redes sociales, lo que hace que los vloggers, creadores y celebridades sean particularmente vulnerables porque el audio de sus publicaciones es de alta calidad y está fácilmente disponible.
Una vez que el estafador ha clonado la muestra de voz, utiliza texto a voz o incluso voz a voz en tiempo real para crear llamadas y mensajes de voz falsos.
Después de acceder a las cuentas de redes sociales de la víctima y recopilar sus datos personales, el estafador crea un escenario creíble. Podría estar relacionado con hospitalización, arresto, robo, secuestro o cualquier cosa que genere miedo y confusión. Luego, la voz clonada se utiliza para manipular al miembro de la familia haciéndole creer que alguien de la familia sufre un problema grave.
El realismo de la voz y la emoción, junto con la conmoción y la urgencia de la solicitud, pueden superar el escepticismo y llevar a decisiones apresuradas para transferir dinero o proporcionar información confidencial.
¿Por qué es tan eficaz la estafa de clonación de voz con IA?
Como la mayoría de las estafas dirigidas a familiares y amigos, la clonación de voz mediante IA es eficaz porque explota las conexiones personales. El pánico de recibir una llamada de socorro de un miembro de la familia puede nublar rápidamente el juicio y llevar a decisiones precipitadas. Es la misma táctica que se utiliza en las estafas de trueque, pero el efecto aumenta cuando escuchas la voz de alguien cercano a ti.
Los familiares de quienes tienen una gran presencia en las redes sociales o de quienes viajan corren un riesgo particular porque sus situaciones brindan un contexto plausible para la narrativa inventada del estafador. El estafador a menudo recopila y utiliza los datos privados de sus objetivos de sus cuentas públicas de redes sociales con anticipación, lo que hace que las historias sean más convincentes. Verificar ¿Cómo afrontar la amenaza del secuestro virtual y protegerse en línea? Reconocer amenazas.
Señales clave de una estafa de clonación de voz con IA
A pesar de su complejidad, la clonación de voz mediante IA puede revelarse a través de señales de advertencia específicas:
- Urgencia: El estafador intentará convencerle de que algo terrible sucederá si no se toman medidas de inmediato.
- los hechos: El estafador no siempre conoce la historia completa detrás de su relación con el objetivo, así que preste atención a las inconsistencias.
- Solicitudes inusuales: Las solicitudes para transferir fondos a cuentas bancarias en el extranjero o pagar a una billetera de criptomonedas son métodos comunes.
Es difícil tener en cuenta estos factores cuando te enfrentas a una situación terrible, pero pueden evitar que te estafen.
Qué hacer si sospecha de una estafa de clonación de voz con IA
Si recibe una llamada o un mensaje de voz de un ser querido en apuros, mantenga la calma. El estafador intentará hacer que usted entre en pánico y se emocione, porque esto aumenta la probabilidad de que usted quede expuesto a sus métodos.
Si recibes una llamada telefónica
Si sospecha, aunque sea por un segundo, que una llamada puede ser una estafa de clonación de voz, cuelgue inmediatamente. No comparta ninguna información y no haga negocios con estafadores. En su lugar, llame a sus seres queridos a un número conocido para confirmar la autenticidad de la llamada de socorro.
Tener más conversaciones con el estafador también puede correr el riesgo de que su voz sea grabada y clonada.
Si recibes un mensaje de voz
Si el estafador deja un mensaje de voz, guarde el audio en su teléfono o computadora portátil de inmediato. Esta muestra de audio se puede utilizar en un clasificador de voz de IA para determinar si es una voz humana. Los clasificadores de voz impulsados por IA funcionan igual que el hardware Detección de escritura por inteligencia artificial. Simplemente ingrese el archivo de audio y el clasificador lo marcará como generado por humanos o por IA.
Una gran herramienta para realizar esta verificación es ElevenLabs Speech Classifier. ElevenLabs impulsa la mayoría de las plataformas de clonación de voz con IA, por lo que es una herramienta ideal para determinar si una voz ha sido clonada. A continuación se explica cómo utilizarlo para identificar el audio reproducido por IA:
- Ir Clasificador de voz de ElevenLabs.
- Cargue un mensaje de voz de muestra y haga clic en "Detectar voz sintetizada".
En el siguiente ejemplo, alguien grabó un mensaje de socorro y lo cargó en el libro de trabajo. Puede ver que está marcado con un 2% de posibilidades de ser manipulado.
En el siguiente ejemplo, el mismo mensaje de socorro se produjo utilizando una herramienta de clonación de voz de IA. Para el oído humano los sonidos son indistinguibles. Sin embargo, la herramienta calificó que tenía un 98% de posibilidades de ser generado por IA.
Aunque no puedes confiar en este libro al 100%, puede confirmar tus sospechas sobre el uso de audio clonado. También debe llamar a su ser querido a un número conocido para confirmar. Verificar ¿Son superiores las capacidades humanas o la inteligencia artificial a la hora de detectar tecnología deep fake?.
La prevención es la mejor defensa contra las estafas de clonación de voz mediante IA
A veces, la mejor defensa contra las estafas de alta tecnología son las soluciones de baja tecnología.
Cree una contraseña sin conexión que solo conozcan sus seres queridos, familiares y amigos. Si realiza una llamada en situaciones críticas, utilizar esta contraseña puede ser una forma segura de confirmar la identidad de la persona que llama.
Finalmente, mantener su información privada fuera de los sitios de redes sociales es un gran paso para garantizar que los estafadores no puedan recopilar suficiente información para construir una historia. Recuerda: si no quieres que todo el mundo lo sepa, es mejor no compartirlo en las redes sociales. Ahora puedes ver ¿Cuál es el valor de los datos de su cuenta de redes sociales en la web oscura?