ilustrasi-menelepon_169.jpeg


Yakarta, CNN Indonesia

cibercrimen cada vez más sofisticado a medida que la tecnología continúa desarrollándose inteligencia artificial (AI). Una cosa que está cada vez más extendida es la suplantación de voz mediante IA.

AI Voice Spoofing es un método fraudulento que utiliza IA para clonar y engañar por teléfono o mensajes de voz. Esta tecnología es capaz de imitar la voz de una persona utilizando tan solo unos segundos de muestras de audio.

ANUNCIO

DESPLÁCETE PARA CONTINUAR CON EL CONTENIDO

Este modo se conoce como Vishing (Voice Phishing), el proceso es bastante corto, el estafador llamará a la víctima, una vez conectado grabará de 3 a 10 segundos. Luego, la IA procesa la voz en una versión digital, después de lo cual el perpetrador llama a alguien cercano a la víctima para pedirle dinero o datos.

Google exploró previamente el uso de inteligencia artificial generativa (IA generativa) por parte de actores de amenazas en campañas de phishing y operaciones de información (IO).





Analizaron cómo los estafadores utilizan la inteligencia artificial generativa (gen IA) para crear contenidos más convincentes, como imágenes y vídeos.

Al lanzar Google Cloud, compartieron información sobre cómo los estafadores utilizan grandes modelos de lenguaje (LLM) para desarrollar malware. Google destaca que, aunque los estafadores están interesados ​​en la IA generativa, su uso sigue siendo relativamente limitado.

La investigación inicial revisa nuevas tácticas, técnicas y procedimientos (TTP) de inteligencia artificial (IA), así como las tendencias emergentes.

Uno de los casos más importantes que se produjeron fue un caso de robo contra una empresa multinacional en Hong Kong. En ese caso, los ladrones lograron robar más de 200 millones de dólares de Hong Kong (430 mil millones de rupias) utilizando clonación de voz y deepfakes.

Luego, el Mandiant Red Team de Google utilizó la táctica en un ataque simulado para probar la resiliencia de la organización.

Como resultado, encontraron signos de respuestas generadas por IA que incluyen pausas incómodas antes de contestar el teléfono, un tono de voz demasiado constante, respuestas antinaturales y retrasos o distorsiones sutiles. Por último, existe una incapacidad para responder preguntas específicas.

Algunas empresas afirman que el mal uso de sus herramientas puede tener graves consecuencias.

“Reconocemos el potencial de abuso de esta herramienta muy poderosa y hemos implementado fuertes medidas de seguridad para evitar la creación de deepfakes y proteger contra la suplantación de voz”, dijo un portavoz de Resemble AI en una declaración escrita. NBCNoticiasMiércoles (19/11).

Según Sarah Myers West, codirectora ejecutiva del AI Now Institute, un grupo de expertos centrado en las consecuencias políticas de la IA, esta tecnología también tiene un gran potencial para causar daño.

“Esto claramente puede usarse para fraude, engaño y desinformación, por ejemplo haciéndose pasar por figuras institucionales”, dijo West.

Muchas víctimas no son conscientes de que les han robado la voz, tienden a creer fácilmente en voces familiares, lo que hace que los perpetradores aprovechen el momento.

(wpj/dmi)

(Gambas: vídeo de CNN)

About The Author