El pais
SUSCRÍBETE

Tecnología

Crecen las estafas por clonación de voz debido a la inteligencia artificial; esto dicen los expertos

Miles de personas son estafadas anualmente debido a la suplantación de voz.

12 de marzo de 2025 Por: Redacción El País
La estafa por llamada ha experimentado un crecimiento importante durante el último año en Colombia.
La suplantación de identidad a causa de la IA ha aumentado con el paso de los meses. | Foto: Cortesía Truecaller

La inteligencia artificial llegó para quedarse, pues con el paso del tiempo, esta tecnología ha evolucionado y se ha podido implementar en todo el internet; se puede usar para crear imágenes, videos, audios e incluso, clonar la voz de las personas.

Pese a que cientos de personas usan esta tecnología para crear diferentes piezas creativas, también es usada para cometer estafas, pues la IA es capaz de recrear la voz de cualquier persona y se puede hacer pasar por amigos y familiares, con el objetivo de obtener información privada o incluso, solicitar altas sumas de dinero.

Según informa ESET, compañía líder en detección proactiva de amenazas, los cibercriminales toman pequeños fragmentos de una grabación real y mediante el uso de la Inteligencia Artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños, con consecuencias tan graves como costosas. Estas muestras las obtienen de grabaciones de voz o de videos que estén publicados en redes sociales como Instagram o TikTok.

Los adultos mayores son la población más afectada por esta modalidad de estafa.
Los adultos mayores son la población más afectada por esta modalidad de estafa. | Foto: Tomado de redes

Para dimensionar cuál es su impacto, la Comisión Federal de Comercio de los Estados Unidos informó que solo en 2023 ese país perdió 2.700 millones de dólares por estafas. En esa línea, Starling Bank (banco británico que opera de manera online) alertó sobre la preponderancia de este tipo de estafas en el Reino Unido.

La encuesta realizada a más de 3.000 personas reveló que una cuarta parte de los adultos afirma haber sido víctima de una estafa de clonación de voz mediante inteligencia artificial al menos una vez en el año. Además, el 46% de los encuestados mencionó que no sabía que existían tales estafas.

Desde ESET advierten que ante este tipo de estafas que involucran la ingeniería social, el primer consejo es mantenerse bien alerta. Esto quiere decir que hay que prestar mucha atención a aquellos mensajes inesperados que llegan con la urgencia de solicitar dinero o credenciales de ciertas cuentas. Y en esa misma línea, devolver la llamada al familiar o amigo en cuestión a un número de teléfono conocido, debido a que así como en muchas ocasiones puede ser real, a veces se puede tratar de una estafa.

Las estafas mediante el uso de la suplantación de voz son muy comunes a nivel mundial.
Las estafas mediante el uso de la suplantación de voz son muy comunes a nivel mundial. | Foto: Tomado de redes

Finalmente, esta compañía conseja tener una “frase segura” con sus familiares, unas palabras muy cortas que solo usted y su círculo social o familiar pueda distinguir, pues esto reduciría más las posibilidades de que las personas resulten estafadas a través de una llamada o un mensaje de audio.

Regístrate gratis al boletín de noticias El País

Descarga la APP ElPaís.com.co:
Semana Noticias Google PlaySemana Noticias Apple Store

Te puede gustar

AHORA EN Tecnología