Los últimos adelantos en esta tecnología se convirtieron en un arma de doble filo para el uso abusivo y con un trasfondo malicioso
3 minutos de lectura'

Los avances en los últimos meses de la inteligencia artificial en campos como la educación, salud, industria o entretenimiento no han dejado indiferente a nadie. Tampoco lo hizo con los ciberdelincuentes, que están realizando nuevos tipos de estafas para sacar provecho personal y hacer daño a los usuarios.
Como se recuerda, aplicaciones como ChatGPT o Midjourney son herramientas impulsadas por la inteligencia artificial generativa, y que permiten, a su vez, crear a petición del usuario toda clase de textos e imágenes. Estas pueden ser utilizadas de manera maliciosa por personas para aprovecharse de los más.

“La IA puede usarse para ayudar a los profesionales de ciberseguridad a tratar la cada vez mayor complejidad de los sistemas modernos, así como la gran cantidad de datos creados por ellos, e intentar estar por delante de los ciberatacantes”, expresa Willy Ugarte, docente de la maestría en Data Sciencie de la Escuela de Postgrado UPC. “Mi recomendación es estar siempre atentos a las últimas noticias sobre estafas virtuales y, al encontrarse con alguna, no acceder a ningún enlace, no brindar información secreta como claves de tarjetas de crédito y hacer caso omiso a las llamadas desconocidas”.
Acá te dejamos tres estafas impulsadas por herramientas IA que debemos tener en cuenta, según el docente en la UPC:
Clonación de voz por IA: en los últimos meses, diferentes usuarios señalaron que recibieron llamadas de familiares afirmando estar secuestrados y pidiendo dinero para no ser lastimados. Uno de los actos más mediáticos fue el nombrado hace unos días por una actriz muy conocida que afirmó haber sufrido esta estafa al ser copiada su voz y presentándola a su madre como un secuestro.
La variante estafa de Chat GPT: WormGPT es una herramienta que, además de producir un malware, crea correos electrónicos notablemente persuasivos y personalizados para el destinatario lo que aumenta las posibilidades en el éxito de ataque.
Videollamadas estafa: es una modalidad de la que todavía no hay registros en nuestro país. Básicamente, el ciberatacante utiliza la herramienta del deepfake para hacerse pasar por alguien y decirle a un familiar suyo que ha sido secuestrado, para luego pedir dinero por su rescate. Esto se complementa con aplicativos IA de generación de audio para reemplazar la voz.
Ahora bien, ¿qué debemos hacer para evitar caer en estas estafas?
- Tener cuidado con los datos personales, pues con ellos pueden acceder a tu información bancaria, financiera o personal.
- Eliminar cualquier correo sospechoso y evitar ingresar a links o descargar aplicaciones sospechosas que puedan extraer información bancaria.
- Tomar precauciones antes de hacer clic en enlaces recibidos por correo electrónico, mensajes de SMS y redes sociales debe ser un comportamiento instintivo para los usuarios, al igual que mirar a ambos lados antes de cruzar la calle.
Otras noticias de GDA
- 1
“Una forma de aprender”: el optimismo sobre la inteligencia artificial del pionero de las tecnologías de la educación
- 2
“La IA reemplaza funciones, no empleos”: la mirada de Eduardo Levy Yetati sobre el futuro del trabajo
- 3
La prohibición de los móviles en las aulas de Países Bajos mejora la concentración y el clima social
- 4
Cuáles son los tres signos con “menos suerte” en julio 2025, según la inteligencia artificial
Últimas Noticias
A cuatro años de su debut. Windows 11 consigue superar a Windows 10 a nivel global
“La IA reemplaza funciones, no empleos”. la mirada de Eduardo Levy Yetati sobre el futuro del trabajo
Valen US$8600 millones y no se sabe de quién son. Revuelo mundial por la transferencia de 80.000 bitcoins: hace 14 años que no se movían
Ahora para comentar debés tener Acceso Digital.
Iniciar sesión o suscribite