Willy Ugarte: Las cinco mayores estafas con IA en el Perú y cómo protegerse
- En el Perú se han detectado en lo que va del año 50 casos en esta modalidad de estafa.
La inteligencia artificial (IA) está transformando numerosos sectores, pero también está siendo aprovechada por estafadores para diseñar nuevas y sofisticadas formas de engaño.
“En lo que va del año, en el Perú ya se han registrado 50 casos de estafas con IA, y se espera que esta cifra aumente conforme las técnicas de hacking se vuelvan más accesibles y perfeccionadas en el país”, comenta Willy Ugarte, docente de la maestría en Data Science de la Universidad Peruana de Ciencias Aplicadas (UPC).
Ugarte advierte que los sistemas tecnológicos más vulnerables son los medios de comunicación comunes, como el correo electrónico, los mensajes de audio, las llamadas telefónicas y las videollamadas.
“Los modelos generativos de IA, como Midjourney, GPT o Gemini, son capaces de crear audios, textos o imágenes con un realismo impresionante, lo que facilita que los estafadores logren confundir y manipular a las personas”, explica.
Las cinco estafas con IA más comunes que se detectan en el Perú incluyen:
Falsificaciones de voz
Los estafadores emplean software de IA para imitar la voz de personas cercanas, como familiares o empleados de empresas, engañando a las víctimas para que envíen dinero o compartan información personal.
Suplantaciones de identidad
Similar a la falsificación de voz, esta modalidad implica que el estafador asuma la identidad de una persona real, como un funcionario público o un ejecutivo, con el objetivo de obtener información confidencial o financiera.
Contenido falso con WormGPT
WormGPT, una IA que genera texto falso a gran escala, es utilizada para crear noticias falsas, publicaciones engañosas en redes sociales y correos electrónicos fraudulentos que buscan desinformar o manipular a las personas.
Videollamadas con deepfakes
Los estafadores emplean tecnología de deepfake para simular a personas en videollamadas, haciendo que parezca que alguien está diciendo o haciendo algo que en realidad no dijo o hizo, lo cual puede ser usado para obtener información sensible.
Phishing avanzado
En esta modalidad, los estafadores mejoran las técnicas de phishing tradicionales mediante el uso de IA, logrando mensajes de correo o texto más personalizados y realistas que parecen provenir de instituciones legítimas.
¿Cómo protegerse?
Willy Ugarte sugiere tomar varias precauciones para minimizar el riesgo de caer en estas estafas:
Cuidado con los datos personales:
Minimice la exposición de su información en línea y elimine cualquier correo electrónico o SMS sospechoso sin abrir.
Precaución ante enlaces sospechosos:
Evite hacer clic en enlaces o descargar aplicaciones que no provengan de fuentes confiables.
Seguridad digital:
Use herramientas de protección como antivirus y firewalls y manténgase informado sobre las nuevas amenazas de IA.
Ugarte resalta la importancia de educar a los grupos más vulnerables, como los niños y adultos mayores, sobre estas amenazas.
“Utilizar control parental en los dispositivos móviles y enseñar a los adultos mayores a limitar la información compartida en redes sociales puede hacer una gran diferencia”, aconseja. Con una buena educación digital, estos grupos pueden estar mejor preparados para enfrentar los riesgos de las estafas con IA.
En esta era de inteligencia artificial, la información y la prevención son nuestras mejores armas. Mantenerse alerta e informado es fundamental para crear un entorno digital más seguro para todos.