Estas son las cinco tácticas usadas por ciberdelincuentes para estafar con inteligencia artificial

Foto: Freepik

Desde suplantación de identidad mejorada hasta estafas con deepfakes y audio, la IA está transformando las tácticas de fraude cibernético, advierten expertos.


Noticias RCN

jul 16 de 2024
04:00 a. m.

Unirse al canal de Whatsapp de Noticias RCN

Según un reciente informe realizado por la empresa de ciberseguridad ESET, la inteligencia artificial (IA) ha transformado diversas áreas de la tecnología, pero también ha abierto nuevas oportunidades para los ciberdelincuentes.

RELACIONADO

Empresa japonesa utilizará inteligencia artificial para mejorar la salud mental de los trabajadores

El pliego se expande desde la suplantación de identidad mejorada hasta el doxing optimizado.

Cinco tácticas de inteligencia artificial usadas para cometer estafas

  • Suplantación de identidad mejorada

El auge de los chatbots, como ChatGPT, ha facilitado un incremento de los correos de phishing, es decir, esos mensajes falsos que parecen auténticos donde se pide información personal de diversas maneras.

Con base en esto, los delincuentes aprovechan la IA para crear este tipo de comunicaciones engañosas que parecen legítimas, incitando a las víctimas a revelar datos confidenciales o a realizar transacciones financieras.

En este caso, se debe tener precaución ya que también existen herramientas como GoMail Pro que integran funciones avanzadas de ChatGPT, permitiendo a los atacantes perfeccionar estos correos electrónicos de manera que no sean detectados por OpenAI.

  • Estafas con deepfakes y audio

La capacidad de la IA para generar imágenes y audios realistas ha complicado la distinción entre lo auténtico y lo falso, por lo que, ESET advierte que esta tecnología está siendo usada para crear deepfakes y audios convincentes, facilitando fraudes.

Un caso notorio involucró a un empleado que perdió 24 millones de dólares tras recibir una llamada de alguien que simulaba ser el director financiero de su empresa.

RELACIONADO

Nueva inteligencia artificial permite conversar con tu yo del futuro: ¿Cómo funciona?

Desafortunadamente, estas técnicas generan situaciones de estrés y confusión, propiciando la estafa.

  • Evasión de controles de identidad

La inteligencia artificial permite a los ciberdelincuentes burlar los sistemas de verificación de identidad utilizando documentos falsificados o robados.

Al superponer imágenes digitales en estos documentos, los atacantes engañan a los sistemas de seguridad basados en la verificación visual.

Aunque esta técnica está en desarrollo, ESET alerta sobre su potencial para evolucionar y volverse más sofisticada.

  • Doxing optimizado

Cuando se habla de doxing, se refiere a publicar información personal para intimidar o extorsionar.

A través de este, los ciberdelincuentes entrenan algoritmos con grandes volúmenes de datos disponibles en internet para deducir información sensible, como la ubicación de una persona.

Especialistas de ESET advierten que cuanto más contenido este disponible en línea, mayor será la vulnerabilidad.

RELACIONADO

Inteligencia artificial predijo cómo le irá a la Selección Colombia en la Copa América 2024

Además, herramientas como ChatGPT pueden inferir detalles personales durante las interacciones, por lo que se debe ser cauteloso al hacer cualquier publicación.

  • Jailbreak como servicio

En lugar de desarrollar sus propios modelos de IA, los ciberdelincuentes optan por contratar servicios de jailbreak, ahorrando tiempo y recursos. Pero ¿qué es el jailbreaking?

Este servicio según Kaspersky, empresa líder mundial en soluciones y servicios de ciberseguridad es el proceso de explotar fallos en dispositivos electrónicos bloqueados para instalar software no autorizado.

De esta manera, se permite a los atacantes modificar sistemas de IA para generar contenido malicioso o escribir código para malware, eludiendo las restricciones del fabricante.

¿Se debe o no hacer uso de la inteligencia artificial?

Teniendo en cuenta estas modalidades de ataque, ESET enfatiza que la tecnología de la IA no es inherentemente buena o mala, debido a que su impacto depende del uso que se le dé.

RELACIONADO

Empresa japonesa utilizará inteligencia artificial para mejorar la salud mental de los trabajadores

Sin embargo, es importante tener en cuenta que el potencial de la IA en manos equivocadas es preocupante, como lo demuestran estos tipos de ciberdelincuencia.

Unirse al canal de Whatsapp de Noticias RCN

Otras noticias