Ni foto, ni voz: Así es el nuevo plan de los bancos para frenar los fraudes 'imposibles'
Así se preparan las entidades para evitar las estafas a sus millones de clientes.
Noticias RCN
12:29 p. m.
En América Latina, y particularmente en Colombia, el crecimiento de identidades sintéticas, deepfakes de voz y esquemas de ingeniería social automatizados, están redefiniendo el perfil del fraude financiero
Tan solo entre enero y julio de 2025 se registraron 27.000 millones de intentos de ciberataque contra establecimientos bancarios en el país, lo que representa un incremento del 69 % frente al mismo periodo del año anterior, según la Superintendencia Financiera de Colombia.
En términos operativos, esto equivale a cerca de 94 intentos de vulneración por segundo y a aproximadamente 1.000 colombianos víctimas diarias de robo de datos personales.
“El acceso a herramientas de Inteligencia Artificial (IA) generativa ha democratizado la sofisticación del fraude. Hoy adversarios con pocos conocimientos técnicos pueden ejecutar ataques altamente convincentes», explica José Javier Prada, CEO de Become Digital.
El ejecutivo sostiene que el aumento acelerado del fraude de identidad en Colombia también se explica, en gran medida, porque la validación de identidad continúa recayendo principalmente en el documento físico, en particular en la cédula amarilla.
Sus elementos pueden ser alterados mediante edición digital, reimpresión o superposición de capas, lo que hace que los motores tradicionales de Reconocimiento Óptico de Caracteres (OCR) y los esquemas básicos de biometría no sean suficientes para detectar alteraciones sutiles pero críticas.
¿Cómo se prepara Colombia ante el crecimiento de los casos de deepfake?
Para cerrar esta brecha, el mercado ha comenzado a virar hacia el desarrollo de arquitecturas de IA propias y regionalizadas. El modelo de Become Digital es una de ellas: en lugar de emplear algoritmos genéricos, la compañía ha entrenado su tecnología durante años con datos específicos y alteraciones reales del mercado de Colombia.
Este enfoque permite a la IA analizar patrones, microvariaciones gráficas e inconsistencias estructurales que escapan al ojo humano o a los programas convencionales.
Su modelo logra una tasa de detección de fraude superior al 99%, mientras mantiene niveles de conversión superiores al 75%, dependiendo del flujo y el perfil de riesgo. Aproximadamente el 85% de las transacciones son resueltas de forma automática por el sistema, y el 15% restante entra en un esquema de revisión experta por parte de auditores especializados en detección de alteraciones.
Lejos de ser una debilidad, este 15% funciona como un mecanismo de control de calidad y retroalimentación continua que permite recalibrar el algoritmo y reducir progresivamente la incertidumbre.
Este enfoque híbrido de IA con supervisión experta permite mantener un equilibrio saludable entre la Tasa de Falsa Aceptación (FAR) y la Tasa de Falso Rechazo (FRR), evitando tanto la filtración de fraudes como el bloqueo innecesario de clientes legítimos.
Por ahora, la discusión sobre nuevos sistemas antifraude viene ganando terreno en el sector y, por ello, será parte del debate en espacios como el congreso CAMP de Asobancaria y los encuentros regionales de Fintech Americas, donde reguladores, bancos y proveedores tecnológicos, entre ellos Become Digital, evaluarán el impacto de la IA tanto en la evolución del delito como en su contención.
La dirección del cambio parece clara. Hacia el final de la década, el antifraude evolucionará desde la verificación tradicional de identidad (foto, voz o documento) hacia modelos de autenticación continua basados en comportamiento, dado que la biometría estática deja de ser un factor “secreto” frente a la IA generativa.
De acuerdo con un análisis realizado por Asobancaria, el mercado de IA aplicada a la detección de deepfakes registrará una tasa de crecimiento anual compuesta (CAGR) del 33,5% hasta 2030, alcanzando un valor global de US$38.500 millones.
Prada subraya que en Become Digital ya están avanzando para hacer frente a este tipo de desafíos. “Hoy incorporamos señales comportamentales, especialmente en los procesos de prueba de vida (liveness). No nos limitamos a verificar que exista un rostro frente a la cámara; analizamos cómo se comporta ese rostro durante la validación, lo que nos permite detectar inconsistencias sutiles entre una interacción humana genuina y una generación artificial”.
El desafío para Colombia y el sector financiero no residirá únicamente en adoptar nuevas herramientas, sino en rediseñar el modelo de confianza digital que sustenta la intermediación financiera. La digitalización amplía la inclusión, pero también multiplica las superficies de ataque. La eficiencia del sistema depende, cada vez más, de su capacidad para distinguir entre una identidad legítima y una simulada en tiempo real.