CANAL RCN

Peligros ocultos en la Inteligencia Artificial generativa

La Inteligencia Artificial (IA) generativa ha irrumpido con fuerza en nuestra cotidianeidad y en todos los sectores productivos.


Enrique Fenollosa
sept 09 de 2025 02:43 p. m.
Unirse al canal de Whatsapp de Noticias RCN

Lo que hasta hace poco era un desarrollo experimental, hoy forma parte del núcleo operativo de empresas, gobiernos e infraestructuras críticas. Herramientas como ChatGPT, Copilot o Claude —por mencionar algunas— ya se utilizan para generar código, analizar grandes volúmenes de datos o asistir en procesos de decisión automatizados.

Sin embargo, mientras su despliegue avanza con rapidez, el desarrollo de marcos de seguridad, auditoría y gobernanza avanza mucho más despacio. La consecuencia es clara: se está consolidando una nueva superficie de ataque para la que ni las empresas ni los Estados están debidamente preparados.

Los grandes modelos de lenguaje (LLM, por su sigla en inglés) son sistemas de IA entrenados con ingentes cantidades de datos, que buscan que las máquinas comprendan y generen lenguaje humano de forma natural. Esta característica hace que operen como sistemas opacos: su lógica interna no siempre es auditable, sus fuentes de entrenamiento no son plenamente trazables y su comportamiento puede ser impredecible en ciertos contextos.

Varios estudios recientes alrededor del mundo han señalado esa opacidad como un factor crítico responsable de vectores de riesgo para las empresas, entre los que se destacan: agentes dormidos (instrucciones maliciosas difíciles de detectar que solo se activan en condiciones específicas), filtraciones de datos (los modelos pueden memorizar y reproducir información sensible), generación de contenido malicioso (desde código con puertas traseras hasta mensajes de desinformación), data poisoning (manipulación de las fuentes de datos para influir en el aprendizaje del modelo, integrando información manipulada) e integraciones inseguras (APIs vulnerables o errores de configuración que permiten explotar fallos sistémicos).

Estas vulnerabilidades no son teóricas, puesto que ya se han documentado casos reales en entornos corporativos y públicos. Y el riesgo se multiplica cuando estos modelos se integran en sistemas críticos sin validación de seguridad ni cumplimiento normativo.

En S2GRUPO, con más de veinte años protegiendo sectores críticos en Europa y América Latina, observamos con creciente preocupación cómo tecnologías sensibles —incluidos modelos de IA generativa— están siendo integradas en sistemas vitales sin garantías mínimas de seguridad, trazabilidad ni supervisión. Esta asimilación acrítica está generando una brecha estructural entre el despliegue tecnológico y la capacidad real de gobernanza.

En suma, la IA generativa representa una de las mayores palancas de transformación de las próximas décadas, pero también puede convertirse en una infraestructura de dependencia digital si no se controla desde el principio. Los peligros ocultos que esta tecnología encierra deben ser reconocidos lo antes posible —sobre todo por los gobiernos y las empresas— antes de que sea muy tarde para actuar y queden a su merced.

Unirse al canal de Whatsapp de Noticias RCN

Otras noticias