La adopción de la inteligencia artificial avanza a gran velocidad, pero su seguridad no siempre va a la par. El informe “State of AI Security in 2025” de Cisco revela brechas importantes entre el uso de la IA y la preparación de las organizaciones para protegerla.
Comprender estos riesgos es esencial para conservar la confianza, resguardar la privacidad y asegurar la continuidad de las operaciones. A continuación, presentamos un resumen de las ideas clave y recomendaciones de Cisco.
Una amenaza de seguridad en crecimiento
Para 2024, el 72 % de las empresas ya empleaban IA en sus procesos, pero solo el 13 % se sentían totalmente preparadas para gestionarla de forma segura. Este desajuste pone en evidencia que la seguridad sigue siendo la principal barrera para un uso más amplio de la IA.
Los métodos tradicionales de ciberseguridad no bastan, pues la IA plantea amenazas donde el adversario puede adaptarse y evolucionar en tiempo real, algo que los sistemas estáticos no siempre detectan ni contrarrestan.
Vectores de ataque dirigidos a sistemas de IA
Los atacantes aprovechan distintos puntos del ciclo de vida de la IA: desde la recolección de datos y el entrenamiento de modelos hasta su despliegue y uso en producción. Cada etapa ofrece oportunidades para introducir sesgos, manipular resultados o robar información sensible.
Además, se han documentado técnicas avanzadas como los jailbreaks basados en la voz para modelos multimodales, y campañas de envenenamiento de datos que pasan inadvertidas ante las defensas acostumbradas a esquemas de seguridad más simples.
Hallazgos de la investigación de seguridad de IA de Cisco
El equipo de Cisco evaluó varias plataformas y descubrió vulnerabilidades críticas con tasas de éxito del 100 % al explotar modelos como DeepSeek R1 y Llama 2. Estos resultados demuestran lo urgente que es reforzar la protección de los sistemas de IA.
También emergen amenazas novedosas, como el uso de ataques de salida para extraer información privada durante la inferencia, lo que subraya la necesidad de controles continuos y auditorías frecuentes.
El papel de la IA en el cibercrimen
La IA no solo es un objetivo, sino también una herramienta para los atacantes. La automatización potencia ataques de ingeniería social y phishing, mientras que herramientas malignas como “DarkGPT” generan correos engañosos y scripts de explotación con facilidad.
Esta accesibilidad permite que incluso delincuentes con pocos recursos configuren campañas personalizadas que eluden defensas tradicionales, intensificando el alcance y el impacto de los incidentes.
Buenas prácticas para asegurar la IA
Cisco recomienda implementar un enfoque de seguridad en varias capas: desde la protección de datos de entrenamiento hasta la monitorización de modelos en producción. Es vital aplicar pruebas de adversario y revisiones regulares.
Además, aconseja integrar la seguridad de la IA en el ciclo de vida de desarrollo (DevSecOps), capacitar al personal y establecer protocolos de respuesta rápida ante amenazas emergentes.
Perspectivas futuras
La adopción de la IA seguirá creciendo, al igual que las amenazas. Gobiernos y empresas trabajan en marcos regulatorios que equilibren innovación y seguridad.
Quienes prioricen la protección desde ahora estarán mejor preparados para aprovechar las oportunidades que traerá la IA, minimizando riesgos y garantizando un uso confiable a largo plazo.