Los modelos de inteligencia artificial (IA) se han consolidado como componentes clave en múltiples industrias, desde la salud hasta la ciberseguridad. Su creciente protagonismo los ha convertido en objetivos estratégicos para actores maliciosos. De acuerdo con ESET, empresa líder en detección proactiva de amenazas informáticas, los ataques contra estos sistemas pueden abarcar desde el robo de propiedad intelectual hasta la manipulación de algoritmos y el uso de infraestructura comprometida para actividades delictivas.
¿Por qué los modelos de IA son un blanco atractivo?
La inteligencia artificial depende del procesamiento masivo de datos y del aprendizaje automatizado para generar resultados. Este proceso, aunque poderoso, también implica riesgos significativos. Los modelos de lenguaje, sistemas de visión artificial y plataformas de reconocimiento manejan información sensible que puede ser explotada por cibercriminales para acceder, distorsionar o replicar comportamientos del sistema.
Casos emblemáticos de vulneración
Algunos incidentes han marcado precedentes importantes en la seguridad de modelos de IA:
- Tay de Microsoft (2016): Este chatbot fue manipulado por usuarios para emitir mensajes ofensivos y discursos de odio, evidenciando lo vulnerable que puede ser un modelo frente a entradas maliciosas.
- GPT-3/OpenAI: Se documentaron intentos de extracción de datos confidenciales mediante consultas diseñadas para obtener información sensible utilizada durante el entrenamiento del modelo.
- Meta LLaMA (2023): El modelo fue filtrado antes de su lanzamiento oficial, permitiendo el acceso de terceros no autorizados y generando preocupación sobre la protección de tecnologías propietarias en entornos abiertos.
Infraestructura vulnerable: ¿por dónde atacan los ciberdelincuentes?
ESET identifica diversos vectores de ataque en los modelos de IA. Los más comunes incluyen:
- Datos de entrenamiento: Un modelo solo es tan confiable como los datos que lo nutren. El envenenamiento de datos (data poisoning) implica introducir información maliciosa para modificar la salida del sistema.
- Interfaces de programación de aplicaciones (APIs): Estas puertas de entrada pueden ser explotadas para alterar el comportamiento del modelo o extraer datos valiosos.
- Estructura interna del modelo: Los algoritmos subyacentes pueden ser blanco de ataques adversariales, diseñados para inducir errores mediante inputs sutilmente manipulados.
- Servidores y almacenamiento: Incluso si el modelo está blindado, su infraestructura puede ser víctima de infecciones por malware, ataques de denegación de servicio (DDoS) o filtraciones de información.
Tipologías de ataques a modelos de inteligencia artificial
A continuación, se describen los principales ataques identificados por expertos en ciberseguridad:
- Data Poisoning (Envenenamiento de datos): Consiste en contaminar el conjunto de entrenamiento con información maliciosa para modificar el comportamiento del modelo.
- Ataques Adversariales: Inputs manipulados de forma imperceptible para los humanos inducen errores en la clasificación del modelo. Muy comunes en sistemas de reconocimiento facial.
- Control y explotación del modelo: Implica el secuestro del modelo en producción para ejecutar ciberataques como comandos remotos o ataques de denegación de servicio.
- Model Inversion Attack: Este ataque busca reconstruir datos sensibles a partir de las salidas del modelo. Es especialmente grave en sistemas que manejan datos biométricos.
- Model Extraction Attack: Los atacantes realizan múltiples consultas al modelo para deducir su lógica y arquitectura, pudiendo incluso replicarlo sin tener acceso al código fuente.
- Evasion Attack (Ataque de evasión): Consiste en alterar los inputs para que el modelo clasifique incorrectamente. Es empleado para evadir sistemas de detección de malware o fraudes.
- Infección de infraestructuras: Más allá del modelo, los servidores que alojan estas herramientas pueden ser blanco de malware, afectando la operatividad del sistema y comprometiendo información crítica.
Los modelos de IA no solo representan innovación, sino también una superficie de ataque emergente que requiere atención prioritaria. Garantizar su seguridad implica adoptar medidas integrales, desde la validación de datos hasta la protección de APIs y servidores. La ciberseguridad en entornos de inteligencia artificial debe evolucionar al mismo ritmo que la tecnología que pretende resguardar.