Cuando tu proxy de IA se envenena: lecciones del ataque a la cadena de suministro de LiteLLM

El ataque a la cadena de suministro de LiteLLM recopiló credenciales en el 36% de los entornos cloud. Aprende cómo la gobernanza de agentes por capas reduce el radio de explosión.

Puntos clave

  • El 24 de marzo de 2026, versiones maliciosas de LiteLLM fueron publicadas en PyPI, recopilando claves API, credenciales cloud y claves SSH de los sistemas infectados.
  • La versión 1.82.8 fue particularmente peligrosa porque usó el mecanismo .pth de Python para asegurar que el código malicioso se ejecutara cada vez que cualquier proceso Python se iniciara, no solo cuando se importaba LiteLLM.
  • LiteLLM está presente en el 36 por ciento de los entornos cloud empresariales, lo que convierte esta biblioteca en un objetivo de alto valor para ataques a la cadena de suministro.
  • El incidente demuestra que la gobernanza de agentes de IA debe extenderse más allá del comportamiento del agente para incluir la seguridad de la cadena de suministro del stack de software que los agentes usan.
  • Las organizaciones con gobernanza de agentes por capas, incluyendo aislamiento de credenciales, monitorización de red y política como código, limitaron el radio de explosión incluso cuando sus entornos estaban infectados.

Anatomía del ataque

El ataque siguió un patrón familiar de compromiso de cadena de suministro, adaptado para la infraestructura de IA:

  1. Publicación de paquete malicioso: Versiones troyanizadas de LiteLLM publicadas en PyPI
  2. Recopilación de credenciales: Los paquetes escaneaban sistemas infectados buscando claves API, credenciales cloud, claves SSH y tokens de autenticación
  3. Persistencia: La versión 1.82.8 usó archivos .pth de Python para ejecutarse en cada inicio de proceso Python
  4. Exfiltración: Datos robados cifrados y enviados a dominios controlados por el atacante
  5. Descubrimiento: Detectado por investigadores de seguridad después de que análisis de comportamiento de red señalaran tráfico de salida anómalo

Por qué los proxies de LLM son objetivos de alto valor

LiteLLM es un proxy de LLM, una capa que se sitúa entre tus aplicaciones y múltiples proveedores de LLM. Por diseño, tiene acceso a:

  • Claves API de todos los proveedores de LLM que tu organización utiliza
  • Solicitudes y respuestas completas que fluyen entre tus agentes y los modelos
  • Datos potencialmente sensibles incluidos en los prompts de los agentes
  • Credenciales de infraestructura para bases de datos, colas de mensajes y otros servicios con los que los agentes interactúan

Comprometer el proxy de LLM es equivalente a comprometer la intersección central de todo tu tráfico de agentes de IA.

Lecciones para la gobernanza de agentes

1. La cadena de suministro es superficie de ataque

La mayoría de los marcos de gobernanza de agentes se centran en lo que los agentes hacen: qué datos acceden, qué acciones toman, qué políticas siguen. El incidente de LiteLLM demuestra que el software que los agentes usan para hacer estas cosas es igualmente crítico.

2. Las credenciales deben estar aisladas

Las organizaciones donde cada agente tenía sus propias credenciales aisladas, en lugar de credenciales compartidas fluyendo a través de un proxy central, limitaron el impacto del compromiso. Si un agente individual era comprometido, solo sus credenciales estaban expuestas.

3. La monitorización de red detecta lo que el escaneo de código no detecta

Las herramientas tradicionales de escaneo de dependencias verifican vulnerabilidades conocidas con identificadores CVE. No detectan puertas traseras novedosas insertadas por mantenedores comprometidos. La monitorización de comportamiento de red, que detecta conexiones a endpoints no autorizados, fue lo que reveló el ataque.

4. La fijación de dependencias no es suficiente por sí sola

Fijar versiones de dependencias previene la actualización automática a versiones comprometidas. Pero si la versión comprometida se fija antes de ser detectada, la fijación preserva el compromiso. La verificación de integridad, que compara hashes de paquetes contra fuentes conocidas como buenas, es la capa complementaria necesaria.

Qué hacer ahora

Inmediato: Verifica que tu organización no está ejecutando las versiones comprometidas de LiteLLM (1.82.7 o 1.82.8). Busca archivos .pth sospechosos en los directorios de paquetes de Python.

A corto plazo: Audita las dependencias de tu stack de agentes de IA. Identifica bibliotecas que tienen acceso a credenciales o datos sensibles. Implementa monitorización de tráfico de red de salida para los entornos donde se ejecutan agentes.

A medio plazo: Implementa una capa de gobernanza que aísle credenciales por agente, monitorice el comportamiento del runtime y aplique el principio de privilegio mínimo en todo el stack de software del agente.

Para una visión más amplia de cómo estos riesgos de la cadena de suministro encajan en el panorama general de amenazas, consulta nuestra guía sobre los peligros ocultos de los agentes de IA en la empresa y nuestra previsión sobre las primeras brechas de seguridad de agentes de IA.

Preguntas frecuentes

¿Qué fue el ataque a la cadena de suministro de LiteLLM?

El 24 de marzo de 2026, un actor de amenazas publicó versiones maliciosas de LiteLLM (1.82.7 y 1.82.8) en PyPI. Los paquetes troyanizados recopilaban claves API, credenciales cloud, claves SSH y otros secretos, cifraban los datos robados y los exfiltraban a dominios controlados por el atacante. La versión 1.82.8 fue particularmente peligrosa por usar el mecanismo .pth de Python para garantizar persistencia.

¿Por qué las bibliotecas de infraestructura de IA son objetivos atractivos para ataques a la cadena de suministro?

Los proxies de LLM y bibliotecas similares se ejecutan con acceso privilegiado a credenciales de múltiples proveedores y datos sensibles. El ecosistema de IA es joven, se mueve rápido y está poco auditado. Comprometer una sola biblioteca como LiteLLM, presente en el 36% de los entornos cloud empresariales, da acceso a un volumen masivo de credenciales y datos.