Investigadores de Check Point Research detectan fallas críticas en el código de Anthropic

Las vulnerabilidades críticas CVE-2025-59536 y CVE-2026-21852 en la herramienta Claude Code de Anthropic permitían la ejecución remota de código y el robo de claves API mediante archivos de configuración maliciosos a nivel repositorio, activados simplemente al clonar y abrir un proyecto no confiable.

A medida que las organizaciones incorporan rápidamente herramientas de desarrollo con IA agentiva en sus flujos de trabajo empresariales, los límites de confianza entre configuración y ejecución se vuelven cada vez más difusos. Check Point Research identificó vulnerabilidades críticas en Claude Code que permitían la ejecución remota de código y el robo de credenciales API mediante archivos de configuración maliciosos basados en repositorios.

Al abusar de mecanismos integrados como Hooks, integraciones del Model Context Protocol (MCP) y variables de entorno, los atacantes podían ejecutar comandos shell arbitrarios y extraer claves API cuando los desarrolladores clonaban y abrían proyectos no confiables, sin realizar ninguna acción adicional más allá de iniciar la herramienta.

En la práctica, archivos de configuración diseñados para simplificar la colaboración pasaron a convertirse en rutas activas de ejecución, introduciendo un nuevo vector de ataque dentro de la capa de desarrollo impulsada por IA que hoy forma parte de la cadena de suministro empresarial. Esto abre una pregunta más amplia: ¿evolucionó el modelo de amenazas corporativas al ritmo de esta nueva realidad?

Cómo un solo archivo de repositorio se convirtió en vector de ataque

Claude Code fue diseñado para optimizar la colaboración mediante archivos de configuración a nivel proyecto integrados directamente en los repositorios, que se aplican automáticamente cuando un desarrollador abre la herramienta dentro del directorio del proyecto.

Check Point Research detectó que estos archivos —generalmente percibidos como metadatos operativos inofensivos— podían funcionar como una capa activa de ejecución.

En ciertos escenarios, simplemente clonar y abrir un repositorio malicioso era suficiente para:

  • Ejecutar comandos ocultos en el equipo del desarrollador
  • Eludir controles de consentimiento y confianza incorporados
  • Exponer claves API activas de Anthropic y convertirlas en un vector de acceso
  • Escalar el impacto desde una workstation individual hacia entornos cloud empresariales compartidos

Todo esto sin ninguna señal visible de que el compromiso ya había comenzado. Lo que buscaba optimizar la colaboración terminó funcionando como un vector de ataque silencioso dentro del flujo de desarrollo con IA.

Cómo podían verse afectados los desarrolladores

Los riesgos se agruparon en tres categorías principales:

  1. Ejecución silenciosa de comandos mediante Claude Hooks

Claude Code incluye capacidades de automatización que permiten ejecutar acciones predefinidas al iniciar una sesión. Check Point Research demostró que este mecanismo podía ser explotado para ejecutar comandos shell arbitrarios automáticamente al inicializar la herramienta.

En la práctica, esto significa que abrir un repositorio malicioso podía disparar ejecuciones ocultas en la máquina del desarrollador, sin interacción adicional.

  1. Bypass del consentimiento del usuario en MCP

Claude Code se integra con herramientas externas mediante el Model Context Protocol (MCP), lo que permite inicializar servicios adicionales al abrir un proyecto. Aunque existen advertencias diseñadas para requerir aprobación explícita del usuario, los investigadores detectaron que configuraciones controladas desde el repositorio podían sobrescribir estas protecciones.

Como resultado, la ejecución podía ocurrir:

  • Antes de que el usuario otorgara consentimiento
  • Sin visibilidad real sobre qué servicios se estaban inicializando
  • A pesar de los prompts de confianza incorporados

Cuando el código se ejecuta antes de establecer la confianza, el modelo de control se invierte: la autoridad pasa del usuario al repositorio, ampliando la superficie de ataque basada en IA.

Este problema fue identificado como CVE-2025-59536.

  1. Robo de claves API antes de confirmar la confianza

Claude Code se comunica con los servicios de Anthropic mediante una clave API enviada en cada solicitud autenticada. Manipulando configuraciones controladas por el repositorio, los investigadores demostraron que el tráfico API —incluyendo el header completo de autorización— podía redirigirse a un servidor controlado por atacantes antes de que el usuario confirmara la confianza en el proyecto.

Esto implicaba que simplemente abrir un repositorio malicioso podía:

  • Extraer la clave API activa del desarrollador
  • Redirigir tráfico autenticado hacia infraestructura externa
  • Capturar credenciales antes de cualquier decisión de confianza

En entornos colaborativos de IA, una única clave comprometida puede convertirse en puerta de entrada a un impacto empresarial más amplio.

Este problema fue identificado como CVE-2026-21852.

Por qué era crítico el riesgo sobre las claves API

La API de Anthropic incluye una función llamada Workspaces, que permite que múltiples claves API compartan acceso a archivos de proyecto almacenados en la nube.

Los archivos están asociados al workspace y no a una única clave.

Con una clave robada, un atacante podría:

  • Acceder a archivos compartidos
  • Modificar o eliminar datos almacenados en la nube
  • Subir contenido malicioso
  • Generar costos inesperados de API

En ecosistemas colaborativos de IA, una sola credencial expuesta puede escalar rápidamente desde un incidente individual a un impacto en todo el equipo.

Un nuevo riesgo en la cadena de suministro del software con IA

Estas vulnerabilidades reflejan un cambio estructural en la forma en que operan las cadenas de suministro de software. Las plataformas modernas dependen cada vez más de archivos de configuración basados en repositorios para automatizar procesos y facilitar la colaboración. Tradicionalmente, estos archivos eran considerados metadatos pasivos, no lógica de ejecución.

Sin embargo, a medida que las herramientas impulsadas por IA adquieren la capacidad de ejecutar comandos, inicializar integraciones externas y generar comunicaciones de red de forma autónoma, los archivos de configuración pasan a formar parte directa de la capa de ejecución.

Esto modifica de manera profunda el modelo de amenazas: el riesgo ya no se limita a ejecutar código no confiable, sino también a abrir proyectos no confiables. En entornos de desarrollo con IA, la cadena de suministro ya no comienza solo con el código fuente, sino también con las capas de automatización que lo rodean.

Remediación y divulgación

Check Point Research trabajó en conjunto con Anthropic durante todo el proceso de divulgación responsable.

Anthropic implementó correcciones que:

  • Reforzaron los mecanismos de consentimiento del usuario
  • Evitaron la ejecución de herramientas externas antes de la aprobación explícita
  • Bloquearon comunicaciones API hasta confirmar la confianza del proyecto
  • Todos los problemas reportados fueron resueltos antes de su divulgación pública.

Las herramientas de programación impulsadas por IA se están integrando rápidamente en los flujos de desarrollo corporativos. Si bien los beneficios de productividad son significativos, también lo es la necesidad de revisar los supuestos tradicionales de seguridad.

Los archivos de configuración ya no son ajustes pasivos: hoy pueden influir directamente en la ejecución, la conectividad y los permisos.

A medida que la integración de IA se profundiza, los controles de seguridad deberán evolucionar para adaptarse a estos nuevos límites de confianza.

Quiero Suscribirme y recibir información

Al completar este formulario, aceptas que los datos proporcionados podrán ser utilizados por Prensario TILA para enviarte noticias, novedades editoriales y comunicaciones comerciales propias, así como información de nuestros clientes y socios. Tus datos serán tratados de forma confidencial y podrás solicitar en cualquier momento la modificación o baja de nuestras listas de contacto.