Claude Mythos
arrow_back Blog

Dos filtraciones en cinco días: la crisis de seguridad de Anthropic

Error de CMS el 26 de marzo, error de source map npm el 31 — dos exposiciones de datos en menos de una semana plantean serias dudas sobre la seguridad operativa de Anthropic.

Publicado el 2 de abril de 2026 · Claude Mythos
Anthropic Seguridad Filtración CMS npm IPO

En resumen: Entre el 26 y el 31 de marzo de 2026, Anthropic sufrió dos exposiciones de datos a través de dos sistemas completamente distintos. La primera fue un error de configuración del CMS que expuso unos 3.000 archivos, incluido el borrador de Claude Mythos. La segunda fue un error de empaquetado npm que distribuyó un source map de 59,8 MB en Claude Code v2.1.88, exponiendo 512.000 líneas de TypeScript. Ambos incidentes se atribuyeron a «error humano». Ambos reflejan el mismo problema de fondo: falta de salvaguardas en los pipelines de despliegue y publicación. Para una empresa que prepara una OPV de más de 60.000 millones de dólares y construye una IA que describe como «muy por delante de cualquier otro modelo en capacidades cibernéticas», el patrón es difícil de ignorar.

Cronología: dos filtraciones de Anthropic en una semana

26 de marzo — Error de CMS (Filtración 1)

Roy Paz (LayerX Security) y Alexandre Pauwels (Universidad de Cambridge) descubrieron la exposición. Unos 3.000 archivos accesibles sin autenticación. Índice global de ciberseguridad: -4,2 % en 24 horas, ~400.000 millones evaporados.

31 de marzo — Source map npm (Filtración 2)

Chaofan Shou descubrió el source map de 59,8 MB en el paquete npm v2.1.88. El bucket de R2 era público. ~1.900 archivos, 512.000+ líneas. Más de 41.500 forks en GitHub. 44 feature flags expuestos.

Filtración 1 (26 mar)Filtración 2 (31 mar)
VectorCMS mal configuradoSource map en paquete npm
Alcance~3.000 archivos~1.900 archivos, 512.000 líneas
Exposición claveDetalles de Claude MythosCódigo completo de Claude Code + 44 flags
Impacto de mercado400.000 M$ en ventas de ciberseguridadDaño reputacional; 41.500+ forks
Intervalo5 días

Causa raíz de ambas filtraciones

Sistemas distintos, mecanismos distintos, mismo patrón raíz.

Filtración 1: El CMS almacenaba borradores en un almacén indexable y público. No había puerta de autenticación.

Filtración 2: El pipeline de build no eliminó el source map. Ese source map referenciaba un bucket sin control de acceso. Cualquiera de las dos fallas por separado no habría causado la exposición completa. Juntas, sí.

Anthropic clasificó ambas como «error humano». Técnicamente correcto, pero incompleto. La pregunta relevante no es si los humanos cometen errores, sino si existen sistemas para interceptar esos errores antes de que lleguen a producción.

La ironía

El borrador filtrado de Mythos describía al modelo como «muy por delante de cualquier otro modelo de IA en capacidades cibernéticas».

Cinco días después de que esa descripción se hiciera pública por un error de CMS evitable, todo el código fuente de Claude Code se hizo público por un error de empaquetado npm igualmente evitable.

Fortune: «segunda gran brecha de seguridad en cinco días».

La comunidad de seguridad señaló que las medidas preventivas para ambos incidentes — validación de acceso en despliegues de CMS, exclusión de source maps y verificación de tamaño en publicación npm — son prácticas estándar, no técnicas de vanguardia. Anthropic no necesitaba su propia IA para prevenir estas filtraciones. Necesitaba una checklist.

Qué significa para la OPV de 60.000 millones

Anthropic apunta a una OPV en el Q4 de 2026, probablemente en octubre. La ronda de febrero de 2026 valoró la empresa en unos 380.000 millones sobre 30.000 millones captados.

Dos exposiciones de datos en cinco días crean un problema narrativo cualitativamente distinto al de un incidente aislado. Una filtración puede enmarcarse como error aislado. Dos en menos de una semana por sistemas diferentes sugieren un vacío sistémico en los controles operativos.

La propuesta de valor de la empresa se sustenta en la confianza: confianza en que puede construir la IA más capaz y en que puede desplegarla responsablemente. La segunda mitad es más difícil de sostener cuando los pipelines básicos fallan dos veces en una semana.

¿Puede Anthropic reconstruir la confianza?

Postmortem público de ambos incidentes. Qué salió mal, causas raíz, cambios implementados. Anthropic aún no ha publicado uno.

Auditoría de seguridad independiente de los pipelines de despliegue y publicación.

Mejoras de proceso con resultados medibles. Verificación automática de accesibilidad pública, exclusión obligatoria de source maps, validación de tamaño, puertas de revisión de seguridad pre-lanzamiento.

La capacidad técnica no está en cuestión. Lo que se cuestiona es la madurez operativa.

Lectura adicional

Share