El regreso de la humanidad a la órbita lunar con Artemis II no solo marca un hito en la exploración espacial, sino también en la forma en que entendemos la ciberseguridad en entornos críticos. Más allá del logro tecnológico, esta misión pone sobre la mesa una realidad que muchas organizaciones aún evitan enfrentar: la ciberseguridad no solo se trata de evitar fallas, sino de diseñar para sobrevivirlas.
Continúa leyendo para entender qué lecciones deja Artemis II y cómo aplicarlas en tu organización.
Índice:
- Artemis II no solo fue un logro tecnológico, sino un ejercicio de gestión de riesgo
- Ciberseguridad en entornos extremos: cuando el modelo tradicional deja de funcionar
- El caso del PIN: cuando el problema no es el control, sino el contexto
- Una nueva superficie de ataque: visibilidad, transmisión y exposición
- Las lecciones clave de Artemis II para la ciberseguridad empresarial
- Riesgos reales: incluso las organizaciones más avanzadas tienen puntos ciegos
- Más allá del cumplimiento: hacia una ciberseguridad basada en resiliencia
Artemis II no solo fue un logro tecnológico, sino un ejercicio de gestión de riesgo
Artemis II, una misión clave del programa Artemis de la NASA, representó el primer viaje tripulado más allá de la órbita terrestre baja desde la misión Apollo 17 en 1972. Durante aproximadamente 10 días, cuatro astronautas orbitaron la Luna a bordo de la nave Orion, validando sistemas críticos en condiciones en las que no existe margen de error.
Pero más allá de su relevancia científica y geopolítica, Artemis II representa algo más cercano a la realidad empresarial de lo que parece: un entorno en el que la operación no puede detenerse, incluso cuando los sistemas fallan.
En el espacio profundo, la tripulación operó en un entorno donde:
- No hay soporte inmediato y la conectividad es limitada o inexistente
- Los incidentes deben resolverse localmente (no se pueden “escalar”)
Este no es un escenario hipotético. Es el día a día de muchas operaciones críticas en la Tierra.
Ciberseguridad en entornos extremos: cuando el modelo tradicional deja de funcionar
Artemis II evidencia una realidad incómoda: muchos modelos de ciberseguridad están diseñados bajo condiciones ideales que rara vez existen en la operación real.
Durante la misión:
- La latencia en comunicaciones limita la toma de decisiones centralizada
- Existen períodos de blackout sin contacto con control de misión
- Los operadores se vuelven los primeros en responder
Durante las primeras horas de la misión, se reportaron fallas técnicas que tuvieron que ser atendidas sin intervención inmediata desde la Tierra. Esto tiene paralelismos directos con:
- Infraestructura energética
- Plataformas offshore
- Sistemas industriales (OT/ICS)
- Operaciones remotas o distribuidas
En estos entornos, la pregunta no es si existe un control implementado, sino si la operación puede continuar cuando ese control falla o no está disponible.

El caso del PIN: cuando el problema no es el control, sino el contexto
Uno de los momentos más comentados de la misión fue la transmisión en vivo en la que se observó a un astronauta desbloquear una tableta con un PIN muy simple: 3939. La reacción fue inmediata: críticas sobre malas prácticas de seguridad.
Sin embargo, este caso revela una falla más profunda en la forma en que muchas organizaciones entienden la ciberseguridad.
En un entorno como el de Artemis II:
- No existe conectividad externa
- No hay un atacante remoto viable
- El usuario opera bajo condiciones físicas y cognitivas extremas
En ese contexto, un control más robusto (como una contraseña larga o autenticación multifactor) puede convertirse en un riesgo operativo. La prioridad no es proteger contra un ataque improbable, sino garantizar acceso inmediato en una situación crítica.
La pregunta no es si el PIN era débil, sino ¿qué riesgo se estaba priorizando realmente? Porque mientras muchos se enfocaban en el dispositivo, el verdadero riesgo surgía en otro punto: la transmisión en vivo que permitió su exposición.
En ciberseguridad, el mayor riesgo no siempre está en el sistema más visible, sino en aquel que no fue considerado dentro del modelo de amenaza.
Una nueva superficie de ataque: visibilidad, transmisión y exposición
El incidente del PIN introduce un vector que muchas organizaciones subestiman: la exposición derivada de la visibilidad.
La NASA transmite sus misiones en alta definición para millones de personas. Esta apertura, aunque valiosa, genera riesgos reales:
- Exposición involuntaria de credenciales
- Filtración de información sensible
- Creación de una superficie de ataque indirecta
Este fenómeno no es exclusivo del sector espacial. Hoy, muchas organizaciones:
- Transmiten eventos en vivo
- Comparten operaciones en redes sociales
- Promueven una cultura de transparencia digital
Sin preguntarse algo fundamental: ¿qué estoy revelando sin darme cuenta? En muchos casos, el riesgo no está en el sistema, sino en la exposición del sistema.

Las lecciones clave de Artemis II para la ciberseguridad empresarial
Más allá del entorno espacial, Artemis II deja aprendizajes concretos para organizaciones que operan sistemas críticos.
1. Seguridad basada en el modelo de amenaza real
El caso Artemis II demuestra que aplicar controles sin entender el contexto puede generar una falsa sensación de seguridad.
La pregunta correcta no es “¿qué dice el framework?”, sino “¿de qué me estoy protegiendo realmente… y qué estoy dejando expuesto?”.
2. Gobernanza y responsabilidad ejecutiva
En Artemis II, la seguridad no es una función aislada, sino una función estratégica integrada desde el diseño hasta la operación. Esto implica:
- Visibilidad a nivel directivo
- Claridad sobre el apetito de riesgo
- Decisiones conscientes sobre trade-offs
Porque cada control tiene un costo y no siempre es técnico.
3. Resiliencia operativa como objetivo central
En entornos donde los fallos son inevitables, la prioridad no es evitarlos todos, sino responder de forma efectiva. Esto se logra mediante:
- Simulaciones realistas
- Entrenamiento bajo presión
- Protocolos claros de respuesta
No se trata de si algo fallará, sino de qué tan preparada está la organización cuando esto ocurra.
4. Un ciclo continuo de defensa (que se retroalimenta)
Predicción, prevención, detección y respuesta siguen siendo relevantes. Se alinean con un modelo de mejora continua. Pero en Artemis II, este ciclo no es teórico. Cada incidente alimenta decisiones futuras.
La diferencia no está en el modelo, sino en qué tan conectado está con la operación real.

Riesgos reales: incluso las organizaciones más avanzadas tienen puntos ciegos
A pesar de su nivel tecnológico, la NASA ha identificado desafíos estructurales en ciberseguridad. El informe 2025 de su Oficina del Inspector General (OIG, por sus siglas en inglés) señala áreas críticas como la necesidad de fortalecer su gestión de riesgos y operar en entornos complejos y descentralizados.
Esto deja una lección clara: la madurez tecnológica no elimina los puntos ciegos. Lo que los reduce es la capacidad de cuestionar continuamente si la estrategia de seguridad refleja la realidad operativa.
Artemis II visto como un programa de gestión de riesgo
Cada componente de la misión —desde la tripulación hasta los sistemas y la operación— fue diseñado bajo una premisa clara: no todos los riesgos se pueden eliminar, pero todos deben ser entendidos, priorizados y gestionados de forma consciente.
El paralelo entre la misión y la gestión de riesgos puede ser visto así:
- Riesgo humano → no se elimina, se modela
- Riesgo tecnológico → no se asume confiable, se valida
- Riesgo físico → no siempre se evita, se absorbe
- Riesgo de comunicación → no se centraliza, se distribuye
- Riesgo de misión → no se ignora, se define el apetito
- Riesgo sistémico → no se delega, se supervisa
En todos los casos, el patrón es el mismo: no se pretende eliminar el riesgo, sino gestionarlo con claridad. Lo anterior demuestra que la NASA no confía en que nada falle. Más bien diseña para que, cuando falle, el sistema sobrevivan.

¿Qué deben hacer las empresas hoy?
Visto desde esta perspectiva, Artemis II no es solo una misión espacial, es un modelo práctico de cómo operar sistemas críticos en entornos donde el fallo no es una posibilidad remota, sino una condición esperada.
Por lo tanto, más allá de recomendaciones genéricas, Artemis II obliga a tomar decisiones:
- Alinear controles con amenazas reales, no solo con estándares.
- Prepararse para operar sin conectividad o con acceso limitado.
- Definir qué sistemas deben seguir operando incluso en falla.
- Identificar dónde la fricción de seguridad puede convertirse en riesgo.
- Evaluar qué exposición se está generando a través de la visibilidad.
Más importante aún, las empresas deben cuestionar si su arquitectura asume que todo funcionará… cuando en la práctica no lo hará.
Más allá del cumplimiento: hacia una ciberseguridad basada en resiliencia
Artemis II demuestra que la ciberseguridad no se trata de aplicar más controles, sino de tomar mejores decisiones sobre el riesgo. Las organizaciones que continúan operando solo bajo una lógica de cumplimiento pueden estar protegidas en apariencia, pero expuestas en la práctica. Porque el problema no es la falta de controles: es falta de contexto.
La lección más importante de Artemis II no es tecnológica, es estratégica. Las organizaciones más resilientes no son las que evitan fallas, sino las que están diseñadas para sobrevivirlas. Y eso implica algo que muchas aún evitan: tomar decisiones incómodas.






