Estimado analista de riesgos, le imagino en su trabajo desbordado por un exceso de información y tratando de encajar su evaluación de riesgos en un contexto de cambio acelerado. Le imagino luchando contra el reloj, tratando de anticiparse a las crisis o de encontrar respuestas cuanto antes. Le veo tratando de aplicar los conocimientos, equipos y procedimientos a su alcance para resolver problemas cada vez más complejos o urgentes. Si es así, me permite recomendarle que deje de mirar a su reloj. El reloj sirve para saber la hora, pero ya no sirve para medir el tiempo.
El reloj, sus horas, minutos y segundos representan una valoración lineal del tiempo. Lo dividen en unidades de medida iguales para facilitar la comprensión de la evolución de los sucesos. Sin embargo, el tiempo real en el que viven las sociedades avanzadas no se puede comprender con cronografías lineales sino exponenciales. La aceleración y la interacción de todas las relaciones bajo la globalización resta sentido a las unidades de tiempo lineales, porque lo que ocurre, o puede ocurrir, en cada una de esas unidades es diferente. El tiempo se comprime bajo la presión exponencial de los eventos, la tecnología o la comunicación, y lo que puede ser muy bueno para curar enfermedades, prevenir catástrofes o generar prosperidad puede ser muy malo para utilizar procesos de decisiones diseñados para el tiempo lineal de toda la vida.
Vivimos en tiempos de cronopolítica donde lo importante no es sólo adoptar las decisiones correctas sino hacerlo cuanto antes. Esto tiene reflejo, por ejemplo, en el ámbito de los análisis financieros donde lo importante no sólo es prever la evolución de los mercados sino hacerlo antes que lo haga la competencia. Para lograrlo, se multiplican las pantallas, datos, algoritmos e Inteligencia Artificial en los centros de transacciones financieras. Algo similar ocurre en los centros de mando de las operaciones militares y en los centros de situación donde se gestionan crisis que afectan a la seguridad nacional o a las grandes empresas multinacionales.
La RAND Corporation ha iniciado la reflexión sobre las consecuencias de la aceleración sobre los procesos de decisiones sociales, políticos y económicos (“Speed and Security: Promises, Perils, and Paradoxes of Accelerating Everything”, 2018). Considera que la aceleración se intensificará en el futuro y que traerá nuevos riesgos de seguridad para esos procesos interactivos. La lectura de esa reflexión (me) suscita dudas sobre la utilidad de algunos de los procedimientos empleados hasta ahora para analizar y responder a los riesgos en los ámbitos de seguridad y defensa.
Algunos de ellos como los utilizados para adivinar el futuro en el que se desenvolverán las operaciones militares (NATO’s Multiples Futures Project 2030 de 2009 o el Entorno Operativo del Futuro 2035 del Ministerio de Defensa de 2018) suelen identificar con acierto los factores (drivers) y los escenarios en los que se combinan. Sin embargo, no tienen en cuenta la aceleración y suponen que la evolución de cada factor seguirá un curso lineal, cuando probablemente seguirá uno acelerado y diferenciado para cada uno de ellos. La aceleración tecnológica pone en cuestión los sistemas tradicionales de planeamiento militar. Por ejemplo, los estados mayores de Francia y Alemania han planificado el Sistema de Combate Aéreo del Futuro linealmente a 20 años pero la tecnología y la forma de hacer la guerra van a evolucionar exponencialmente, con el consiguiente riesgo de obsolescencia para el sistema cuando finalmente aparezca en 2040 (fecha prevista pero no garantizada). La aceleración está detrás de la apuesta de Estados Unidos por las nuevas tecnologías (Third Offset Strategy), o detrás de las armas hipersónicas (Hypersonic Test Vehicles, HTV) que están poniendo a punto Rusia, China y Estados Unidos.
Los análisis de escenarios adolecen de la misma metodología lineal. Entre otros, estudios como el del National Intelligence Council de los Estados Unidos (“Global Trends. Paradox of Progress”, 2017) ayudan a imaginar el futuro inmediato, pero no permiten cuantificarlo temporalmente. Según sus estimaciones, en las dos próximas décadas se acentuarán las divergencias demográficas (la población crecerá donde no crece la riqueza), se reducirá el crecimiento económico, aumentará la competencia tecnológica, las tensiones sociales y será más difícil la gobernanza. Sus previsiones son razonables y deberían orientar las políticas de seguridad necesarias para prevenir o mitigar sus efectos, pero su inclusión en las agendas oficiales (segurización) es difícil porque compiten con otras prioridades y, sobre todo, porque se desconoce el patrón temporal de la aceleración. En esas condiciones, las evaluaciones de riesgos tienden a perder relevancia porque apenas ayudan a monitorizar la evolución de los factores de riesgo para influir en ellos o adoptar medidas preventivas. Sin incluir la dimensión temporal, sus recomendaciones tienen limitada utilidad práctica para tomar decisiones, influir en el curso de los acontecimientos o prevenir los riesgos, por lo que los análisis de riesgos se ven avocados a recurrir a la Inteligencia Artificial para aumentar su eficacia.
La aceleración abre la puerta a la Inteligencia Artificial en todos los procesos asociados a la seguridad nacional y en todos los niveles, desde la automatización de tareas de detección y respuesta (nivel táctico), al diseño de las líneas de actuación (nivel operativo) e, incluso, al diseño de las políticas públicas (nivel político-estratégica). La introducción de la Inteligencia Artificial (IA) es ya una necesidad en todas las fases del proceso de decisiones: diagnóstico, decisión y evaluación. Tanto para mejorar y agilizar los procedimientos liderados por los expertos (la IA como una ayuda al proceso de decisiones), como para reemplazarles en el manejo de la gran cantidad de información disponible para el análisis de riesgos (la IA como analista y decisor), así como para valorar las opciones de respuesta posibles y la monitorización y evaluación de las decisiones adoptadas.
La Inteligencia Artificial va a alterar los patrones de comportamiento y las doctrinas actuales tanto para bien como para mal, tanto si se aplica para acelerar el proceso humano de decisiones como para automatizar y acelerar las respuestas. Este dilema se plantea con crudeza en la aplicación de la Inteligencia Artificial a las armas nucleares, ya que la aceleración desestabilizará el equilibrio nuclear existente. Hasta ahora, ninguna de las potencias nucleares tiene capacidad para destruir la capacidad de respuesta de sus oponentes con un primer golpe. La disuasión estratégica consiste en diversificar y proteger los medios nucleares de respuesta para asegurar un daño seguro al agresor, pero esto puede cambiar con la introducción de la IA. Las opiniones de los expertos oscilan entre las de los alarmistas, que ven muy cerca el riesgo de escalada nuclear, y los prudentes, que consideran que las tecnologías que favorecen la aceleración no están maduras todavía. En todo caso, la revisión de las doctrinas y estructuras de fuerzas nucleares ya ha comenzado para adaptarse al nuevo entorno tecnológico, tal y como reconoce la Nuclear Posture Review de los Estados Unidos en febrero de 2018. La adaptación sigue reservada –de momento– al ámbito del proceso de decisiones bajo control humano, pero esa voluntad ética y política corresponde a una visión lineal del tiempo que podría cambiar si la aceleración tecnológica progresa exponencialmente.
Los analistas de riesgos, los asesores de seguridad nacional o los responsables de la inteligencia en todos sus ámbitos deben tomar conciencia de que sus problemas de asesoramiento no se solucionan trabajando más y contra el reloj (time-crunch) sino adoptando tecnologías que les permitan mejorar exponencialmente sus evaluaciones. Por eso, estimado analista de riesgos, me permito recomendarle que deje de preocuparse por la hora y se preocupe, en su lugar, por el tiempo.