Gary Kasparov, uno de los mejores ajedrecistas de todos los tiempos, desarrolló el ajedrez avanzado tras perder su partida de 1997 contra el superordenador Deep Blue de IBM. El ajedrez avanzado combina la precisión computacional de los algoritmos de las máquinas con la intuición de los seres humanos. El concepto de la experimentación de Kasparov es similar al de los equipos de hombres y mujeres o el "modelo centauro", y tiene importantes implicaciones para el uso de la IA por parte de los militares.
En 2005, un sitio web de ajedrez organizó un torneo de ajedrez avanzado abierto a cualquier jugador. Extraordinariamente, los ganadores del torneo no fueron grandes maestros y sus máquinas, sino dos aficionados al ajedrez que utilizaron tres ordenadores diferentes. Kaspárov observó que "su habilidad para manipular y "entrenar" a sus ordenadores para que miraran muy profundamente en las posiciones contrarrestó eficazmente la superior comprensión ajedrecística de sus oponentes Gran Maestros y el mayor poder computacional de los otros participantes". Kasparov llegó a la conclusión de que un "humano débil + máquina + proceso mejor era superior a un ordenador fuerte solo y ... superior a un humano fuerte + máquina + proceso inferior". Esta conclusión se conoció como la Ley de Kasparov.
Mientras el Departamento de Defensa intenta utilizar mejor la inteligencia artificial, la Ley de Kasparov puede ayudar a diseñar la arquitectura de mando y control y a mejorar la formación de los miembros del servicio que la utilizarán. La Ley de Kasparov sugiere que para que la colaboración entre humanos y máquinas sea eficaz, los operadores deben estar familiarizados con sus máquinas y saber cómo emplearlas mejor. Los conflictos del futuro no los ganará la fuerza que tenga la mayor potencia de cálculo, el diseño de chip más avanzado o el mejor entrenamiento táctico, sino la que emplee con más éxito los nuevos algoritmos para aumentar la toma de decisiones humanas. Para conseguirlo, el ejército estadounidense necesita identificar, reclutar y retener a personas que no sólo entiendan de datos y lógica informática, sino que también puedan hacer pleno uso de ellos. Las pruebas de acceso a las fuerzas armadas, la formación militar general y la educación militar profesional deberían perfeccionarse teniendo esto en cuenta.
Construir un proceso mejor
La idea clave de Kasparov era que la construcción de un "proceso mejor" requiere un humano informado en la interfaz hombre-máquina. Si los operadores no entienden las reglas y las limitaciones de sus compañeros de IA, harán las preguntas equivocadas u ordenarán las acciones incorrectas.
El "humano débil" de Kasparov no significa un humano inepto o sin formación. El "humano débil" entiende las reglas del ordenador. Los dos aficionados que ganaron la partida de ajedrez de 2005 utilizaron su conocimiento de las reglas para hacer las preguntas correctas de la forma adecuada. Los aficionados no eran Grandes Maestros ni expertos con estrategias avanzadas. Pero fueron capaces de descifrar los datos que les proporcionaron sus ordenadores para desenmascarar las agendas de sus oponentes y calcular las jugadas correctas. En otras palabras, utilizaron el ordenador para desempeñar el papel de un especialista o experto, y para informar su proceso de toma de decisiones.
El número y el tipo de sensores que alimentan las redes globales está creciendo rápidamente. Al igual que en el ajedrez, los algoritmos pueden cribar, clasificar y organizar los datos de inteligencia para facilitar su interpretación por parte de los humanos. Los algoritmos de IA pueden encontrar patrones y probabilidades mientras los humanos determinan el significado contextual para informar la estrategia. La cuestión fundamental es cómo se puede posicionar y entrenar a los humanos para que lo hagan de la manera más eficaz.
Familiaridad y confianza
Cuando los operadores humanos no están familiarizados con los sistemas mejorados por la IA, a menudo tienen poca o demasiada confianza en ellos. Enseñar a los operadores militares a utilizar correctamente la IA requiere enseñarles los límites de un sistema e inculcarles el nivel adecuado de confianza. Esto es especialmente crucial en situaciones de vida o muerte en las que los operadores humanos deben decidir cuándo desactivar o anular la IA. El nivel de confianza que se otorga a una IA depende de la madurez y el rendimiento demostrado de un sistema. Cuando los sistemas de IA están en fase de diseño o de prueba, los operadores humanos deben conocer bien las limitaciones y el comportamiento de la máquina para poder anularla cuando sea necesario. Pero esto cambia a medida que la IA se hace más fiable.
Consideremos la introducción del sistema automático de prevención de colisiones con el suelo (auto-GCAS) en los cazas F-16. La adopción se vio obstaculizada por los molestos "pull-ups", cuando la IA se hizo cargo innecesariamente del sistema de control de vuelo durante las primeras pruebas de vuelo y la puesta en marcha. La desconfianza que esto generó inicialmente entre los pilotos era totalmente comprensible. Cuando se corrió la voz en la comunidad de los F-16, muchos pilotos empezaron a desactivar el sistema por completo. Pero a medida que la tecnología se hizo más fiable, esta desconfianza se convirtió en un problema, impidiendo que los pilotos se aprovecharan de un algoritmo de probada eficacia para salvar vidas. Ahora, los pilotos más recientes son mucho más confiados. El teniente David Alman, un piloto de la Guardia Nacional del Aire que actualmente está en formación de vuelo para el F-16, dijo a los autores que "creo que el estudiante medio del curso B lo prefiere enormemente [el auto-GCAS]". En otras palabras, una vez que el sistema está probado, hay menos necesidad de formar a las futuras tripulaciones aéreas tan a fondo en el comportamiento de su máquina y enseñarles a confiar en ella.
Fueron necesarios varios mandatos políticos y cambios de personal antes de que los pilotos de los F-16 empezaran a volar con el auto-GCAS activado durante la mayoría de las misiones. En la actualidad, la Agencia de Proyectos Avanzados de Defensa y las Fuerzas Aéreas de Estados Unidos están intentando automatizar partes del combate aéreo en su programa Air Combat Evolution. En el programa, se evalúa la confianza de los pilotos entrenados cuando forman equipo con agentes de IA. Se descubrió que un piloto desactivaba el agente de IA antes de que tuviera la oportunidad de actuar debido a su desconfianza preconcebida en el sistema. Este tipo de comportamientos anulan los beneficios que los algoritmos de IA están diseñados para ofrecer. Los programas de reentrenamiento pueden ayudar, pero si un operador humano sigue anulando sus agentes de IA sin motivo, los militares deberían estar preparados para eliminarlos de los procesos que contienen interacción de IA.
Al mismo tiempo, el exceso de confianza en la IA también puede ser un problema. El "sesgo de automatización" o el exceso de confianza en la automatización se produce cuando los usuarios no son conscientes de los límites de su IA. En el accidente del Air France 447, por ejemplo, los pilotos sufrieron una disonancia cognitiva después de que el piloto automático se desconectara en una tormenta eléctrica. No reconocieron que los aceleradores de los motores, cuyas posiciones físicas no importan cuando el piloto automático está activado, estaban colocados cerca de la potencia de ralentí. Cuando los pilotos tiraron hacia atrás de la palanca de control, esperaban que los motores respondieran con potencia como ocurre en el control normal del acelerador del piloto automático. En cambio, los motores retrocedieron lentamente y la velocidad del avión disminuyó. Minutos más tarde, el Air France 447 se precipitó al Atlántico, totalmente parado.
Identificar y colocar el talento correcto
Preparar correctamente a los operadores humanos no sólo requiere determinar la madurez del sistema, sino también diferenciar entre las formas tácticas y estratégicas de la IA. En las aplicaciones tácticas, como los aviones o los sistemas de defensa antimisiles, los plazos pueden comprimirse más allá de los tiempos de reacción humanos, lo que obliga al humano a dar plena confianza a un sistema y permitirle operar de forma autónoma. En cambio, en situaciones estratégicas u operativas, la IA intenta deducir la intención del adversario, lo que abarca plazos más amplios y datos más ambiguos. Por ello, los analistas que dependen de los resultados de la IA deben conocer su funcionamiento interno para poder aprovechar su capacidad superior de procesamiento de datos y de búsqueda de patrones.
Consideremos las aplicaciones tácticas de la IA en el combate aire-aire. Los drones, por ejemplo, pueden operar en modos semiautónomos o totalmente autónomos. En estas situaciones, los operadores humanos deben ejercer la restricción de control, conocida como benevolencia de negligencia, para permitir que sus compañeros de ala de IA funcionen sin interferencias. En las aeronaves pilotadas, los programas de asistencia al piloto de IA pueden proporcionar colas giro a giro al piloto para vencer una amenaza entrante, no muy diferente a las indicaciones giro a giro que da la aplicación Waze a los conductores de automóviles. Los sensores que rodean al avión de combate detectan firmas infrarrojas, ópticas y electromagnéticas, calculan la dirección de llegada y el modo de orientación de la amenaza, y aconsejan al piloto sobre el mejor curso de acción. En algunos casos, el piloto de la IA puede incluso tomar el control de la aeronave si el tiempo de reacción humano es demasiado lento, como ocurre con los sistemas automáticos para evitar colisiones con el suelo. Cuando los plazos se comprimen y el tipo de datos relevantes es estrecho, los operadores humanos no necesitan estar tan familiarizados con el comportamiento del sistema, especialmente una vez que ha sido probado o certificado. Sin el lujo de tener tiempo para juzgar o cuestionar el comportamiento de la IA, simplemente necesitan conocer y confiar en sus capacidades.
Sin embargo, los requisitos serán diferentes a medida que la IA empiece a desempeñar un papel más importante en procesos estratégicos como la recopilación y el análisis de información. Cuando la IA se utiliza para agregar una franja más amplia de datos aparentemente dispares, comprender su enfoque es crucial para evaluar su resultado. Considere el siguiente escenario: Un sistema de control de IA escanea cientos de boletines de mantenimiento de refinerías y se da cuenta de que varias compañías petroleras controladas por el Estado en un país hostil anuncian planes de cierre de refinerías por "mantenimiento rutinario" durante un periodo concreto. A continuación, revisando miles de manifiestos de carga, descubre que varios petroleros procedentes de ese país han sufrido retrasos en la carga. La IA informa entonces de que el país en cuestión está creando las condiciones para un chantaje económico. En este punto, un analista humano podría evaluar mejor esta conclusión si supiera qué tipo de retrasos ha identificado el sistema, lo inusual de estas formas de retraso y si hay otros factores políticos o ambientales que puedan explicarlos.
Próximos pasos
Con operadores no formados, los efectos multiplicadores de la IA pueden ser anulados por las mismas personas a las que están destinadas a ayudar. Para evitar esto, la guerra dominada por los algoritmos requiere actualizaciones en la forma en que los militares seleccionan y clasifican su talento.
Pruebas como la Batería de Pruebas de Selección de Aviación de la Armada, la Prueba de Calificación de Oficiales del Ejército del Aire o la Batería de Aptitud Vocacional de las Fuerzas Armadas, de carácter universal, califican el rendimiento de un candidato en una serie de materias. Dado que las máquinas están sustituyendo a ciertos tipos de conocimientos humanos, los militares necesitan evaluar nuevas aptitudes, concretamente la capacidad de comprender los sistemas, procesos y programación de las máquinas. Un primer paso valioso sería cambiar los exámenes de ingreso para evaluar las habilidades de interpretación de datos y la capacidad de entender la lógica de las máquinas. La certificación de desarrolladores de Google o la certificación de servicios web de Amazon ofrecen modelos útiles que el ejército podría adaptar. Las fuerzas armadas también deberían recompensar a los reclutas y a los miembros del servicio por completar la formación en campos relacionados en lugares ya disponibles, como los cursos abiertos masivos en línea.
Para los que ya están en el servicio, el Secretario de Defensa debería promover las habilidades pertinentes dando prioridad a la selección competitiva de cursos especializados en la comprensión de los sistemas de IA. Entre los ejemplos existentes se encuentran el Programa de Sistemas Simbólicos de la Universidad de Stanford, el curso Acelerador de IA del Instituto Tecnológico de Massachusetts y el curso "Harnessing AI" de la Escuela Naval de Postgrado. El ejército también podría desarrollar nuevos programas basados en instituciones como el Naval Community College o la Naval Postgraduate School y establecer asociaciones con instituciones civiles que ya ofrecen una formación de alta calidad en inteligencia artificial. La incorporación de los conocimientos de IA en los cursos de formación militar profesional y la oferta de incentivos para cursar asignaturas optativas de IA también serían útiles. La iniciativa de lenguaje informático del Ejército del Aire, reflejada ahora en la Sección 241 de la Ley de Autorización de la Defensa Nacional de 2021, representa un primer paso importante. Los esfuerzos incipientes en todos los servicios deben ampliarse para ofrecer oportunidades de aprendizaje profesional comercialmente relevantes en todos los puntos de la carrera de los miembros del servicio.
La inteligencia artificial está alterando rápidamente el análisis tradicional y convirtiéndose en un multiplicador de fuerzas para los humanos, permitiéndoles centrarse en la orquestación en lugar de en las minucias de las tareas memorísticas y repetitivas. La IA también puede desplazar algunas especializaciones actuales, liberando a las personas para que desempeñen funciones más adecuadas para los humanos. Entender la Ley de Kasparov puede ayudar a los militares a cultivar el talento adecuado para aprovechar plenamente este cambio.
Trevor Phillips-Levine es aviador naval y oficial de la rama de Apoyo Aéreo Conjunto de la Armada. Es coautor de varios artículos sobre plataformas autónomas o pilotadas a distancia, publicados en el Center for International Maritime Security, la revista U.S. Naval Institute Proceedings y el Modern Warfare Institute. Se puede contactar con él en LinkedIn o Twitter.
Michael Kanaan es Jefe de Estado Mayor de las Fuerzas Aéreas de los Estados Unidos y miembro de la Harvard Kennedy School. También es autor de T-Minus AI: Humanity's Countdown to Artificial Intelligence and the New Pursuit of Global Power. Puede encontrarlo en LinkedIn y Twitter.
Dylan Phillips-Levine es aviador naval y editor senior del Centro para la Seguridad Marítima Internacional.
Walker D. Mills es un oficial de infantería de marina que actualmente sirve como oficial de intercambio en la Academia Naval de Colombia en Cartagena, Colombia. También es becario no residente del Centro Brute Krulak para la Innovación y la Guerra Moderna y becario no residente de la Iniciativa para la Guerra Irregular. Ha escrito numerosos artículos para publicaciones como War on the Rocks, Proceedings y Marine Corps Gazette.
Noah "Spool" Spataro es un jefe de división que trabaja en las evaluaciones del Mando y Control Conjunto en el Estado Mayor Conjunto. Su experiencia abarca la transición y los requisitos de la tecnología de doble uso, la puesta en marcha y el mando de un escuadrón de aviones pilotados por control remoto, y el mando y control de la aviación. Es un distinguido graduado del Colegio de Información y Ciberespacio de la Universidad de Defensa Nacional.
Las posiciones expresadas aquí son las de los autores y no representan las del Departamento de Defensa ni las de ninguna parte del gobierno de los Estados Unidos.
Imagen: Dominio público