C’est à la fois la technologie de l’IA et l’éthique qui permettront à JADC2 – Breaking Defense Breaking Defense





Graphique d’intelligence artificielle avec l’aimable autorisation de Northrop Grumman.

Les questions qui pèsent sur l’application plus large de l’intelligence artificielle (IA) dans les opérations du ministère de la Défense se concentrent souvent sur la confiance. Comment l’opérateur sait-il si l’IA est erronée, qu’elle a fait une erreur, qu’elle ne s’est pas comportée comme prévu ?

Les réponses à de telles questions proviennent d’une discipline technique connue sous le nom d’IA responsable (RAI). C’est l’objet d’un rapport publié par la Defense Innovation Unit (DIU) à la mi-novembre intitulé Lignes directrices de l’IA responsable en pratique, qui répond à une exigence de la loi FY21 sur l’autorisation de la défense nationale (NDAA) visant à garantir que le DoD a «la capacité, les ressources requises et l’expertise suffisante pour garantir que toute technologie d’intelligence artificielle… est développée de manière éthique et raisonnable».

Les directives RAI de DIU fournissent un cadre pour les entreprises d’IA, les parties prenantes du DOD et les gestionnaires de programmes qui peuvent aider à garantir que les programmes d’IA sont construits avec les principes d’équité, de responsabilité et de transparence à chaque étape du cycle de développement d’un système d’IA, selon Jared Dunnmon, directeur technique du portefeuille intelligence artificielle/machine learning chez DIU.

Ce cadre est conçu pour atteindre quatre objectifs, a déclaré Dunnmon :

  • Clarifier les objectifs finaux, aligner les attentes et reconnaître les risques et les compromis afin d’accélérer le développement ;
  • Recourir à l’équité, à la responsabilité et à la transparence dans le développement, les tests et la vérification des systèmes d’IA afin d’éviter des éléments tels que les biais dans les systèmes de reconnaissance faciale, par exemple ;
  • Améliorer l’évaluation, la sélection, le prototypage et l’adoption afin d’éviter les mauvais résultats potentiels ; et
  • Encouragez des questions et des conversations constructives qui peuvent aider à mieux réussir les projets d’IA.

La confiance dans l’IA est avant tout

Tout comme les Trois lois de la robotique d’Isaac Asimov décrivent le comportement éthique des robots, les directives du DIU proposent cinq principes éthiques pour le développement et l’utilisation de l’intelligence artificielle.

    1. Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin, tout en restant responsable du développement, du déploiement et de l’utilisation des capacités d’IA. Cela signifie que les êtres humains conservent la responsabilité du développement et de l’utilisation de l’IA.
    2. Équitable: Le DoD prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités de l’IA. Cela nécessite de réduire les biais grâce à des tests, à la sélection d’ensembles de formation adéquats et à diverses équipes d’ingénierie.
    3. Traçable: Les capacités d’IA du ministère de la Défense seront développées et déployées de manière à ce que le personnel concerné possède une compréhension de la technologie, des processus de développement et des méthodes opérationnelles, y compris des méthodologies transparentes et vérifiables, des sources de données et des procédures de conception et de la documentation.
    4. Fiable: Les capacités d’IA du DoD auront des cas d’utilisation de mission explicites et bien définis et la sûreté, la sécurité et l’efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
    5. gouvernable: Le DoD concevra et développera des capacités d’IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d’éviter les conséquences imprévues, et aura la capacité de désengager ou de désactiver les systèmes déployés qui démontrent un comportement imprévu.

C’est ce cinquième principe, gouvernable, qui répond aux questions posées au sommet concernant le fait d’informer l’opérateur lorsque l’IA est erronée. Les opérateurs doivent établir la confiance dans les systèmes d’IA ou ils ne seront tout simplement pas utilisés. Ce n’est pas une option pour quelque chose d’aussi complexe que le concept d’opérations de commandement et de contrôle interarmées.

Dr. Amanda Muller, ingénieure-conseil en systèmes (IA) et membre technique, responsable de l’IA pour Northrop Grumman.

« Les systèmes d’IA gouvernables permettent une résiliation gracieuse et une intervention humaine lorsque les algorithmes ne se comportent pas comme prévu », a déclaré le Dr Amanda Muller, ingénieur conseil en systèmes d’IA et membre technique, qui est le responsable de l’IA pour Northrop Grumman, qui est l’un des rares entreprises avec une telle position. « À ce stade, l’opérateur humain peut soit prendre le relais, soit apporter des ajustements aux entrées, à l’algorithme ou à tout ce qui doit être fait. Mais l’humain conserve toujours la capacité de gouverner cet algorithme d’IA. »

L’adoption par Northrop Grumman de ces principes RAI renforce une confiance justifiée dans les systèmes d’IA en cours de création, car l’humain peut comprendre et interpréter ce que fait l’IA, déterminer si elle fonctionne correctement grâce à la vérification et à la validation, et prendre des mesures si ce n’est pas le cas.

L’importance de le faire est claire pour l’avenir de l’IA dans l’armée. Si les systèmes d’IA ne fonctionnent pas comme prévu ou sont imprévisibles, “les dirigeants ne les adopteront pas, les opérateurs ne les utiliseront pas, le Congrès ne les financera pas et le peuple américain ne les soutiendra pas”, indique le rapport final de la Commission de sécurité nationale. sur l’intelligence artificielle (NSCAI). Cette commission était une entité fédérale indépendante et temporaire créée par le Congrès dans la loi sur l’autorisation de la défense nationale pour l’exercice 2019. La commission était dirigée par l’ancien PDG de Google Eric Schmidt et l’ancien sous-secrétaire à la Défense Robert Work, et a livré son document final de 756 pages. Rapport en mars 2021, dissolution en octobre.

“La puissance de l’IA réside dans sa capacité à apprendre et à s’adapter à des situations changeantes”, a déclaré Muller. « Le champ de bataille est un environnement dynamique et l’équipe qui s’adapte le plus rapidement prend l’avantage. Comme avec tous les systèmes, cependant, l’IA est vulnérable aux attaques et aux échecs. Pour vraiment exploiter la puissance de la technologie de l’IA, les développeurs doivent s’aligner sur les principes éthiques adoptés par le DoD.

La complexité des opérations tous domaines exigera l’IA

L’engagement du DoD à développer et à mettre en œuvre uniquement une intelligence artificielle responsable soutiendra le développement de systèmes pour JADC2. Une boucle OODA (Observe, Orient, Decide, Act) s’étendant de l’espace à l’air et au sol, et à la mer et au cyber ne sera possible que grâce à la capacité d’un système d’IA à contrôler l’infrastructure JADC2.

« L’IA pourrait percevoir et raisonner sur les meilleurs moyens de déplacer les informations entre différentes plates-formes, nœuds et décideurs », a expliqué Vern Boyle, vice-président des solutions de traitement avancées pour la division Solutions d’information en réseau de Northrop Grumman. « Et cela pourrait optimiser le mouvement de ces informations et la configuration du réseau car ce sera très complexe.

« Nous opérerons dans des environnements contestés où il sera difficile pour un humain de réagir et de comprendre comment faire fonctionner le réseau et les liaisons de communication. L’utilisation de l’IA pour contrôler l’infrastructure de communication et de réseau va être un grand domaine d’application. »

Dans le même temps, la RAI servira de contrepoids aux concurrents des grandes puissances américaines, la Chine et la Russie, qui ne s’engageront certainement pas dans l’IA éthique alors qu’ils poussent pour le pouvoir. Dans le cadre de son plan stratégique, la Chine a déclaré qu’elle serait le leader mondial de l’IA d’ici 2030 et ses investissements dans les technologies à double usage telles que le traitement avancé, la cybersécurité et l’IA sont des menaces pour la domination technique et cognitive des États-Unis.

“La principale différence est que la Chine applique les technologies de l’IA largement dans tout le pays”, a déclaré Boyle. «Ils utilisent l’IA pour surveiller et suivre leurs citoyens, étudiants et visiteurs. Ils utilisent l’IA pour surveiller les comportements en ligne, les interactions sociales et la biométrie.

« La Chine ne se soucie pas des droits à la vie privée ou de l’application éthique des données que l’IA est en mesure de collecter et de partager. Toutes les données sont collectées et utilisées à la fois par l’industrie et le gouvernement chinois pour faire avancer leur objectif de domination mondiale et technique d’ici 2030. »

Selon Boyle, la réponse américaine aux actions de la Chine est fondamentale pour garantir que l’utilisation de l’IA par le ministère de la Défense reflète les valeurs démocratiques.

« Il est essentiel que nous agissions rapidement pour établir la norme mondiale pour une utilisation responsable et éthique de l’IA, et pour garder une longueur d’avance sur les progrès de la Chine et de la Russie vers le plus petit dénominateur commun. Les États-Unis, nos partenaires alliés et toutes les nations à l’esprit démocratique doivent travailler ensemble pour diriger le développement de normes mondiales autour de l’IA et du développement des talents. »

Les systèmes Northrop Grumman pour combler l’écart de connectivité/réseau

Cela contribuera à combler l’un des déficits de capacités les plus importants auxquels les forces armées sont actuellement confrontées, à savoir la connectivité et la mise en réseau de base. Les plates-formes et les capteurs nécessaires pour prendre en charge JADC2 (satellites, systèmes aériens et terrestres sans pilote et destroyers lance-missiles, pour n’en nommer que quelques-uns) ne sont pas nécessairement en mesure de se connecter et de déplacer efficacement les informations en raison des systèmes de communication et de mise en réseau existants.

Cette réalité freinera les ambitions du DoD en matière d’IA et d’apprentissage automatique pour les opérations tactiques.

«C’est à la fois un écart et un défi», a observé Boyle. « Supposons, cependant, que tout le monde est connecté. Maintenant, il y a un problème d’information. Tout le monde ne partage pas ses informations. Ce n’est pas décrit de manière standard. Avoir la capacité de comprendre et de raisonner sur l’information suppose que vous êtes capable de la comprendre. Ces capacités ne sont pas encore nécessairement matures non plus.

Il existe également des défis en ce qui concerne la sécurité à plusieurs niveaux et la capacité de partager et de distribuer des informations à différents niveaux de classification. Cela ajoute un niveau de complexité qui n’est généralement pas présent dans le secteur commercial.

La gravité de ce problème et la nécessité de le résoudre au nom d’opérations tous domaines poussent Northrop Grumman à donner la priorité à l’application réussie de l’IA aux communications et aux réseaux.

La société dispose de nombreuses capacités déployées actuellement sur des plates-formes importantes telles que Global Hawk et travaille avec ses clients pour tirer parti des systèmes de passerelle actuellement en service pour le relais de données, tout en développant de nouvelles capacités pour combler les lacunes dans les communications et les réseaux.

Graphique AI avec l’aimable autorisation de Northrop Grumman.

Le portefeuille de Northrop Grumman contient déjà les technologies habilitantes nécessaires pour connecter les forces interarmées, notamment les réseaux avancés, l’IA/ML, l’espace, les systèmes de commandement et de contrôle, les systèmes autonomes alimentés par l’autonomie collaborative et les fonctionnalités de résilience avancées nécessaires pour se protéger contre les menaces émergentes. Et il développe une IA qui sert de tissu conjonctif aux plates-formes, capteurs et systèmes militaires pour communiquer les uns avec les autres, leur permettant de transmettre des informations et des données à l’aide de systèmes ouverts et sécurisés, de la même manière que nous utilisons Internet et la 5G de nos jours. -la vie quotidienne.

“Le DoD a déclaré qu’il doit disposer d’une force compatible avec l’IA d’ici 2025, car la vitesse sera le différenciateur dans les batailles futures”, a déclaré Boyle. “Cela signifie la vitesse pour comprendre l’espace de bataille; la vitesse pour déterminer la meilleure ligne de conduite à adopter dans un espace de combat très complexe et dynamique ; et la rapidité pour pouvoir prendre les mesures appropriées. Ensemble, ils permettront au DoD d’exécuter plus rapidement la boucle OODA (Observe, Orient, Decide, Act).

« L’IA et le traitement spécialisé avancé à la pointe tactique fourniront un avantage stratégique en matière d’informations. L’IA et l’informatique de pointe sont les principales technologies habilitantes pour JADC2.





Leave a Comment