La deuxième phase de l’IA militaire est arrivée

 La deuxième phase de l’IA militaire est arrivée


Comme j’écris également dans mon histoire, cette poussée soulève des alarmes de certains experts en matière de sécurité de l’IA pour savoir si les grands modèles de langage sont aptes à analyser des éléments d’intelligence subtiles dans des situations avec des enjeux géopolitiques élevés. Il accélère également les États-Unis vers un monde où l’IA n’analyse pas seulement les données militaires mais suggère des actions – par exemple, générer listes de cibles. Les partisans disent que cela promet plus grand La précision et moins de morts civiles, mais de nombreux groupes de défense des droits de l’homme soutiennent le contraire.

Dans cet esprit, voici trois questions ouvertes pour garder un œil sur les militaires américains, et d’autres dans le monde, apportent une IA générative à plus de parties de la soi-disant « tuer la chaîne. « 

Quelles sont les limites de «l’homme dans la boucle»?

Parlez à autant d’entreprises de la défense-technologie que moi et vous entendrez une phrase répétée assez souvent: «humain dans la boucle». Cela signifie que l’IA est responsable de tâches particulières, et les humains sont là pour vérifier son travail. Il est censé être une sauvegarde contre les scénarios les plus lugubres – je commande à tort une grève mortelle, par exemple – mais aussi contre des mésaventures plus insignifiantes. Implicite dans cette idée est un aveu que l’IA fera des erreurs, et une promesse que les humains les attraperont.

Mais la complexité des systèmes d’IA, qui tirent des milliers de données, font que la tâche herculéenne pour les humains, explique Heidy Khlaaf, qui est le scientifique en chef de l’IA à l’Institut de l’IA Now, une organisation de recherche, et a précédemment dirigé des audits de sécurité pour les systèmes à propulsion de l’IA.

«« L’humain dans la boucle »n’est pas toujours une atténuation significative», dit-elle. Lorsqu’un modèle d’IA s’appuie sur des milliers de points de données pour tirer des conclusions, « il ne serait pas vraiment possible pour un humain de passer au crible cette quantité d’informations pour déterminer si la sortie de l’IA était erronée. » Comme les systèmes d’IA s’appuient sur de plus en plus de données, ce problème s’allonge.

L’IA rend-elle plus facile ou plus difficile de savoir ce qui devrait être classé?

Dans l’ère de la guerre froide des renseignements militaires américains, les informations ont été capturées par des moyens secrètes, écrits dans des rapports d’experts de Washington, puis tamponnés «Top Secret», avec un accès limité à ceux qui ont des autorisations appropriées. L’âge du Big Data, et maintenant l’avènement de l’IA génératrice pour analyser ces données, bouleverse l’ancien paradigme de nombreuses façons.

Un problème spécifique est appelé classification par compilation. Imaginez que des centaines de non classé Les documents contiennent tous des détails distincts d’un système militaire. Une personne qui a réussi à reconstituer ces ensemble pourrait révéler des informations importantes qui, seule seraient classées. Pendant des années, il était raisonnable de supposer qu’aucun humain ne pouvait relier les points, mais c’est exactement le genre de chose que les modèles de langage grands excellent.

Avec la montagne de données qui augmentent chaque jour, puis l’IA créant constamment de nouvelles analyses, «je ne pense pas que quiconque ait trouvé de bonnes réponses pour ce que devrait être la classification appropriée de tous ces produits», explique Chris Mouton, ingénieur principal pour Rand, qui a récemment testé la façon dont Générative est bien adaptée à l’intelligence et à l’analyse. Sous-classification est un problème de sécurité américain, mais les législateurs ont également critiqué le Pentagone pour surclassifiant information.



Source link

Related post