Des robots de Rossum à l’intelligence artificielle

Leonid Savin (photo mad)

par Leonid Savin*

(25 avril 2021) Le 25 janvier 2021 a marqué le centenaire de la première représentation de la pièce de théâtre intitulée «R.U.R. – Les Robots universels de Rossum» (Rossum’s Universal Robots) de l’écrivain tchèque de science-fiction Karel Čapek. Cette pièce de théâtre a ouvert la voie aux livres ultérieurs sur le sujet, ainsi qu'à des films cyberpunks et postapocalyptiques comme «Terminator» et «Alien: Covenant». Les robots universels de Rossum ont été conçus comme des assistants pour humains, qui finissent néanmoins par se rebeller et détruire la race humaine, à l’exception d’un ouvrier d’usine dont ils ont besoin pour recréer leur espèce.

Le mot «robot» est rapidement entré dans le langage courant et a été appliqué à des mécanismes dotés d’un ensemble limité de fonctions programmables nécessitant des diagnostics, un entretien et des réparations. Plus récemment, cependant, surtout depuis le développement des ordinateurs et des cybertechnologies, des discussions sont en cours pour déterminer si les machines peuvent penser et prendre des décisions sur un pied d’égalité avec les humains.

Le principal commanditaire des dernières réalisations en matière de robotique et d’informatisation est de très loin l’armée, notamment aux Etats-Unis, où des centres spéciaux ont été créés pour développer des programmes, des applications et du matériel spécifiques. De nombreux laboratoires de l’armée de terre, de la marine et de l’armée de l’air américaines, avec l’aide d’entrepreneurs et des principales institutions du pays, mettent la dernière main à des prototypes de modèles avancés – toute cette technologie étant destinée à servir les nouvelles guerres que Washington prévoit mener dans le futur.

Les progrès récents dans ce domaine sont révélateurs.

Le navire sans équipage Ghost Fleet Overlord a récemment parcouru avec succès 4700 milles nautiques (8700 km) et a participé à l’exercice Dawn Blitz, lors duquel il a fonctionné de manière autonome pendant presque toute la durée de l’opération.

Ceux qui s’inquiètent de la puissance croissante de la Chine proposent d’utiliser de tels systèmes pour toute future relation avec l’Armée populaire de libération (APL), en utilisant des drones suicide sous-marins pour attaquer les sous-marins chinois, par exemple. Les Etats-Unis parlent déjà des robots de combat sous-marins et de surface qui seraient en cours de développement par l’armée chinoise et que les Chinois appellent la «Grande Muraille sous-marine». C’est pourquoi ils proposent d’établir la parité avec les Chinois ou de les devancer d’une manière ou d’une autre.

Les efforts de la Chine dans ce domaine montrent que l’existence de ces nouveaux types d’armes ne donne aux Etats-Unis aucune garantie que ces systèmes ne seront pas mis en service par d’autres pays. Par exemple, l’apparition de drones de combat dans un certain nombre de pays a obligé les Etats-Unis à développer des méthodes et des stratégies pour contrer les drones.

En 1920 est parue la pièce de science-fiction
«Les robots universels de Rossum» de Karel
Čapek, dans laquelle les robots finissent par
détruire la race humaine.

Ainsi, en janvier 2021, le ministère américain de la Défense a publié une stratégie de lutte contre les petits systèmes d’avions sans pilote, car il s’inquiète de l’évolution de la nature de la guerre et de la concurrence croissante, deux éléments qui remettent en cause la supériorité américaine.

Le lieutenant général Michael Groen, directeur du Joint Artificial Intelligence Center du ministère américain de la Défense, parle de la nécessité d’accélérer la mise en œuvre des programmes d’intelligence artificielle à usage militaire. «Nous pourrions bientôt nous retrouver dans un espace de combat défini par des décisions fondées sur des données, des actions intégrées et une énorme rapidité. Si nous faisons les efforts nécessaires pour mettre en œuvre l’intelligence artificielle aujourd’hui, nous nous retrouverons à l’avenir à opérer avec une efficacité et une efficience sans précédent», a déclaré Groen.

Le Centre commun d’intelligence artificielle du Pentagone, créé en 2018, est aujourd’hui l’une des principales institutions militaires à développer des «logiciels intelligents» pour les futurs systèmes d’armes, de communication et de commandement.

L’intelligence artificielle est aujourd’hui le sujet le plus discuté dans la communauté de recherche de la défense américaine. C’est une ressource qui peut aider à atteindre certains objectifs, comme permettre à des drones de voler sans surveillance, de recueillir des renseignements et d’identifier des cibles grâce à une analyse rapide et complète.

On suppose que le développement de l’intelligence artificielle entraînera une concurrence féroce, puisque l’IA elle-même se distingue de nombreuses technologies passées par sa tendance naturelle au monopole. Cette tendance exacerbera les inégalités nationales et internationales. Le cabinet d’audit PricewaterhouseCoopers prévoit que «près de 16 000 milliards de dollars de croissance du PIB pourraient être générés par l’IA d’ici 2030», dont 70 % pour les seuls Etats-Unis et la Chine. Si la concurrence est le cours naturel des choses, alors pour les entreprises qui utilisent l’intelligence artificielle à des fins militaires ou des technologies à double usage, l’envisager de cette manière semblera tout à fait logique. Ce sera un nouveau type de course à l’armement.

Sur le plan éthique, cependant, les systèmes militaires d’intelligence artificielle pourraient être impliqués dans la prise de décisions vitales ou dans l’imposition de peines de mort. Ce sont des systèmes d’armes létales autonomes qui peuvent sélectionner et frapper des cibles sans intervention humaine, mais aussi des programmes d’aide à la décision. Des gens plaident activement pour l’inclusion de machines dans les processus décisionnels complexes. Le scientifique américain Ronald Arkin, par exemple, affirme que ces systèmes ont non seulement souvent une meilleure connaissance de la situation, mais aussi qu’ils ne sont pas motivés par l’instinct de conservation, la peur, la colère, la vengeance ou une loyauté mal placée, ce qui laisse entendre que, pour cette raison, les robots seraient moins susceptibles de violer les accords de paix que les humains.

Certains pensent également que les fonctions d’intelligence artificielle peuvent transformer la relation entre les aspects tactique, opérationnel et stratégique de la guerre. L’autonomie et la mise en réseau, ainsi que d’autres technologies, notamment les nanotechnologies, la furtivité et la biogénétique, offriront des capacités de combat tactique sophistiquées sur terre, dans les airs et sur les mers. Par exemple, des bancs de véhicules sous-marins autonomes concentrés en des endroits précis dans l’océan pourraient compliquer les actions secrètes des sous-marins qui seraient en train d’assurer une frappe de représailles garantie de la part des puissances nucléaires. Par conséquent, d’autres plateformes tactiques pourraient également avoir un impact stratégique.

L’amélioration de la manœuvrabilité est également liée à l’intelligence artificielle. Celle-ci comprend entre autres des logiciels et des capteurs qui permettent aux robots d’être autonomes dans des endroits dangereux. C’est l’une des forces motrices de l’utilisation de systèmes autonomes par les militaires. L’armée américaine fonde de grands espoirs sur l’autonomie des machines, car elle pourrait offrir une plus grande flexibilité aux personnes qui commandent et combattent aux côtés des robots. Les développeurs américains s’attendent à passer de 50 soldats accompagnant un drone, un véhicule terrestre sans pilote ou un robot aquatique, comme c’est le cas actuellement, à un paradigme où une personne accompagne 50 robots.

Mais l’intelligence artificielle pourrait également créer de sérieux problèmes. Dans son application militaire, elle pourrait potentiellement accélérer le combat au point où les actions des machines dépassent les capacités mentales et physiques de ceux qui prendront les décisions dans les postes de commandement d’une guerre future. Par conséquent, la technologie dépassera la stratégie, et les erreurs humaines et les erreurs des machines vont très probablement fusionner – avec des conséquences imprévisibles et involontaires.

Une étude de la RAND Corporation, qui examine comment les machines pensantes influencent la dissuasion en matière d’affrontement militaire, met en évidence les graves problèmes qui pourraient surgir si l’intelligence artificielle était utilisée sur le théâtre des opérations. Sur la base des résultats de parties de jeux de guerre, il a été démontré que des actions qui étaient perçues par deux joueurs comme une désescalade étaient immédiatement perçues par l’intelligence artificielle comme une menace. Lorsqu’un joueur humain retirait ses forces afin de désamorcer une situation, les machines étaient plus susceptibles de considérer cela comme un avantage tactique qu’il fallait consolider. Et lorsqu’un joueur humain faisait avancer ses forces avec une démonstration de détermination évidente (mais non hostile), les machines avaient tendance à percevoir cela comme une menace imminente et à prendre les mesures appropriées. Le rapport a constaté que les gens devaient composer avec l’incertitude concernant non seulement les intentions de leur ennemi, mais aussi la perception de l’intelligence artificielle de leur ennemi. Les joueurs devaient également faire face à la manière dont leur propre intelligence artificielle pouvait interpréter les intentions humaines, tant amicales qu’hostiles.

En d’autres termes, l’idée contenue dans la pièce de Karel Čapek sur les robots est toujours d’actualité: il est impossible de prévoir le comportement de l’intelligence artificielle. Et si les robots «intelligents» ont un usage militaire, ils pourraient aussi devenir un danger pour leurs propriétaires. Même aux Etats-Unis, on trouve dans l’armée des sceptiques se trouvant dans le camp des traditionalistes, qui pensent que de telles innovations venant des utopistes de la Silicon Valley seront préjudiciables à l’art de gouverner américain.

Source: Oriental Review du 1/2/21

(Traduit par Hervé, relu par Wayan pour le Saker Francophone)

* Leonid Savin est auteur, analyste géopolitique et rédacteur en chef de Geopolitica.ru

* * *

Commentaire de la rédaction sur l'article intitulé «Des robots de Rossum à l'intelligence artificielle»

réd. En lisant l'article de Savin sur l'utilisation de l'intelligence artificielle dans les systèmes d'armes, on ne peut qu’en conclure ceci: «La guerre est obsolète.»

Une guerre dans laquelle des systèmes d'armes autonomes très dangereux analysent – sans intervention humaine – la situation et réagissent en fonction de leur évaluation à une vitesse telle qu'aucun humain ne peut plus intervenir de manière contrôlée, est tout aussi destructrice pour les alliés que pour les ennemis.

L'intelligence artificielle tant vantée ne pourra jamais être vraiment supérieure à l'homme: peser et évaluer les émotions et les intentions de l'adversaire, tenir compte des points de vue éthiques, envisager avec souplesse les possibilités de désescalade, même si elles sont à son propre «désavantage» à court terme – aucune machine ne peut faire tout cela.

Il suffit de se souvenir de la crise des missiles de Cuba en 1962. L'humanité a frôlé le précipice d'une catastrophe nucléaire. Voici trois situations délicates qui illustrent cela:

  • Un destroyer américain a forcé un sous-marin soviétique à faire surface. Le sous-marin était porteur d’une torpille nucléaire. Mais Vasily Alexandrovich Archipov, l'un des trois officiers responsables du lancement des armes nucléaires, a refusé de déclencher la torpille sans nouvel ordre de Moscou. Qu'aurait fait une machine à sa place?

  • Un avion-espion américain U-2 est abattu au-dessus de Cuba par un missile anti-aérien S-75; le pilote, le major Rudolf Anderson, est tué. Le président américain John F. Kennedy interdit malgré cela expressément une contre-attaque et accepte une nouvelle fois de poursuivre les négociations. Qu’aurait décidé une machine à sa place?

  • Lors d'une réunion secrète avec l'ambassadeur soviétique Anatoly Dobrynin, Kennedy demande à son frère de lui faire savoir qu'il accepterait également le retrait des missiles américains Jupiter stationnés en Turquie, comme l'avait exigé Nikita Khrouchtchev. Cette possibilité est restée secrète pour la plupart des membres du Comité exécutif, dont la majorité exigeait une attaque aérienne. Dobrynin a immédiatement relayé cette nouvelle à Moscou. Tard dans la nuit, Khrouchtchev a décidé d'accepter l'offre de Kennedy et de retirer les missiles de Cuba.1

Une machine «intelligente» aurait-elle pris la même décision à la place de Kennedy et de Khrouchtchev?

Notre monde aurait pu être anéanti si des systèmes d'armes autonomes dotés d'une «intelligence artificielle» avaient existé à l’époque.

Aujourd'hui, ils existent. C'est pourquoi, si l'on ne veut pas mettre en danger l'ensemble de la race humaine, toute guerre est aujourd'hui aussi obsolète qu'une guerre nucléaire.

1  Les informations sur la crise de Cuba proviennent de Wikipédia.

Retour