samedi 1 août 2015

L'intelligence artificielle armée, encore un danger contre lequel on ne luttera pas

En décembre 2014, l’astrophysicien Stephen Hawking, considéré comme un des plus brillants scientifiques de notre époque et pour tout dire comme un des hommes les plus intelligents que compte actuellement l’humanité, nous avait mis en garde dans un entretien contre la menace que représentait à ses yeux le développement de l’intelligence artificielle. Il n’y allait pas de main morte puisqu’il l’estimait susceptible de mettre en péril l’existence même de notre espèce – rien de moins. Avec évidemment de bons arguments, en particulier le fait qu’une fois enclenchée, l’intelligence artificielle « décollerait toute seule et se redéfinirait de plus en plus vite », alors que « les humains, limités par la lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés ».

Le 27 juillet dernier, nouvelle tentative, cette fois signée par plus d’un millier de personnalités – on retrouve d’ailleurs Stephen Hawking –, et visant spécifiquement  les armes autonomes, celles qui sont capables « de sélectionner et de combattre des cibles sans intervention humaine ». En d’autres termes, l’intelligence artificielle, mais armée. Là encore, les arguments sont de bon sens : risque d’une course aux armements « intelligents », qui, vu leur coût finalement assez faible et le peu de matériaux qu’ils requièrent, se retrouveraient fatalement in fine dans la nature, c’est-à-dire aux mains de terroristes, de dictateurs ou d’assassins. L’intelligence artificielle armée serait évidemment incontrôlable, et donc bien trop dangereuse : tout un chacun devrait pouvoir s’en rendre compte.

On trouve d’ailleurs, parmi les signataires de la pétition, de nombreux chercheurs et ingénieurs qui travaillent justement sur l’intelligence artificielle. Leur attitude est bien entendu d’une grande naïveté ; elle consiste à dire : « Je vais fabriquer une chose que les militaires auront très, très envie d’utiliser, parce qu’elle leur procurerait un avantage très net dans les guerres de l’avenir, mais je vais demander aux militaires, par vertu, de ne surtout pas l’utiliser ».

Faire appel à la vertu des militaires pour qu’ils n’utilisent pas la dernière trouvaille technique est aussi illusoire, aussi chimérique que de faire appel à la vertu des grands patrons pour qu’ils respectent l’environnement ou distribuent équitablement les profits de leurs entreprises. L’armée n’est pas « moralisable » pour la même raison que le capitalisme ne l’est pas non plus : à cause, tout simplement, de la nature humaine, dont une des caractéristiques les plus notoires est justement de toujours rechercher le succès personnel à court terme plutôt que le bien commun à long terme. C’est vrai pour les individus comme pour les États : on utilise tous les moyens à disposition quand il s’agit de gagner une bataille.

Les auteurs de la pétition se réfèrent à l’interdiction des armes chimiques ou biologiques. Ils auraient difficilement pu trouver pire exemple : si ces armes ont effectivement été interdites, ce n’est que parce que l’humanité avait constaté les ravages qu’elles avaient causés pendant la Première Guerre mondiale. Encore faut-il rappeler d’une part que leur interdiction n’a été respectée qu’assez relativement, et d’autre part que si elle l’a été, c’est avant tout parce qu’on a trouvé largement aussi atroce, donc efficace, par la suite – du napalm à la bombe à hydrogène.

Nous assisterons donc, en la matière, au même cinéma que d’habitude : les protestations ne changeront rien à l’affaire. Ces armes seront développées, et le « contrôle » n’interviendra qu’a posteriori, c’est-à-dire après leur diffusion, donc bien après que soit éteinte toute possibilité réelle d’empêcher leur utilisation. C’est le propre de la technique industrielle moderne : quand on peut faire quelque chose, et parce qu’on peut le faire, on le fait. On a cessé depuis longtemps de se demander si c’était bon, ou profitable à tous à long terme, ou moral – éthique pour parler à la mode.

Il n’y a, bien sûr, aucune fatalité là-dedans : nos sociétés pourraient faire un autre choix. Nous pourrions cesser d’utiliser certaines techniques ; un autre scientifique extrêmement brillant, Ted Kaczynski, mieux connu sous le pseudonyme d’Unabomber, avait démontré l’inanité du mythe selon lequel « on n’arrête pas le progrès ». L’abandon de certaines technologies est parfaitement possible et ne constituerait nullement un « retour en arrière » – le temps et l’humanité n’avancent que dans un seul sens – ; mais ce choix ne peut être que global et collectif. On peut renoncer à l’intelligence artificielle ; mais prétendre qu’on va continuer à la développer, mais que l’armée ne pourra jamais s’en servir, ça, c’est un rêve de singe.

Aucun commentaire:

Enregistrer un commentaire