[RSS] Twitter Youtube Page Facebook de la TC Articles traduits en castillan Articles traduits en anglais Articles traduits en allemand Articles traduits en portugais

Newsletter

Ailleurs sur le Web [RSS]

Lire plus...

Twitter

Hawking et Musk réclament l’interdiction des "robots tueurs"

Lien publiée le 28 juillet 2015

Tweeter Facebook

Ces articles de la rubrique « Ailleurs sur le web » sont publiés à titre d'information et n'engagent pas la Tendance CLAIRE.

http://www.lemonde.fr/pixels/article/2015/07/27/intelligence-artificielle-hawking-musk-et-chomsky-reclament-l-interdiction-des-armes-autonomes_4701102_4408996.html

C’est une nouvelle charge portée contre les dangers potentiels de l’intelligence artificielle (IA). Dans une lettre ouverte publiée lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l’interdiction des armes autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».

Parmi les signataires, on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle rachetée par Google.

« Une course à l’armement »

Publiée à l’occasion de l’IJCAI, une conférence internationale sur l’intelligence artificielle, qui se tient du 25 au 31 juillet à Buenos Aires, la lettre dénonce un danger imminent :

« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires. »

Leur crainte : que les Etats se lancent dans « une course à l’armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». Pour eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer ».

Selon les signataires, une telle escalade serait « inévitable » si une puissance militaire se lançait dans ce domaine et, « contrairement aux armes nucléaires, [ces armes] ne nécessitent aucun matériel de base coûteux ou difficile à obtenir ». Par conséquent, préviennent-ils, « ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique ».

Cette lettre a été publiée par le Future of Life Institute (FLI), un organisme américain à but non lucratif qui se focalise, peut-on lire sur son site, sur « les risques potentiels du développement d’une intelligence artificielle de niveau humain » et qui « travaille à atténuer les risques existentiels auxquels doit faire face l’humanité ». Il avait récemment fait parler de lui en annoncant au début du mois le financement de 37 projets visant à prévenir les risques liés à l’intelligence artificielle, grâce à un don d’Elon Musk.

L’IA pourrait en pâtir

Mais ce texte ne se veut pas une charge contre l’intelligence artificielle. Les chercheurs qui l’ont signé redoutent au contraire qu’une telle application de l’IA ne « ternisse » ce champ de recherche et ne crée un « rejet majeur du grand public contre l’IA qui couperait court à tous ses bénéfices sociétaux futurs ».

La question de l’interdiction des « armes létales autonomes » a fait l’objet d’une réunion de l’ONU en avril. Le rapporteur spécial de l’ONU Christof Heyns plaide depuis plus de deux ans pour un moratoire sur le développement de ces systèmes, en attendant la définition d’un cadre juridique adapté. L’ONG Human Rights Watch a quant à elle dénoncé, dans un rapport publié en avril, « l’absence de responsabilité légale » s’appliquant aux actes de ces « robots tueurs ».

Le tout dans un contexte où l’interdiction de ces armes ne semble pas acquise pour tout le monde : en octobre dernier, la ministre de la défense norvégienne Ine Eriksen Søreide s’y était opposée. « Il serait inopportun d’interdire le développement des robots tueurs. Il est aujourd’hui difficile de savoir ce que recouvre cette notion. Il n’y a actuellement aucune technologie qui puisse vraiment recevoir ce qualificatif », avait-elle argué.


 

Voir toutes les vidéos