Agenda militant
Ailleurs sur le Web
![S’abonner au flux RSS [RSS]](images/rss.jpg)
- Une vie dans le tourisme (02/05)
- Une vie à Pôle emploi (02/05)
- 54 ème congres de la CGT – Analyse du document d’orientation par la FNIC CGT (02/05)
- Face au capitalisme, que peuvent la science et les scientifiques ? (29/04)
- Thèses pour une critique écosocialiste de l’intelligence artificielle (29/04)
- Le rôle des COMMUNISTES : CLASSE ou PEUPLE ? (29/04)
- Manuel Bompard, invité de TF1 (28/04)
- Dans la tempête, le Venezuela plie, mais ne rompt pas (28/04)
- Faut-il nationaliser l’économie pour sortir du capitalisme ? (24/04)
- Intervention de Frédéric Vuillaume lors de la première journée du congrès confédéral FO (23/04)
- Portugal. La droite vise à affaiblir la législation du travail. (23/04)
- Israël et les États-Unis mènent une guerre contre le développement de l’Iran (23/04)
- Hongrie : aux origines économiques de la défaite d’Orbán (23/04)
- Les Écologistes : une fronde interne contre la candidature de Marine Tondelier à la présidentielle (23/04)
- Communisme et salaire chez Bernard Friot (21/04)
- Inventer des vies désirables. Entretien avec Séverin Muller (21/04)
- Un stade technofasciste du capitalisme numérique ? (21/04)
- EXCLUSIVITÉ QG : "Le système Macron : perversion et évaporation de millions" (21/04)
- Appel des 30 ans d’Acrimed : Transformer les médias, une urgence démocratique ! (20/04)
- "QUELQUE CHOSE DE GROS SE PRÉPARE AVEC LA FINANCE" - Frédéric Lordon (19/04)
- IA : une nouvelle étape de la lutte des classes ? (18/04)
- "Une civilisation va mourir ce soir" – Trump, instrument et produit du chaos mondial (17/04)
- Nommer la France qui apparaît (17/04)
- Décès de Roger Establet (17/04)
- L’Ecole face aux logiques du capitalisme (17/04)
Liens
Hawking et Musk réclament l’interdiction des "robots tueurs"
Ces articles de la rubrique « Ailleurs sur le web » sont publiés à titre d'information et n'engagent pas la Tendance CLAIRE.
C’est une nouvelle charge portée contre les dangers potentiels de l’intelligence artificielle (IA). Dans une lettre ouverte publiée lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l’interdiction des armes autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».
Parmi les signataires, on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle rachetée par Google.
« Une course à l’armement »
Publiée à l’occasion de l’IJCAI, une conférence internationale sur l’intelligence artificielle, qui se tient du 25 au 31 juillet à Buenos Aires, la lettre dénonce un danger imminent :
« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires. »
Leur crainte : que les Etats se lancent dans « une course à l’armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». Pour eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer ».
Selon les signataires, une telle escalade serait « inévitable » si une puissance militaire se lançait dans ce domaine et, « contrairement aux armes nucléaires, [ces armes] ne nécessitent aucun matériel de base coûteux ou difficile à obtenir ». Par conséquent, préviennent-ils, « ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique ».
Cette lettre a été publiée par le Future of Life Institute (FLI), un organisme américain à but non lucratif qui se focalise, peut-on lire sur son site, sur « les risques potentiels du développement d’une intelligence artificielle de niveau humain » et qui « travaille à atténuer les risques existentiels auxquels doit faire face l’humanité ». Il avait récemment fait parler de lui en annoncant au début du mois le financement de 37 projets visant à prévenir les risques liés à l’intelligence artificielle, grâce à un don d’Elon Musk.
L’IA pourrait en pâtir
Mais ce texte ne se veut pas une charge contre l’intelligence artificielle. Les chercheurs qui l’ont signé redoutent au contraire qu’une telle application de l’IA ne « ternisse » ce champ de recherche et ne crée un « rejet majeur du grand public contre l’IA qui couperait court à tous ses bénéfices sociétaux futurs ».
La question de l’interdiction des « armes létales autonomes » a fait l’objet d’une réunion de l’ONU en avril. Le rapporteur spécial de l’ONU Christof Heyns plaide depuis plus de deux ans pour un moratoire sur le développement de ces systèmes, en attendant la définition d’un cadre juridique adapté. L’ONG Human Rights Watch a quant à elle dénoncé, dans un rapport publié en avril, « l’absence de responsabilité légale » s’appliquant aux actes de ces « robots tueurs ».
Le tout dans un contexte où l’interdiction de ces armes ne semble pas acquise pour tout le monde : en octobre dernier, la ministre de la défense norvégienne Ine Eriksen Søreide s’y était opposée. « Il serait inopportun d’interdire le développement des robots tueurs. Il est aujourd’hui difficile de savoir ce que recouvre cette notion. Il n’y a actuellement aucune technologie qui puisse vraiment recevoir ce qualificatif », avait-elle argué.




