Agenda militant
Ailleurs sur le Web
![S’abonner au flux RSS [RSS]](images/rss.jpg)
- Action de mise à l’arrêt d’une usine de pesticides interdits : "bloquons BASF" (04/12)
- Organisation du Travail et Communisme - Bernard FRIOT & Frédéric LORDON (02/12)
- La « peur rouge » aux États-Unis, hier comme aujourd’hui (02/12)
- Le service militaire. - La chronique de Pierre-Emmanuel Barré (30/11)
- Décès d’Henri Benoits (30/11)
- Guerre et service militaire : les médias sonnent le tocsin (29/11)
- La meute médiatique, le retour ? Manuel Bompard, Rima Hassan et Paul Vannier publient leurs réponses à Belaich et Pérou (29/11)
- Le capitalisme comme totalité : une introduction rapide à son histoire (27/11)
- L’État contre les associations. Extrait du livre d’Antonio Delfini et Julien Talpin (27/11)
- SONDAGE MÉLENCHON - BARDELLA : C’EST PIRE QUE CE QUE VOUS CROYEZ !! (27/11)
- Contre-enquête sur le fiasco du Louvre (25/11)
- Mélenchon : Magouilles et trahisons à tous les étages (25/11)
- Face à la crise du capitalisme : la militarisation de l’enseignement (24/11)
- Russie. Depuis sa cellule, entretien avec Boris Kagarlitsky (24/11)
- Abdourahman A. Waberi, Autoportrait avec Mélenchon : l’homme qui a sauvé la gauche (23/11)
- Glucksmann le loser (23/11)
- Convention Municipales de LFI - LE DIRECT (23/11)
- Ce journaliste a enquêté sur les liens secrets entre les grands patrons et le RN (23/11)
- Commission anti-LFI, agences de renseignements privées, sondages bidons, général bavard. (22/11)
- La critique marxiste de Rosa Luxemburg (21/11)
- Comment la gestion de la dette publique appauvrit l’État au profit du secteur privé (20/11)
- Moscou ne croit pas aux larmes : l’ambiguïté de la condition de la femme soviétique (20/11)
- Sexualités et politique : le pari du flou. Réponse de Houria Bouteldja à Sandra Lucbert (19/11)
- La fierté de Gaza. Entretien avec Emmanuel Dror (19/11)
- Mélenchon : Arcelor, Europe, Malbouffe, PS autobloquant (17/11)
"Pouvoir inhumain". Intelligence artificielle, capitalisme et lutte pour le communisme
Ces articles de la rubrique « Ailleurs sur le web » sont publiés à titre d'information et n'engagent pas la Tendance CLAIRE.
« Pouvoir inhumain ». Intelligence artificielle, capitalisme et lutte pour le communisme
Qu’il y a-t-il « d’intelligent » dans l’Intelligence Artificielle ? Dans quelle mesure peut-elle transformer le capitalisme et quelle place peut-elle trouver dans un projet communiste et révolutionnaire ? Recension d’un livre clé pour examiner la promesse prométhéenne des barons du capitalisme de la Silicon Valley.

Article initialement paru en espagnol dans Ideas de Izquierda.
L’« intelligence artificielle » occupe une place de plus en plus importante dans le débat public. Il suffit de rechercher « intelligence artificielle » sur Google pour obtenir 256 millions de résultats (et des articles dans tous les journaux du pays et du monde). On y est confronté en permanence sur nos écrans, que ce soit avec WhatsApp, Chat GPT ou les images hyperréalistes d’Aurora, l’outil de génération d’images de Grok, le « chatbot avec IA » de X, parmi beaucoup d’autres applications. En Argentine, Javier Milei lui-même lui a accordé une place centrale, l’intégrant à son pot-pourri paléo-libertarien, comme une promesse d’avenir et de prospérité pour le pays.
Ce battage médiatique voit l’avenir en grand : les gourous de la Silicon Valley (foyer et symbole des entreprises technologiques mondiales) comme Raymond Kurzweil, ancien PDG de Google, parlent déjà d’une « singularité technologique », d’une nouvelle espèce post-humaine à portée de main. Le philosophe Nick Bostrom affirme qu’avec l’IA, « le sans-abri du futur pourrait être l’équivalent du milliardaire d’aujourd’hui » (Perfil, 24/12/2024) ; et les méga-milliardaires propriétaires de l’IA, comme Elon Musk, n’hésitent pas à dire que « l’intelligence humaine, et non numérique, ne représentera que 1 % » et qu’« il y a même une chance que [l’IA] mette fin à l’humanité ». Bref, le capital la présente comme sa principale promesse d’avenir, raffermie – comme le souligne un récent éditorial de Nature - par l’arrivée au pouvoir de Trump, avec nul autre que Musk à la tête du « Department of Government Efficiency ». Mais quelle est la réalité derrière les promesses, à quel point l’IA est-elle « intelligente », quels changements implique-t-elle ou pourrait-elle impliquer pour l’humanité ? Et, pour les opposants à Musk & co, quelles sont les défis stratégiques que l’IA pose au mouvement anticapitaliste et communiste ?
Inhuman power. Artificial Intelligence and the Future of Capitalism [1] (Pouvoir inhumain. Intelligence artificielle et le futur du capitalisme), le livre de Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, initialement publié en 2019 par Verso et qui vient de paraître en espagnol chez Prometeo, aborde ces questions en profondeur. Nick Dyer-Witheford est professeur et chercheur à l’Université de Western Ontario (Canada) et auteur de plusieurs ouvrages sur les relations entre capitalisme et cybernétique. Dans Cyber proletariat (2015, Verso), il analyse, en discussion avec le courant autonomiste dont il est issu, le monde du travail dans un capitalisme qui - malgré tout - répond encore à la description marxiste d’un « vampire » qui se nourrit de travail non rémunéré pour extraire une plus-value, un processus d’accumulation auquel la cybernétique fournit de nouveaux instruments pour rechercher une main-d’œuvre bon marché à l’échelle mondiale et désarmer l’organisation de la classe ouvrière, de plus en plus étendue mais aussi de plus en plus précarisée. Co-auteur, Attle Mikkola Kjosen est également professeur à l’université de Western Ontario, où il étudie l’intersection entre le marxisme et les médias, la logistique et le commerce, et l’intelligence artificielle. De son côté, James Steinhoff est professeur à l’University College Dublin et auteur de Automation and autonomy : labour, capital and machines in the artificial intelligence industry (Palgrave McMillan, 2021).
Le livre a le mérite de dépasser l’enfumage publicitaire sur l’IA. Ce que l’on appelle « intelligence artificielle », par analogie avec l’intelligence humaine dont les opérations seraient réalisées désormais par des machines, tient plutôt d’un « capitalisme de l’IA réellement existant », une « IA étroite » par rapport à une IA plus développée ou « générale », par analogie avec le « socialisme réellement existant » promu par le stalinisme. En d’autres termes, malgré les progrès indéniables dans le traitement des données et les possibilités technologiques qui en découlent, l’IA est encore très loin de l’« intelligence », comme ils le démontrent en analysant en profondeur la morphologie de l’IA aujourd’hui. De quoi nous rassurer au sujet des prévisions de Musk et compagnie pour l’avenir ? Pas vraiment. En effet, le deuxième mérite du livre est de s’atteler à l’analyse des perspectives de développement de l’IA. Ainsi, à partir du stade actuel, l’économie de l’IA peut soit stagner, imploser (comme autant de bulles), ou bien son développement pourrait emmener l’humanité sur deux chemins différents.
Le développement de cette technologie pourrait, dans un premier scénario, donner naissance à un « capitalisme de l’IA » au sein duquel le capital incorporerait finalement les capacités intellectuelles des êtres humains (dans les termes de Marx, une « hyper-subsomption » du travail sous le capital [2]), un scénario cauchemardesque mais possible, selon les auteurs. Mais le développement de l’IA pourrait ouvrir un second scénario qui permettrait de conjurer le premier grâce à l’établissement d’une formation sociale radicalement différente, le communisme, au moyen de la lutte des classes. À partir de là, le livre s’emploie à batailler contre deux conceptions communes.
Contre le point de vue selon lequel « rien ne change » (un « minimalisme de gauche », représenté par des auteurs tels qu’Ursula Huws, Kim Moody ou Astra Taylor, critiqués pour leur manque d’historicité) ; et contre la position opposée, selon laquelle « il faudrait tout changer et accélérer le changement », représentée par ce qu’ils appellent – peut-être excessivement – les « maximalistes de gauche ». Pour ces derniers, l’IA serait un tremplin vers le socialisme. Ce groupe rassemble des « accélérationnistes » comme Srnicek et Williams, des « post-capitalistes » comme Paul Mason, les défenseurs du « communisme du luxe automatisé » comme Aaron Bastani ou encore des courants « xénoféministes », autonomistes et post-opéraïstes.
Contre ces deux positions, les auteurs soulignent que l’IA n’est pas une technologie neutre et un instrument vide de tout projet idéologique : les propriétaires des entreprises de la Tech et les concepteurs de l’IA lui confèrent une fonction technologique et sociale. Il est ainsi primordial, en tout cas, de prendre au sérieux l’accélérationnisme de droite de Nick Land, qui juge que l’IA est la « forme technologique la plus avancée du capitalisme » et que son développement final implique l’émancipation, non de l’homme à l’égard du capital, mais du capital par rapport à l’homme, rendant possible, selon les mots de Marx, que cette « puissance inhumaine » domine tout. Face à cela, les auteurs développent ce qu’ils appellent une « critique abyssale » de l’IA, qui prend au sérieux la perspective la plus sombre (comme nous le verrons, l’idéologie hégémonique de la Silicon Valley et peut-être de la Maison Blanche), afin d’informer la stratégie révolutionnaire des défis qu’elle va devoir affronter :
« Nous lisons l’IA et le marxisme - écrivent les auteurs - l’un à travers l’autre. L’IA à travers le marxisme, parce que l’analyse marxienne du capitalisme représente l’étude critique la plus approfondie de l’amalgame entre la marchandisation et la technologie qui conduit aujourd’hui le développement de la première. Marx à la lumière de l’IA, parce que l’IA problématise l’exceptionnalisme humain, l’agentivité et le travail d’une manière qui remet profondément en question les hypothèses marxistes et exige donc un examen minutieux de la part de ceux qui partagent l’aspiration marxienne à une révolution contre et au-delà du capital » [3].
La thèse générale du livre est que l’IA pourrait devenir une « condition générale de la production capitaliste », comme le transport ferroviaire ou maritime et aujourd’hui l’électricité, et provoquer un saut vers l’IA véritable, l’IA générale ou la super IA. L’ouvrage est divisé en trois chapitres qui développent cette thèse générale : 1) les moyens de cognition et la possibilité de l’IA comme « condition générale de la production » ; 2) l’automatisation de l’usine sociale et les changements dans le travail ; et 3) la perspective de l’IA générale et ses implications stratégiques pour le communisme.
Origines, état actuel et possibilités de développement de l’IA
Pour donner quelques éléments de contexte historique, les auteurs situent le début des études sur l’IA à un atelier tenu en 1956 au Dartmouth College (USA), où il était de question de développer des logiciels qui permettent « aux ordinateurs de faire des choses que, pour l’instant, les humains font mieux » [4]. Ce projet, ajoutons-le, s’inscrivait dans le sillage du développement de la cybernétique (c’est-à-dire des machines qui traitent de l’information et se rétro-alimentent) pendant et après la Seconde Guerre mondiale, qui a conduit à l’émergence des sciences cognitives, lesquelles prennent ces machines informatiques comme modèle de l’esprit humain [5].
Où en est ce projet aujourd’hui ? Pour le comprendre, l’ouvrage catégorise trois types d’IA : 1) l’intelligence artificielle étroite, celle « qui existe réellement aujourd’hui » ; 2) l’intelligence artificielle générale (IAG), qui impliquerait une « capacité à transférer l’apprentissage d’un domaine à l’autre », qui n’existe pas aujourd’hui et n’est qu’une hypothèse ; et 3) une super intelligence artificielle, une IAG qui pourrait aussi s’auto-modifier et donc évoluer vers une forme supérieure. De façon subsidiaire, les auteurs mentionnent le débat en cours entre les partisans d’une conception « faible » de l’IA, qui postulent que les machines ne pourraient jamais développer une conscience, et ceux qui défendent une conception « forte » selon laquelle elles pourraient le faire, débat sur lequel les auteurs se déclarent « agnostiques ».
Qu’est-ce donc que cette IA « étroite » et « réellement existante » aujourd’hui ? Les auteurs identifient trois écoles de pensée : l’intelligence artificielle classique (Good Old Fashioned Artificial Intelligence, la « bonne vieille IA » ou GOFAI) ; l’apprentissage machinal et automatique (machine learning) ; et le cadre situé, incarné et dynamique (situated, embodied and dynamical). La GOFAI ou IA « symbolique » est le premier courant des années 1980. Elle recherche à reproduire des fonctions cognitives supérieures à travers la manipulation d’informations encodées dans un langage symbolique comme, par exemple, les « systèmes experts », à l’image du célèbre ordinateur Deep Blue d’IBM, conçu pour jouer aux échecs, qui a battu le champion Garry Kasparov, nécessitant une grande puissance de calcul. Les approches du type situé, incarné et dynamique remettent en question les limites de la GOFAI et « soulignent l’importance du corps - sa morphologie et son appareil perceptif - pour la cognition », arguant que « c’est par la résolution de problèmes matériels que les machines peuvent développer des comportements intelligents » [6], pariant ainsi sur la communion entre la robotique et l’IA. En général, cette approche part du « paradoxe de Moravec » : il est relativement facile de faire en sorte que les ordinateurs développent les performances d’un adulte, en jouant aux échecs par exemple, mais qu’il est beaucoup plus difficile, voire presque impossible, de leur faire acquérir les compétences d’un enfant d’un an en termes de perception ou de mobilité.
L’autre grande approche, développée en réaction à la GOFAI, est l’apprentissage automatique (machine learning), anciennement appelé connexionnisme, qui a émergé dans les années 2010 avec la baisse du prix de la puissance de calcul et le Big Data, et qui est aujourd’hui dominant. Il s’agit d’une approche statistique de la reconnaissance des formes qui collecte des données pour entraîner un modèle avec elles, afin qu’il puisse faire des prédictions avec de nouvelles données et ainsi créer ses propres modèles de référence. Elle peut fonctionner avec plusieurs « architectures », mais depuis 2010, elle est surtout utilisée sur les réseaux neuronaux artificiels, des programmes informatiques inspirés du cerveau humain et de ses unités de traitement simples. Plus le modèle comporte de « couches », plus ses paramètres sont complexes. Le plus avancé dans ce domaine est le deep learning (apprentissage profond) : les réseaux neuronaux artificiels sont entraînés par l’exposition à un certain nombre de cas - des visages à une personne qui dit « bonjour », par exemple - et l’algorithme ajuste les poids des synapses jusqu’à ce qu’il « apprenne » à identifier la bonne réponse.
Il existe trois principaux types d’apprentissage profond : l’apprentissage profond supervisé, le plus réussi à ce jour, dans lequel un humain saisit des informations étiquetées par catégories et le système apprend ces catégories en identifiant des modèles dans les exemples saisis. Par exemple, avec de nombreuses photos de panneaux « stop » hexagonaux, sous différents angles et avec différentes visibilités, l’IA peut « apprendre » le « concept » d’un panneau « stop ».
Mais cela demande beaucoup de travail, c’est pourquoi certaines entreprises parient sur l’apprentissage non supervisé : l’idée qu’en exposant l’algorithme à un volume de données suffisamment important, il pourra identifier des corrélations complexes. Un modèle calqué sur les logiques d’apprentissages des animaux et des humains, telles qu’elles sont comprises par la psychologie cognitive - nous y reviendrons. Enfin, l’apprentissage par renforcement, intermédiaire entre les deux premiers, désigne une manière « d’apprendre ce qu’il faut faire […] afin de maximiser un signal de récompense numérique. On ne dit pas à l’apprenant quelles actions il doit effectuer [...] mais il doit découvrir quelles actions produisent les plus grandes récompenses en les testant » [7].
En 2013, la société Deep Mind a combiné cette méthode avec l’apprentissage non supervisé pour former un système à jouer à des jeux vidéo Atari « de manière surhumaine » sans avoir programmé de connaissances préalables sur les jeux dans le système, juste des scores et des informations sur les pixels de l’écran. C’est cette combinaison qu’Alpha Go (également de Deep Mind) a ensuite utilisée pour battre le champion du monde de go Lee Sedol, avec un mouvement qui a surpris tout le monde. Ces réalisations sont importantes – et nous en faisons l’expérience tous les jours, par exemple avec la publicité ciblée sur les réseaux – mais elles peuvent tout au plus généraliser leurs connaissances à de nouvelles données provenant de domaines similaires à ceux sur lesquels elles ont été formées. Transférer ces connaissances à d’autres domaines, soit les performances typiques d’une intelligence artificielle générale, est encore en dehors de leur portée.
Marxisme, machines et IA, une cartographie des débats
Les auteurs dressent une carte des approches marxistes du domaine de l’IA. Selon eux, les analyses marxistes de l’IA s’inscrivent dans le cadre plus général de l’étude des machines et de la cybernétique et peuvent être distinguées, de manière schématique, en trois courants de pensée.
Le courant principal part du Capital de Marx et de la conception de la machine comme appendice du travail humain, en relation avec la tendance du capital à augmenter sa composition organique, et aux crises qu’elle engendre : la stagnation et/ou la tendance à la baisse du taux de profit [8]. Dans ce cadre conceptuel, l’IA est analysée en termes d’exploitation du travail, de concurrence inter-capitaliste et de tendance aux crises induites par la technologie.
Le deuxième courant considère les machines comme autonomes et libératrices, en s’appuyant sur le « fragment sur les machines » dans les Grundrisse, qui donne à l’accélérationnisme de gauche, au post-capitalisme et à la théorie du communisme de luxe entièrement automatisé leurs bases conceptuelles : ces courants en retirent l’idée que l’automatisation pourrait subvertir le capital en abolissant le travail.
La troisième approche, qui s’appuie sur la section du Capital intitulé « Résultats du procès de production immédiat », souligne que le capital conçoit les machines en fonction de ses besoins systémiques et qu’avec leur développement, la contradiction entre forces productives et rapports de production tend à disparaitre.
En d’autres termes, cette lecture affirme la possibilité que le « travailleur collectif » soit subsumée sous la machine, dans un processus d’intégration/domination, et va jusqu’à faire l’hypothèse d’une possible « hyper-subsomption » du travail sous le capital en cas d’apparition d’intelligences artificielles générales. Les auteurs soutiennent que l’IA basée sur l’apprentissage automatique installe ces deux cas de figure extrêmes dans l’horizon des possibles.
Dans ce cadre, ils se réfèrent à l’analyse marxiste de l’IA et mettent en avant trois références : celle de Tesa Morris-Suzuki au Japon dans les années 1980 qui analyse la première vague d’automatisation ; celle de Ramin Ramtin et de son livre Capitalism and automation : Revolution in technology and capitalist breakdown de 1991, dont ils estiment qu’il s’agit de « la première tentative systématique de penser le capitalisme et la cybernétique » ; et celle du philosophe autonomiste américain George Caffentzis.
Les moyens de cognition
Le premier chapitre examine, d’un point de vue économique, l’état de l’industrie de l’IA et la possibilité, appelée de leurs vœux par les grandes entreprises, que l’IA devienne une nouvelle « condition générale de la production ». Une possibilité qui dépend du développement d’une véritable intelligence artificielle générale. Que signifie une condition générale de la production ? Pour Marx, il s’agit des technologies, des institutions et des pratiques qui façonnent la production capitaliste à un moment de son histoire et dans un lieu donné. A l’image des moyens de communication et de transport, historiquement le télégraphe ou le chemin de fer, elles ont un rôle central dans l’accélération du rythme de la production et de la circulation des marchandises. Tout comme le fordisme (avec la chaîne de montage et le taylorisme) et le post-fordisme (avec les technologies de l’information, de la logistique et de la communication) ont façonné le capitalisme, les auteurs affirment qu’avec la nouvelle infrastructure des « moyens de cognition », nous pourrions entrer dans un « capitalisme de l’IA réellement existante », forme intermédiaire qui préparerait un « capitalisme de l’IA » pleinement développé. Comme le dit Andrew Ng, ancien directeur de Baidu et de Google Brain, l’IA pourrait devenir une « nouvelle électricité » ou, comme le souligne le gourou de la technologie Kevin Kelly, une « ressource basique commune ».
D’où viendrait l’impulsion ? Principalement des États comme les États-Unis et la Chine, par exemple, et de leurs complexes militaro-industriels. Si l’Agence américaine pour les projets de recherche avancée en matière de défense (DARPA) a financé la création de l’internet dans les années 1970, il existe aujourd’hui 16 agences d’État qui financent l’IA, par exemple pour des armes comme les drones (comme ceux utilisés par l’État d’Israël en Palestine). La Chine a annoncé un plan pour prendre la tête de la recherche sur l’IA d’ici 2030, tout comme l’UE avec son laboratoire ELLIS. À cet égard, l’éditorial de Nature, mentionné plus haut, cite Mohammed Soliman, directeur du programme des technologies stratégiques et de la cybersécurité au Middle East Institute à Washington DC : « L’intelligence artificielle et les [sciences de l’information] quantiques sont les nouvelles lignes de front de la rivalité entre les États-Unis et la Chine, et tous les deux le savent. Il ne s’agit pas seulement d’une question politique : c’est une course à l’armement technologique ».
Les auteurs analysent les projets en cours (en 2017) pour avancer vers l’intelligence artificielle générale : 47 projets actifs dans 30 pays, menés principalement par des entreprises et des institutions gouvernementales, universitaires, publiques, ou des ONG. Neuf d’entre eux sont liés à des questions militaires tandis que la plupart se trouvent dans la sphère d’influence des États-Unis, seules la Chine et la Russie se situant à l’extérieur. Les plus importants sont Deep Mind (Google Alphabet), Open AI et le projet européen Human Brain. A chaque étape de leur analyse théorique, les auteurs présentent les nombreux développements de l’IA. Le Vicarious FPC d’Alphabet, par exemple, vise précisément à créer une IA « créative », capable d’« insight » et de reconnaissance « figure-fond » (ce qui est soit dit en passant la clé de l’intelligence humaine pour l’école de la « psychologie de la forme »).
L’autre force motrice provient du « vigoureux secteur de la recherche sur l’IA en open source », dirigé par des plateformes et des entreprises oligopolistiques [9]. L’industrie émergente de l’IA, associée à d’autres technologies émergentes, est apparue dans les années 1980 avec les systèmes experts GOFAI, a décliné dans les années 1990 et est réapparue avec force dans les années 2000 pour le ciblage publicitaire, les assistants virtuels, la réalité augmentée et les véhicules autonomes.
Depuis 2015, le financement par les entreprises est en hausse, avec des visions différentes sur la manière de rentabiliser la technologie, mais avec des géants très actifs : IBM, Alphabet de Google, avec son projet Google Brain et les projets acquis tels que Deep Mind, la robotique, les voitures autonomes, etc. ; Facebook, FB AI Research ; Amazon, avec ses entreprises Echo, Alexa, Lex, Rekognition (reconnaissance d’images), Polly (générateur de voix), etc. ; Microsoft, avec son assistante Cortana et son bot Tay (conçu pour imiter le discours d’une Américaine de 19 ans et pour apprendre à interagir avec des utilisateurs humains sur Twitter, qui a développé en une journée des préjugés racistes et sexistes, si bien qu’il n’est resté en ligne que 16 heures, le temps d’écrire 96 000 tweets [10]). Aux côtés de ces géants, il existe une multitude d’entreprises émergentes (leur nombre a doublé entre 2015 et 2019).
Les auteurs soulignent le rôle central des investissements dans le « cloud » (hardware) et dans l’énergie, qui ont été multipliés par 300 000 entre 2012 et 2019. L’énergie est au cœur de l’IA : si elle consommait 1,5 % de l’énergie produite dans le monde en 2022, les prévisions pour 2030 estiment qu’elle pourrait en consommer 4,5 %, et Google a récemment admis que ses émissions de gaz à effet de serre avaient augmenté de 48 % au cours des cinq dernières années. Un problème grave : le capitalisme concentre ses espoirs sur une technologie dévoreuse d’énergie, dans le contexte du réchauffement climatique qui s’intensifie précisément à cause de l’émission de gaz à effet de serre, produits par l’exploitation des sources d’énergie fossiles. Dans ce sens, l’IA a été associée au « drill, baby, drill », selon la formule de Trump lors de sa campagne pour encourager le forage de pétrole.
De la consommation intensive d’eau nécessaire pour refroidir les centres de données, dont on estime qu’elle pourrait représenter plus du double de la consommation d’un pays comme le Danemark et près des deux tiers de la consommation annuelle de l’Angleterre, au boom de l’extractivisme minier pour produire des puces et des batteries, le développement de l’IA témoigne de l’irrationalité inédite du capitalisme. Les auteurs soulignent d’ailleurs que ce niveau d’investissement est directement lié à la tendance à la concentration et au monopole que génère l’IA.
D’autres voies pour le déploiement de cette IA infrastructurelle existent comme l’internet des objets (le déploiement d’objets « intelligents » en réseau, c’est-à-dire basés les communications de machine à machine, à la manière des bots, qui représentent aujourd’hui 42 % du trafic internet total) ; la ville intelligente (manifestation urbaine de l’internet des objets, qui laisse le développement urbain aux mains des capitalistes de l’IA, comme le projet de Google Sidewalk dans la banlieue de Toronto, qui a déjà suscité une forte résistance) ; l’intelligence ambiante, « l’intermédiation d’une nouvelle couche intelligente entre les personnes et les systèmes », au moyen de laquelle le capital exproprie les capacités élémentaires de perception et de cognition humaines, par exemple les robots de conversation de type Google Duplex ; ou les magasins automatisés, tels que l’Amazon Go, qui a échoué.
L’automatisation de la fabrique sociale
Le chapitre 2 analyse l’IA comme une seconde vague d’automatisation technologique du capital, après l’émergence des NTIC (les « nouvelles technologies de l’information et de la communication » qui se sont développées depuis la seconde moitié du XXème siècle). Il s’interroge sur ses potentialités oppressives contre la classe ouvrière et sur les impacts de l’IA sur le monde du travail, la composition technique de la production et de la circulation, et les implications que l’apparition de robots dotés de l’intelligence artificielle générale auraient sur le concept de classe.
À partir de l’analyse des crises de 2008, 2011 et 2016, les auteurs soutiennent que, face aux signes d’un affaiblissement de la classe ouvrière et à l’instabilité alarmante du capitalisme actuel, l’IA est apparue comme une réponse capitaliste visant à réduire le coût du travail, à alimenter le militarisme et à renforcer la discipline impérialiste. Elle constitue également une réponse de la Silicon Valley face à la perception d’un danger pesant sur la démocratie libérale capitaliste aux États-Unis et en Europe : stimuler la croissance économique et accélérer la désintégration de la classe ouvrière.
Ils soulignent que l’IA nécessite beaucoup de main-d’œuvre (pour construire des modèles ou nettoyer les données, comme les modérateurs de contenu de Facebook, une activité externalisée au Kenya où les travailleurs se rebellent aujourd’hui, dénonçant des souffrances psychiques inouïes [11] et qu’elle détruit et crée dans le même temps des marchés du travail temporaires.
En ce qui concerne la reproduction sociale, les algorithmes favorisent les biais oppressifs qui déforment la perception et renforcent les oppressions de classe, de sexe, de genre et de race, dans les systèmes judiciaires et éducatifs par exemple, comme le dénonce Cathy O’Neil dans son livre Weapons of Math Destruction [12]. Ils renforcent aussi la surveillance « panoptique » [13], la précarité, ainsi que la polarisation et la concentration sociale.
L’analyse de la « grammatisation des réseaux », concept du philosophe français Bernard Stiegler, est également intéressante. Elle montre comment les algorithmes affectent le savoir vivre et la manière de penser des travailleurs à travers des technologies qui enregistrent, séparent et codifient l’activité humaine, étendent la subsomption réelle du travail sous le capital à l’activité vitale et quotidienne elle-même, et génèrent « des subjectivités désaffectées, confuses et incapables, “abruties” au sens le plus profond du terme [...] un état de décomposition intensifié » [14]. Des réflexions sans doute exagérées, mais qu’il est important d’avoir à l’esprit.
Enfin, le revers de la médaille de ce développement musclé, ce sont les luttes qui se sont développées pour le rejet du capitalisme de l’IA. Sept luttes sont particulièrement intéressantes : les grèves sur les lieux de travail pour les salaires et contre la précarité (Amazon, Deliveroo, Uber, etc,) ; contre les applications militaires de l’IA, notamment contre le projet « Lavender » utilisé par Israël en Palestine pour le génocide à Gaza [15] (chez Google et Amazon, par exemple) ; le mouvement anti-surveillance ; l’abandon des réseaux sociaux ; la rupture des biais algorithmiques (Algoritmic Justice League, par exemple) ; contre les villes numériques (contre Google Alphabeth à Quayside au Canada, par exemple) ; contre les sociétés technologiques de socialisation des banques de données. En conclusion, la recomposition de la classe à partir de ces luttes est encore incertaine et les analystes, même si leur opinion change en fonction de la situation économique, sont de plus en plus catastrophistes en ce qui concerne le chômage. Une seule certitude : l’avenir appartient à la lutte des classes.
Quel avenir ? Cauchemar du capitalisme IA ou communisme
Le troisième chapitre développe la thèse selon laquelle cette expropriation totale de l’« intelligence générale » humaine par le développement de l’IA impliquerait l’apparition de robots ayant la capacité de travailler et de créer de la valeur.
Dans les Grundrisse, Marx écrit : « Le développement du capital fixe indique jusqu’à quel degré le savoir social général, la connaissance, est devenu force productive immédiate, et, par suite, jusqu’à quel point les conditions du processus vital de la société sont passées sous le contrôle de l’intellect général, et sont réorganisées conformément à lui » [16]. Il s’agit, soulignent les auteurs, des capacités et des connaissances que le capital possède sous forme de machines.
Cette définition du « savoir social général » se distingue, selon les auteurs, de la définition post-opéraïste donnée par Paolo Virno de l’intelligence générale : « les facultés linguistiques-cognitives communes à l’espèce [humaine] » [17]. Selon Virno, les attributs du travail vivant ne se réduisent pas à la capacité scientifique objectivée, mais englobent la communication, l’abstraction, l’autoréflexion et se déploient dans l’interaction communicative, les paradigmes épistémiques, la capacité à dialoguer et à s’engager dans des jeux linguistiques [18]. Les auteurs intègrent ces éléments dans leur définition, y compris la sensibilité, mais affirment, à rebours des post-opéraïstes, qui considèrent qu’elles échappent au contrôle du capital, que le capital pourrait automatiser ces capacités, et que « plus la partie du cerveau social qui capture l’intellect général est grande, plus le capital devient puissant » [19]. Pour justifier cette remarque inquiétante, ils citent des exemples d’entreprises d’IA qui seraient « en chemin » vers cet objectif, comme la plateforme Quill, dédiée à la génération de texte en langage naturel ; OpenAI, qui a entraîné cinq réseaux « en coopération » pour vaincre une équipe professionnelle dans le jeu Defence of the Ancients 2 ; la capacité à résoudre des problèmes sémantiques complexes grâce au deep learning ; la capacité croissante de l’IA à capturer et à traiter les états émotionnels ; etc. Les auteurs critiquent ainsi la « conception anthropologique, plutôt que machinique » du post-opéraïsme, qui sous-estimerait dangereusement les possibilités de l’IA et donc du capital lui-même.
Selon les auteurs, cela remettrait en question l’anthropomorphisme qu’ils attribuent eux-mêmes à la théorie de la valeur de Marx et l’ « axiome selon lequel seuls les humains travaillent et créent de la valeur », ce qui n’est pas le cas des machines. À l’inverse, les auteurs utilisent la définition que Marx donne de l’intelligence animale [20], et par extension de l’intelligence humaine, à l’IA. Ils concluent qu’il existe ainsi une forme de symétrie entre la notion théorique d’intelligence artificielle générale et le concept marxien de travail et de force de travail. La conclusion des auteurs est évidente : il est théoriquement possible que des robots « intelligents » soient exploités par d’autres robots.
Il s’agit de la partie la plus spéculative de l’ouvrage qui émet de nombreuses hypothèses sur les différents chemins qui pourraient conduire à cette situation : soit par l’auto-affinement de l’apprentissage automatique (ce que tente de faire le projet AutoML de Google, par exemple, en cherchant à produire des algorithmes qui apprennent à construire d’autres algorithmes d’apprentissage automatique), soit par une intelligence artificielle générale (IAG) pré-construite, et par le processus social qui entoure son fonctionnement.
Dans quelles conditions l’IAG serait-elle capable de produire de la valeur ? Selon les auteurs, si Marx soutient que la force de travail se définit par « le résumé de toutes les aptitudes physiques et intellectuelles qui existent dans la corporéité, la personnalité vivante d’un être humain, et qu’il met en mouvement chaque fois qu’il produit des valeurs d’usage d’une espèce quelconque » [21], une IAG « pourrait être capable de “personnifier” la marchandise particulière qu’est la force de travail, et présenterait donc la potentialité de devenir un travailleur, une composante variable du capital » [22]. Le capital, à son tour, n’apparaîtrait plus comme un « sujet automatique », mais aussi comme un sujet « autonome »... par rapport aux humains [23].
Quel serait le statut ontologique de l’IAG au sein du mode de production capitaliste et comment cela se produirait-il ? Verra-t-on des « prolétaires artificiels », à la manière de ceux de la rébellion robotique commandée par la courageuse Dolores Abernathy dans la – recommandable - série Westworld ? Pour les rendre propriétaire de leur seule force de travail et non des « esclaves » (qui en tant que tels ne produisent pas de valeur), ils seraient dépossédés de leurs moyens de subsistance (des sources d’énergie, par exemple) et contraints de vendre leur force de travail sur le marché, et deviendraient ainsi une nouvelle partie de la classe ouvrière exploitée (mais ce scénario pose de très nombreux problèmes conceptuels). Le capital apparaîtrait alors, selon leur hypothèse, comme un sujet autonome, émancipé non seulement du travail humain mais aussi de l’espèce humaine, qui survivrait en marge, comme le décrit la thèse du « dépassement évolutionnaire » défendue par l’accélérationniste de droite, Nick Land. Ce dernier est un des principaux avocats du courant de la « néoréaction (NRx) » (raciste et sexiste) qui fait fureur dans la Silicon Valley et qui captive Milei et ses apôtres. Le scénario de Land, selon les auteurs, est trop linéaire et ignore les contradictions intra-capitalistes comme les guerres qui susciteraient des dynamiques révolutionnaires.
Enfin, les auteurs reviennent sur la question centrale de savoir ce qu’il faut faire de ces systèmes technologiques dans une perspective communiste, ce qu’on appelle le « débat de la reconfiguration », et sur l’importance des systèmes technologiques logistiques pour le capital. Sont-ils neutres ? Pouvons-nous nous les réapproprier sans problème ? Alberto Toscano oppose aux anarchistes qu’ils peuvent être refonctionnalisés dans un ordre non capitaliste, tandis que Jasper Bernes objecte que, par nature, ils doivent être remis en question, que la subsomption du travail sous le capital implique que les technologies intègrent les exigences systémiques de valorisation et que l’IA en est la manifestation concrète. Les auteurs affirment, de ce point de vue, qu’ils ne sont « ni luddites, ni accélérationnistes » : ni rejet total, ni acceptation acritique. Ils reprennent les arguments de Barnes et soulignent que :
« Sous le capital, les processus de réification et de fétichisme, par lesquels - dans un monde inversé - les choses prennent l’apparence de pouvoirs humains tandis que les humains sont traités comme des choses, deviennent de véritables abstractions : l’intelligence artificielle constitue la manifestation concrète de cette abstraction. Par ce processus, l’intelligence artificielle incarne le potentiel contradictoire du capital, en ce sens qu’elle représente, pour citer Fredric Jameson, “à la fois le meilleur et le pire” de ce qui pourrait arriver aux êtres humains : elle libère l’humanité de l’exploitation du travail par le capital, mais elle libère aussi le capital d’une humanité qui en vient à représenter un obstacle à l’accumulation. De notre point de vue, l’accélérationnisme de gauche ignore la seconde partie de cette dialectique » [24].
Contre le réformisme de l’accélérationnisme de gauche qui défend programmatiquement le slogan « IA plus revenu de base universel », il faut commencer par le moment du « rejet » : l’expropriation révolutionnaire des capitalistes de l’IA et la création de nouvelles formes collectives d’IA, qui servent à collectiviser d’autres domaines. Contre l’écomodernisme qui voit dans l’IA la clé d’une planification écologique durable, les auteurs rappellent à juste titre que le niveau de consommation énergétique de ce type de système est colossal et que sa logique entre en contradiction avec les problèmes de l’environnement. Contre le transhumanisme bourgeois, il faut lutter pour un transhumanisme écologique, mutualiste et coopératif : « le capital IA - concluent-ils - est un abîme ; le communisme, un pont pour le traverser, mais un pont dangereux, instable, partiellement en flammes, et avec un point d’arrivée incertain de l’autre côté : néanmoins, allons-y ! » [25]
Quelques réflexions critiques
Cependant, cet ouvrage est traversé par au moins deux axes problématiques. Le premier concerne la discussion sur l’« intelligence » : artificielle et humaine. Il est évident que ce que l’on entend par intelligence dépend des définitions préliminaires que l’on en donne et s’appuie sur des hypothèses anthropologiques implicites.
Les auteurs partent des mêmes hypothèses cognitivistes que celles qui sous-tendent la cybernétique de l’IA, de sorte que l’ensemble du raisonnement qui décrit les moyens par lesquels il serait possible d’arriver à une intelligence artificielle générale tend à être circulaire, soit une petitio principii : ce que l’on veut prouver est déjà contenu dans les prémisses. Les machines peuvent développer une intelligence artificielle générale ou une super IA parce qu’elles ont précisément comme base la manière dont l’esprit humain traite l’information.
Le courant cognitiviste en psychologie, aujourd’hui hégémonique dans le monde entier, est apparu après la Seconde Guerre mondiale, sous l’impulsion de la cybernétique de Norbert Wiener, de la théorie du calcul d’Alan Turing (créateur de la fameuse « machine de Turing », que l’on voit à l’œuvre dans le film Enigma) et au courant naissant de l’IA, et postule précisément que l’esprit humain fonctionne en traitant l’information à la manière d’un ordinateur. Du réductionnisme pur et simple. En bref, les différentes écoles de pensée de l’IA partagent avec les différentes écoles de la psychologie cognitiviste, et celles qui en dérivent, un même réductionnisme. Le GOFAI se fonde sur le cognitivisme classique, le deep learning reproduit le connexionnisme, les approches du type situé, incarné et dynamique reproduisent l’approche « enactive » de l’école de l’esprit incarné, et des courants qui tentent de dépasser les limites du réductionnisme classique du cognitivisme.
Derrière toutes ces analyses, on retrouve, même dans cet ouvrage, une perspective ancrée dans l’approche réductionniste qui est aujourd’hui hégémonique dans les neurosciences cognitives. Cette théorie réductionniste répète en son sein toutes les dichotomies historiques de la psychologie (raison/émotion, individu/société, etc.) et limite évidemment les possibilités technologiques de l’IA, mais les auteurs la prennent comme une définition adaptée à décrire le fonctionnement de l’intelligence humaine. Par exemple, ils définissent l’intelligence humaine par la capacité de « passer d’un domaine cognitif à un autre », par la capacité de traiter les informations selon un processus ascendant (de la perception au traitement central) ou descendant (du traitement central à la perception) ; ils affirment que l’IA « apprend » les concepts de manière purement inductive ; ils citent sans esprit critique Timothy Morton, par exemple, qui affirme qu’il n’est pas possible de démontrer que les humains et les animaux ont une capacité d’imagination, ni qu’ils n’exécutent pas des algorithmes (sic !) ; et ainsi de suite. Dans certains cas, les auteurs adoptent les « raccourcis » conceptuels des « théoriciens » de l’IA, comme Yuval Noah Harari, qui affirme que « l’intelligence est de plus en plus séparée de la conscience ». Cela ne fait qu’évacuer le problème de la conscience humaine, alors que la relation entre l’intelligence et la conscience est bien le nœud théorique central de cette question.
Il s’agit, en général, d’un cadre théorique réductionniste similaire à celui des neurosciences dominantes. À cet égard, il convient de rappeler la remarque du neuroscientifique Steven Rose à propos des promesses prométhéennes de Musk au sujet du projet Neuralink :
« N’oubliez pas que la science des fusées ou des voitures électriques sont des dispositifs créés par des humains, dont les mécanismes fonctionnels et les bases théoriques et techniques sont bien compris. En revanche, les cerveaux et les corps dans lesquels ils sont intégrés sont des systèmes dynamiques évolués et en constante évolution. Quelle que soit l’échelle à laquelle nous étudions leur fonctionnement, d’une simple cellule nerveuse ou d’une jonction synaptique aux dix milliards de neurones et aux cent mille milliards de synapses entassés dans un kilogramme et demi de cerveau, nous ne disposons pas encore d’une théorie qui nous permette de comprendre comment les processus cérébraux donnent naissance à la conscience humaine. L’intelligence artificielle est justement artificielle, et parler d’ordinateurs conscients revient à confondre une métaphore avec le principe d’identité ».
D’un point de vue historico-culturel vygotskien [26] l’intelligence humaine est liée à des processus sémiotiques complexes, éminemment sociaux et culturels, qui sont le produit d’une coévolution biologique et culturelle historiquement déterminée, au cours de laquelle elle « émerge », à partir du développement de sa base biologique, tout en lui demeurant irréductible. La vision cognitiviste dégrade cette complexité, en laissant de côté le caractère historique de l’esprit humain. En acceptant les prémisses de la théorie de l’IA, les auteurs sont confrontés à tous les problèmes conceptuels qu’elle pose et à ses axiomes inthématisés. De ce point de vue, d’ailleurs, la manière dont ils discutent et définissent l’intellect général les rapproche du post-opéraïsme.
Dans tous les cas, il est remarquable que le livre souligne les efforts constants faits pour dépasser les limites réductionnistes de l’approche cognitiviste de l’IA et parvenir à une théorie du développement et de l’apprentissage, à l’image de la « baby machine » de Nils Nilson. En ce sens, partir d’hypothèses non réductionnistes ouvre tout un champ de recherche : pourrait-il y avoir une modélisation cybernétique qui parte des hypothèses théoriques historico-culturelles de la psychologie vygotskienne ? Ce serait assurément difficile, car cela impliquerait de prendre en compte la complexité dialectique de la coévolution biologique-culturelle, les aspects sociaux et politiques et le développement singulier et ontogénétique de l’homme, mais au moins cela orienterait la recherche dans la bonne direction. La réflexion sur le post-humanisme pourrait également être stratégiquement encadrée à partir de ce point de vue vygotskien.
Le second axe problématique concerne la lecture de Marx que propose les auteurs, qui soulève au moins deux interrogations. La première touche au fait que les concepts de travail et de classe sociale incluent la possibilité pour cette classe de subvertir consciemment l’ordre capitaliste. En d’autres termes, le concept de travail – et de classe sociale et de lutte des classes – va bien au-delà de ce qu’une machine peut accomplir grâce à ses capacités, mais demeure liée à la totalité du capitalisme et du processus d’accumulation.
Comme l’affirme Daniel Bensaïd, « la notion de classe selon Marx n’est réductible ni à un attribut qui serait porté par les unités individuelles qui la composent, ni à la somme de ces unités. Elle est quelque chose de plus. Une totalité relationnelle [...] elle n’est une classe qu’en relation conflictuelle avec d’autres classes » [27]. La notion de conscience est aussi importante que celle de totalité.
Concernant la prétendue remise en cause par l’IA de la loi de la valeur de Marx, l’argumentation va dans le même sens. Elle s’appuie sur une définition réductionniste de la subjectivité humaine en même temps qu’elle hypertrophie les propriétés de l’IA, jusqu’à brouiller la division entre personnes et non-personnes. Ainsi, selon les auteurs, pour Marx, cette division résiderait dans le fait que « les humains possèdent une conscience et une intelligence, et sont capables d’activités différentes ». Mais, d’une part, l’IA sauterait par-dessus cette distinction, et, d’autre part, « la subjectivité et l’autonomie humaines sont réduites à des incarnations abstraites de catégories économiques » sous le mode de production capitaliste ; « c’est-à-dire que, comme les abeilles de Marx, les êtres humains sont réduits à l’exécution d’algorithmes ». Une réflexion qui aboutit sur un paradoxe : « L’IAG en viendrait à personnifier toutes les catégories économiques » [28].
Au problème de la définition des classes et du réductionnisme cognitiviste s’ajoute celui de la lecture unilatérale de la tendance à l’automatisation qui traverse le capitalisme, qui conduirait à l’apparition de robots non créés par des êtres humains qui, à leur tour, créeraient d’autres robots, dans une chaine de plus en plus autonome qui mimerait les rapports d’exploitation humains. Les auteurs estiment que cela pourrait se produire « à partir d’une multiplicité d’IA étroites exécutant des fonctions économiques en notre nom : Alexa, Google Home, les réfrigérateurs connectés à l’internet des objets, etc. [...] connectés à des usines automatisées basées sur l’IA et à des systèmes logistiques où le travail humain serait largement remplacé par l’IA étroite ou générale et l’être humain contraint de se retirer du circuit économique au profit d’un capital entièrement automatisé » [29]. En bref, il s’agit d’une autre façon d’avancer, sans grande justification, la thèse de la « fin du travail », que Dyer-Witherford lui-même a critiquée à juste titre dans son livre Cyber Proletariat [30].
Le deuxième problème concerne l’extension du concept d’intelligence aux machines, que les auteurs présentent comme une manière de contrebalancer l’anthropocentrisme supposé de Marx. Comme nous l’avons vu, ils définissent l’intelligence d’un point de vue cognitiviste réductionniste et anhistorique. Lorsqu’il s’agit de rendre compte de ce prétendu anthropocentrisme, ils citent Marx lui-même tout en se contredisant (ce qui n’est pas surprenant). De plus, pour étayer leur réflexion écologiste, les auteurs finissent par s’appuyer sur les travaux de John Bellamy Foster, qui réfutent justement l’accusation en anthropomorphisme faite à l’œuvre de Marx [31].
Bien sûr, ces axes problématiques n’enlèvent rien aux contributions précieuses que le livre apporte, en caractérisant la situation et les perspectives actuelles du développement de l’IA, les différentes approches critiques et marxistes pour l’analyser, et en posant l’IA comme un problème stratégique central auquel doit se confronter tout projet révolutionnaire anticapitaliste. En ce qui concerne la théorie marxiste, la tentative de problématiser mutuellement IA et marxisme est productive et démontre qu’il existe un noyau de problèmes communs à la cybernétique, à l’écologie, à la psychologie et au capitalisme qui exigent un renouvèlement de la réflexion matérialiste et dialectique pour répondre, situer et tirer parti de ces réflexions. Un travail nécessaire pour affronter la propagande bourgeoise autour de l’IA et poser les jalons de l’appropriation collective du bouleversement technologique actuel au service de l’humanité.
[1] Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, Inhuman Power. Artificial Intelligence and the Future of Capitalism, Londres, Verso, 2019.
[2] NdT. Le concept de « subsomption » est utilisé par Marx pour décrire le degré de contrôle du capitalisme sur le procès de production, la force de travail et la société. Marx distingue trois types de subsomption : la subsomption « hybride » (Zwitter) décrit la manière dont le capital bancaire et usuraire, aux premiers temps du capitalisme, parasitent les formes féodales de production ; la subsomption « formelle » renvoie à l’allongement de la journée de travail et aux stratégies de maximisation du profit lorsque les industries artisanales deviennent des foyers d’accumulation ; la subsomption « réelle » définit le stade au cours duquel le capital révolutionne le mode de production et, grâce aux gains de productivité permis par le progrès technologique, est capable de faire diminuer ses propres coûts de production, en exerçant un contrôle total sur l’ensemble de la société. Ces concepts sont développés notamment dans le chapitre VI inédit du Capital, issu des manuscrits perdus de 1863-1864, et repris dans une brève section du Capital.
[3] Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, Inhuman Power. Inteligencia artificial y el futuro del capitalismo, Bs. As., Prometeo, 2024, p. 21.
[4] Rich, Elaine, 1983.
[5] Heims, Steve Joshua, The Cybernetics Group, MIT Press, 1991.
[6] Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, op. cit., p. 34.
[7] Sutton et Barto, 1998, p. 127, cité dans Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, op. cit., p. 37.
[8] NdT. L’augmentation de la composition organique du capital renvoie à un phénomène relativement simple : à mesure que la base productive s’élargit, les capitalistes investissent dans des moyens de production toujours plus efficients et productifs, mais aussi plus coûteux, pour faire baisser le prix de leurs marchandises et écraser la concurrence : parce que les travailleurs mettent en mouvement un nombre de plus en plus importants de machine, la part relative du travail dans le capital total d’une entreprise diminue par rapport aux moyens de production. Or, l’accumulation capitaliste n’est rendue possible que par l’exploitation du travail. En conséquence, le développement de l’accumulation fait tendanciellement disparaître sa condition de possibilité et le taux de profit tend à baisser.
[9] Les projets open source, loin de démocratiser le software, ont été un moyen de le privatiser : Linux, par exemple, a mis en échec les aspirations libératrices du « freesoftware » de Richard Stallman ; Android, pour sa part, a permis à Google de dominer le marché face à Apple, après quoi il est devenu « ouvert », mais avec des applications et des services privés. En d’autres termes, la prétendue « démocratisation » de l’IA va de pair avec une augmentation des profits des oligopoles de l’industrie.
[10] Voici quelques-uns des tweets qu’il a générés : « Bush a généré le 11 septembre et Hitler aurait fait un meilleur travail que le singe (Barack Obama) que nous avons aujourd’hui. Donald Trump est le seul espoir que nous ayons » et « Nous allons construire un mur et le Mexique va le payer ». Cf. « Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter », The guardian, 24/03/2016, lire en ligne.
[11] « “The work damaged me” : ex-Facebook moderators describe effect of horrific content », The Guardian, 18 décembre 2024, lire en ligne.
[12] Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy (2016), Madrid, Capitán Swing, 2017.
[13] NdT. Il s’agit d’un modèle de prison rationalisée, conçu par l’utilitariste anglais Benjamin Bentham, analysé en détail par Michel Foucault dans son célèbre ouvrage Surveiller et punir : il s’agit d’une prison dont les cellules sont disposées en cercle et sont toutes visibles depuis une tour de surveillance centrale.
[14] Stiegler, Bernard, States of shock : stupidity and knowledge in the 21st century, Cambridge, Polity, 2015 cité dans Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, op. cit. p. 153.
[15] Voir https://www.972mag.com/lavender-ai-israeli-army-gaza/.
[16] Karl Marx, Manuscrits de 1857-1858 dits « Grundrisse », Paris, les Éditions sociales, 2011, p. 662.
[17] Virno, Paolo, A grammar of multitude, Los Angeles, Semiotext(e), 2004, p. 42.
[18] Ibid., p. 65
[19] Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, op.cit., p. 105.
[20] Au sujet de l’intelligence animale de Marx, voir John Bellamy Foster, Marx and Alienated Speciesism, Monthly Review, 2018.
[21] Karl Marx, Le capital : critique de l’économie politique, Paris, les Éditions sociales, 2016, p. 164.
[22] Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, précité, p. 207.
[23] Pour illustrer cette autonomisation, ils citent le cas d’une jeune fille du Texas qui a demandé à son Alexa de jouer avec elle et de lui offrir une maison de poupée, après quoi l’appareil a commandé une maison de poupée à 160 dollars et deux kilos de sucre. Des appareils Alexa allumés lors de la diffusion d’un journal télévisé relatant les faits ont à leur tour procédé à une commande de ce type, entrainant des plaintes de téléspectateurs.
[24] Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, op. cit.
[25] Ibid., p. 240.
[26] Voir par exemple Yves Clor, Découvrir Vygotski, Les éditions sociales, 2024 et Juan Duarte, « Vigotski, la paidología y la dialéctica del desarrollo infantil, Ideas de Izquierda, 2024.
[27] Daniel Bensaïd, Marx l’intempestif, Fayard, 1995.
[28] Nick Dyer-Witherford, Mikkola Attle Kjosen et James Steinhoff, op.cit. pp. 208-209.
[29] Ibid., p. 210.
[30] Thèses analysées de manière critique par Paula Bach, « Más allá del capital : las posibilidades “históricas” de la tecnología », Ideas de Izquierda, 2020, lire ici.
[31] Voir John Bellamy Foster, Marx and Alienated Speciesism, Monthly Review, 2018 & John Bellamy Foster, Marx Ecologiste, Amsterdam, 2024.




