Corps de l’article

Folco et Martineau se sont donné une tâche extrêmement ambitieuse dans leur ouvrage Le Capital algorithmique, celle de proposer « une nouvelle “grande théorie” sur les enjeux de notre temps » (p. 43). Pour ce faire, il s’agirait d’élaborer « une théorie critique des algorithmes, c’est-à-dire une démarche interdisciplinaire qui vise à comprendre les multiples ramifications de la logique algorithmique, ses dispositifs et sa dimension idéologique, en mobilisant les sciences sociales et la philosophie pour débusquer les relations de pouvoir liées à ces nouvelles technologies, et comprendre l’économie politique qui les produit » (p. 29). En vingt thèses, ils tentent d’expliquer la logique qui relie des phénomènes aussi variés que la montée en puissance des oligopoles du numérique, l’extraction des métaux rares qui alimentent les guerres civiles dans les pays du Sud, l’idéologie post-humaniste qui nourrit l’imaginaire d’une nouvelle élite technologique (Musk, Bezos, Zuckerberg et cie), les conflits géopolitiques autour de l’intelligence artificielle, opposant les États-Unis et la Chine, la crise climatique, les assistants personnels comme Alexa et Siri, les assassinats politiques par drone, les influenceurs, l’accélération du temps induite par les technologies numériques, etc. Selon les auteurs, ces phénomènes sont liés à une transformation similaire à celle de la révolution industrielle au xixe siècle qui se caractériserait par une nouvelle logique d’accumulation centrée sur la captation des données numériques venant modifier radicalement les rapports sociaux dans le cadre d’une régulation algorithmique du social.

S’il faut reconnaître que Folco et Martineau ont réalisé un travail de recension monumental de la littérature portant sur les transformations du capitalisme à l’ère numérique (le livre de 492 pages contient pas moins de 870 notes ainsi que 20 pages de références bibliographiques), leur ouvrage n’en possède pas moins les mêmes défauts que les gros livres à thèses qui ont été écrits dans les dernières décennies sur le même sujet. On pense notamment à la trilogie sur l’Ère de l’information de Manuel Castells, Empire de Michael Hardt et Antonio Negri ainsi que L’âge du capitalisme de surveillance, de Shoshana Zuboff. Leur livre souffre des mêmes limites que ces critiques contemporaines du capitalisme, d’obédience néomarxiste, c’est-à-dire qu’il verse dans une forme de « fascination devant ce qui se présente ou s’impose comme “nouveau” et inévitable[1] ». Il m’est impossible dans le cadre de cette note critique d’aborder l’ensemble des thèses qui sont discutées par les auteurs dans leur ouvrage. Je me contenterai de montrer qu’ils n’ont pas été à la hauteur de l’ambition démesurée à laquelle ils aspiraient, à savoir produire une nouvelle théorie générale visant à expliquer l’ère de l’intelligence artificielle. Je soulignerai les trois principales lacunes de leur ouvrage, à savoir : 1) l’absence d’une théorie critique de la technique ; 2) la réification de la nouveauté ; 3) la faiblesse philosophique de la critique du capital algorithmique.

1. L’absence d’une théorie critique de la technique

Les auteurs abordent leur première thèse qui vise à formuler une théorie critique des algorithmes, en opposant les perspectives déterministes et ce qu’ils appellent le « mirage éthique », qui devrait plutôt être qualifié d’approche instrumentale de la technique. Leur catégorisation demeure somme toute superficielle et ne permet pas de rendre compte de l’ensemble des diverses positions théoriques dans le domaine de la philosophie de la technique, ce qui leur donne la tâche facile de balayer du revers de la main ces deux principales approches. Or, si l’on suit la classification qui est proposée par Andrew Feenberg[2], on peut regrouper en quatre perspectives les différentes théories qui analysent la technique. On trouve une première catégorie qui considère que la technique est neutre, c’est-à-dire qu’elle ne contiendrait aucune valeur. C’est le cas notamment de la position déterministe traditionnelle qui soutient que la technique évolue de manière autonome suivant la voie d’un progrès linéaire pour le bienfait de l’humanité, et ce, sans que la société ait d’influence sur son développement. L’approche instrumentale se situe sur le même plan épistémique que le déterminisme, à la différence qu’elle soutient que c’est son usage qui déterminerait si les effets de la technique seront bons ou mauvais pour la société. C’est la position défendue dans le domaine de l’intelligence artificielle par l’éthique libérale, qui cherche à encadrer le développement de l’intelligence artificielle par des balises normatives. La seconde catégorie rejette la neutralité de la technique, puisque celle-ci contiendrait des valeurs. Dans sa vision substantialiste, position généralement attribuée à des penseurs comme Heidegger ou Ellul, on ne peut pas distinguer les moyens et les fins lorsqu’on analyse la technique moderne, puisqu’elle forme un système autonome qui repose sur une logique d’arraisonnement du monde. C’est donc dire que la technique transformerait la nature et l’humain en ressources abstraites et quantifiables rendant possible leur exploitation. La dernière perspective, qui est celle de la théorie critique de la technique, notamment celle développée d’abord par l’École de Francfort, partage les mêmes constats que l’approche substantialiste, à la différence qu’elle l’historicise en montrant que la conception instrumentale de la raison et le processus d’autonomisation de la technique sont l’expression de la réification des rapports sociaux au sein de la société capitaliste.

Le principal angle mort de l’analyse de Folco et Martineau provient du fait qu’ils rejettent en bloc l’ensemble de la philosophie de la technique (Sadin, Stiegler, Ellul et Mumford) parce que celle-ci relèverait du déterminisme technique. Pourtant, la théorie critique de la technique partage plusieurs présupposés épistémologiques avec cette dernière, c’est pourquoi il s’avère nécessaire d’entrer en dialogue avec celle-ci afin de dépasser les limites induites par une certaine forme de déterminisme technique. Or la superficialité avec laquelle ils abordent la philosophie de la technique va même jusqu’au contresens le plus aberrant alors qu’ils qualifient de déterministe l’un des principaux inspirateurs de la théorie critique de la technique, Lewis Mumford (p. 20). Mumford est probablement l’un des premiers penseurs à avoir élaboré une théorie critique de la technique non déterministe en s’appuyant sur une ontologie qui s’oppose à la conception moderne de l’être humain comme tool making animal. Mumford[3] montre dans son oeuvre que l’être humain est d’abord un être symbolique qui se caractérise par le langage, et que la principale machine qu’il a créée est l’organisation sociale. La mégamachine remonte en effet selon lui à l’Égypte des pharaons qui, grâce à une structure sociale hiérarchique, a réussi à ériger des pyramides avec une technique très rudimentaire. C’est donc l’imaginaire de la société conçue comme une machine qui rend possible la machine technique. En ce sens, l’approche de Mumford, fondée sur une ontologie du symbolique, est d’autant plus pertinente pour élaborer une critique de l’intelligence artificielle que cette dernière participe à la dé-symbolisation du langage.

Folco et Martineau s’appuient sur la distinction entre théorie traditionnelle et théorie critique développée par Max Horkeimer (p. 28) pour élaborer ce qu’ils nomment de manière très scolaire leur « cadre théorique » qui s’avère une synthèse 1) des travaux de Nancy Fraser, laquelle analyse le capitalisme comme un « ordre social institué », 2) du concept de capitalisme de surveillance de Shoshana Zuboff dont les découvertes seraient « monumentales » et permettraient de « saisir la nouveauté radicale du capital algorithmique » (p. 87), et 3) de la critique de l’intelligence artificielle de Kate Crawford qui cherche à dévoiler les rapports de domination — que l’IA masque, en prenant parti pour les « victimes » des innovations technologiques. Même s’ils soutiennent que les relations de domination « ne peuvent être réduites à quelques discriminations particulières de groupes défavorisés » (p. 54) et qu’il faut également prendre en considération les questions de l’exploitation et de l’aliénation, celles-ci sont généralement comprises par les auteurs à partir d’une posture ontologique qui, comme chez Zuboff, relève de l’individualisme libéral. C’est-à-dire que c’est surtout la question de la perte d’autonomie individuelle qui est dénoncée par les auteurs, au détriment de l’analyse du problème d’autant plus préoccupant de l’aliénation collective qui se manifeste, comme on le verra plus loin, par la dissolution de la capacité des sociétés à s’auto-instituer.

Par rapport aux fondements de la théorie critique, l’approche de Folco et Martineau souffre également d’une carence majeure sur les plans méthodologique et épistémologique. Ils soutiennent notamment que, pour éviter les erreurs de l’individualisme méthodologique, « l’étude du capitalisme comme ordre social institutionnalisé requiert une approche holistique » (p. 52). Le holisme, généralement associé au structuro-fonctionnalisme en sciences sociales (par exemple le marxisme althussérien ou le systémisme parsonien), est une approche unilatérale qui ne permet pas de comprendre les médiations qui orientent les pratiques sociales particulières, lesquelles médiatisent en retour la totalité. Cette posture antidialectique tend à réifier un système, ici appelé capital algorithmique, qui oppresse des victimes qu’on peut identifier en fonction d’une position essentialisée (que ce soit la classe, la race ou le genre) et dont les capacités de résistance sont également réifiées.

Malgré leurs pertinences respectives, les ouvrages sur lesquels s’appuie leur cadre théorique ne permettent pas d’élaborer une théorie critique de la technique dans la lignée de celle développée par l’École de Francfort. Ils affichent d’ailleurs un mépris assez flagrant pour les approches philosophiques qui abordent d’un point de vue critique la technique : « ces approches totalisantes, [écrivent-ils] malgré leurs prouesses théoriques ont tendance à éluder les conflits, résistances et possibilités d’émancipations présentes dans le développement technique et économique » (p. 40). La question qu’il faut se poser, eu égard à la dynamique destructrice tant sur le plan environnemental que sociétal, à laquelle participe l’intelligence artificielle, est justement de savoir s’il y a une émancipation possible dans la poursuite du développement technique et économique. Sur le seul plan écologique, il me semble que le consensus scientifique pointe plutôt vers le fait qu’il n’y a pas de résolution progressiste envisageable technologiquement face à la logique de développement aveugle de la croissance capitaliste. Les auteurs ne semblent d’ailleurs pas y croire non plus puisqu’ils proposent une alternative au capitalisme algorithmique basée sur la sobriété numérique, en conclusion de leur ouvrage (p. 436-459), donc une certaine forme de décroissance.

Sur ce point, il me semble qu’il faut en partie renouer avec l’ambition théorique de l’École de Francfort qui dépassait largement la sociologie de l’exploitation du marxisme vulgaire et de son progressisme naïf, pour tenter d’élaborer une théorie dialectique de la raison. Cette question, occultée par Folco et Martineau, est pourtant centrale chez Adorno et Horkeimer[4], pour qui la théorie critique prenait la forme d’une critique épistémologique du dualisme qu’on retrouve au fondement de la science positiviste moderne. Ce dualisme opposant fait et valeur, sujet et objet, individu et société, raison et affect, qu’on retrouve de manière emblématique dans la philosophie des Lumières, dont le principal représentant est Emmanuel Kant, ne serait pas le pur produit de l’idéalisme philosophique, mais plutôt l’expression de la généralisation de la médiation des rapports sociaux par la marchandise. La spécificité de cette médiation est de faire apparaître un monde duel opposant valeur d’usage et valeur d’échange, travail concret et travail abstrait, capital fixe et capital variable, etc. L’intention des théoriciens de l’École de Francfort consistait à sociologiser les catégories philosophiques afin de montrer comment la théorie traditionnelle repose sur des catégories réifiées, lesquelles se matérialisent dans la technique industrielle moderne. Dans ce monde inversé, les fins sont supplantées par les moyens, le processus de valorisation du capital consistant à reproduire des moyens de production de manière illimitée. C’est pourquoi une théorie critique du capitalisme contemporain ne doit pas se limiter à une dénonciation de l’exploitation induite par les algorithmes, comme le font Folco et Martineau, mais aussi de manière plus fondamentale consister en une critique ontologique et épistémologique de l’informatique théorique.

Or une des transformations épistémologiques radicales à laquelle a conduit l’émergence de la cybernétique qui est au fondement de l’intelligence artificielle a été d’aplatir les différences ontologiques entre les humains et les machines et de dissoudre les catégories duelles constitutives de la pensée moderne dans un même processus informationnel de rétroaction[5]. S’opère ainsi une mutation qui modifie fondamentalement la conception du savoir moderne, qui reposait sur le modèle hypothético-déductif. Celui-ci visait à comprendre les causes des phénomènes sociaux en vue de connaître « la vérité ». Or les développements contemporains de l’intelligence artificielle basée sur le modèle des réseaux de neurones s’appuient sur un empirisme naïf et un postulat d’immanence radicale voulant qu’il ne soit plus nécessaire de connaître les causes des phénomènes ; il s’agirait, uniquement au moyen de la collecte d’une masse de données, de déterminer des corrélations entre des variables en vue d’agir sur les effets. L’intelligence artificielle consiste ainsi en l’apogée de la mathématisation du réel qui est au fondement de la science moderne. La principale différence est que, alors que les mathématiques modernes avaient pour fondement la quantification du réel, la cybernétique s’émancipe de son attache au monde concret pour devenir une pure simulation du réel[6] qu’on peut conséquemment programmer et contrôler. Les systèmes automatisés développés par les GAFAM ont ainsi transformé le savoir en données numériques, c’est-à-dire en connaissances opérationnelles qui produisent un savoir machinique rendant superflue, parce qu’inutile, toute dimension critique, synthétique et historique, donc dialectique, qui était au fondement de la connaissance scientifique[7].

En ce sens, contrairement à ce que soutiennent Folco et Martineau, la principale transformation des sociétés contemporaines ne tient pas à l’apparition des algorithmes en 2007 (ceux-ci remontent au ixe siècle), mais plutôt à la cybernétique qui tire ses origines de la Seconde Guerre mondiale, et dont l’objectif est de neutraliser, au moyen du contrôle et de la communication, toute forme de transformation politique radicale de la société. Selon, Folco et Martineau, « Le problème n’est pas l’IA en soi, mais le rapport social capitaliste qui l’enveloppe et détermine une bonne partie de sa trajectoire » (p. 37). Leur position revient donc à postuler une certaine forme de neutralité de la technique. Pourtant, l’histoire des sciences et technologies montre que le développement de l’intelligence artificielle provient de la nécessité de valorisation du capital, et que ce sont ces impératifs qui sont intégrés dans la conception même de cette technologie. D’ailleurs, selon l’historien des sciences Steeve Joshua Heims, en dépit de sa prétention à la neutralité axiologique, la cybernétique est tout sauf neutre en ce qu’elle repose sur une épistémologie « réductionniste, atomistique, positiviste, pragmatique, conservatrice, mécaniste et empiriste[8] ». Celle-ci s’avère l’expression théorique de la société machinique américaine et résulte du financement du complexe militaro-industriel américain qui cherchait à développer une conception technocratique et dépolitisée de régulation sociale face à la montée de l’attrait pour le socialisme dans les pays périphériques. Comme je l’ai souligné ailleurs[9], à partir de la méthode dialectique de déduction sociale des catégories, il importe donc de saisir historiquement l’émergence des catégories fondatrices de la cybernétique, soit celles de communication, de commande, de contrôle et d’information (C3I), dans le cadre plus large des mutations institutionnelles propres au capitalisme avancé, en vue de montrer en quoi l’intelligence artificielle peut être qualifiée de technologie spécifiquement capitaliste[10].

2. Les impasses socio-économiques de la réification de la nouveauté technologique

Folco et Martineau soutiennent que l’usage du concept de capital algorithmique est préférable aux nombreux autres qui cherchent à décrire les mutations contemporaines du capitalisme, « par exemple capitalisme informationnel, capitalisme numérique, société postindustrielle, nouvelle économie de l’attention, capitalisme digital, économie du savoir, capitalisme cognitif, capitalisme communicationnel, capitalisme attentionnel, capitalisme mental, capitalisme cybernétique, capitalisme de plateforme ou capitalisme de surveillance » (p. 33). Selon eux, « [c]ette prolifération sémantique est sans doute le signe d’une mutation fondamentale du capitalisme, mais elle risque aussi d’alimenter la confusion entourant ce phénomène » (p. 33). La question qu’il faut se poser est de savoir en quoi le concept de capital algorithmique est-il réellement pertinent pour saisir les mutations contemporaines du capitalisme ? Leur analyse, il me semble, renforce la confusion conceptuelle entourant ce phénomène, étant donné qu’elle reproduit les mêmes erreurs que les nombreux commentateurs qui, depuis les mirages de la nouvelle économie, à la fin des années 1990, soutenaient que l’économie numérique serait propulsée par une nouvelle logique d’accumulation axée sur le savoir, les données numériques ou, maintenant, les algorithmes. Selon Folco et Martineau : « Les algorithmes changent le processus de base de l’accumulation capitaliste » (p. 75), et constituent « le principe structurant du nouveau régime d’accumulation capitaliste qui prend appui sur, réarticule, et dépasse le néolibéralisme financiarisé » (p. 34).

La thèse de Folco et Martineau, selon laquelle nous serions entrés dans une nouvelle logique d’accumulation basée sur les algorithmes, se fonde essentiellement sur l’ouvrage de Shoshana Zuboff, L’âge du capitalisme de surveillance[11]. Selon Zuboff, la nouvelle ère du capitalisme aurait été rendue possible par la capacité des algorithmes à analyser les données personnelles des usagers des médias numériques en vue d’anticiper leurs comportements. Les firmes technologiques sont ainsi en mesure d’extraire ce qu’elle appelle une survaleur comportementale, puisque la capacité de prédiction des comportements futurs des usagers serait la principale marchandise qui est vendue aux annonceurs. Le principal problème de cette thèse n’est pas, contrairement à ce que soutiennent Folco et Martineau, que Zuboff élude complètement la question du travail (nous y reviendrons), mais plutôt qu’elle oublie de situer cette « nouvelle » forme d’accumulation dans le cadre des structures historiques plus larges du capitalisme[12]. En effet, Folco et Martineau reproduisent la même erreur que de nombreux marxistes avant eux, qui n’ont pas été en mesure d’analyser les transformations institutionnelles induites par l’avènement de la corporation, ou société anonyme par actions, au sein du capitalisme dit avancé[13].

Au sein du capitalisme avancé, la corporation — qui se caractérise notamment par la séparation du contrôle et de la propriété — vient remplacer la figure classique du bourgeois-propriétaire des moyens de production comme institution centrale au sein de ce mode de production. Sur le plan économique, cette transformation institutionnelle n’a pas été prise en considération par les économistes marxistes et nécessite une reformulation du cadre d’analyse qui avait été initialement conçu par Marx dans un contexte de capitalisme libéral où la concurrence sur les prix est la forme prédominante de contrainte qui s’impose tant sur les capitalistes que les prolétaires. Dans un contexte monopoliste, selon les économistes marxistes Baran et Sweezy[14], l’accumulation du capital s’effectue au moyen de stratégies monopolistiques de contrôle du marché opérées par les corporations. La planification de la consommation, qui prend notamment la forme d’un « effort pour vendre », vise à trouver un débouché pour la surproduction induite par les innovations dans le processus de production industrielle. Dans cette économie du gaspillage, l’obsolescence programmée, la publicité, le marketing, les dépenses militaires ou toute autre dépense publique apparaissent ainsi nécessaires afin d’absorber le surplus capitalisé par les corporations et de maintenir la croissance au sein d’un mode développement profondément irrationnel. Selon la théorie critique du capitalisme avancé, la fonction de la culture de masse diffusée par les industries culturelles est de s’assurer, notamment au moyen de la publicité, de produire une conscience adaptée à la logique de surproduction du capitalisme des monopoles. Les capitaines de l’industrie du capitalisme libéral se mutent ainsi en « capitaines de la conscience[15] ». C’est donc dès l’après-guerre que le marketing développera les techniques de surveillance des individus et de captation de l’attention qui sont à l’origine des outils de profilage des comportements des consommateurs utilisés par les géants du numérique (GAFAM). À côté de la publicité et du secteur financier, les premiers développements dans le domaine de l’intelligence artificielle tout comme l’ancêtre de l’Internet, ARPANET, s’expliquent par la nécessité d’absorber le surplus de valeur généré par les grandes corporations au moyen des dépenses publiques dans le domaine militaire afin de maintenir la croissance économique[16]. Comme le soutient le chercheur en histoire des sciences et des techniques, Christophe Masutti :

Le fait est qu’en réalité ce modèle économique de valorisation des données n’est absolument pas nouveau, il est né avec les ordinateurs dont c’est la principale raison d’être (vendables). Par conséquent, ces firmes [les GAFAM] n’ont créé de valeur qu’à la marge de leurs activités principales (le courtage de données), par exemple en fournissant des services dont le Web aurait très bien pu se passer. Sauf peut-être la fonction de moteur de recherche, nonobstant la situation de monopole qu’elle a engendrée au détriment de la concurrence, ce qui n’est que le reflet de l’effet pervers du monopole et de la financiarisation de ces firmes, à savoir tuer la concurrence, s’approprier (financièrement) des entreprises innovantes, et tuer toute dynamique diversifiée d’innovation[17].

On peut même faire remonter la « nouvelle » logique d’accumulation à laquelle réfèrent Folco et Martineau au début du xxe siècle avec l’avènement de la corporation. C’est l’économiste institutionnaliste Thorstein Veblen qui fut le premier à analyser les conséquences du passage d’un capitalisme libéral au capitalisme dit avancé[18]. Dans ce contexte, l’accumulation du capital s’effectue au moyen de la capitalisation sur les flux de revenus futurs qui s’appuient sur l’exploitation d’actifs dits intangibles, c’est-à-dire par des droits de propriété intellectuelle, des brevets, des marques de commerce, des fusions et acquisitions, des alliances stratégiques avec d’autres entreprises ou encore par des ententes formelles et informelles avec les gouvernements. Relativement marginaux au début du xxe siècle, les actifs intangibles représentent à l’heure actuelle 95 % de la valeur des cinq plus grandes corporations cotées en bourses, c’est-à-dire les GAFAM[19]. C’est pourquoi l’économiste Ugo Pagano[20] appelle capitalisme monopoliste intellectuel la nouvelle configuration institutionnelle du capitalisme avancé à l’ère du numérique. L’argument de Folco et Martineau selon lequel le capital algorithmique aurait remplacé la logique d’accumulation financiarisée ne tient donc pas la route et est contredit par de nombreuses études[21] qui montrent au contraire que la logique d’accumulation des géants du numérique est similaire à celle des principales corporations financiarisées, ce qui fait dire au Wall Street Journal qu’« Apple est un hedge fund qui vend des téléphones[22] ».

Sur le plan économicopolitique, Folco et Martineau se trouvent ainsi à confondre création de valeur, génération de survaleur et appropriation de survaleur. Comme le montre l’économiste Duncan Foley[23], l’économie de l’information ne repose pas sur une logique de création de la valeur, mais plutôt sur une logique d’appropriation de la survaleur. Du point de vue de l’économie politique, qu’elle soit marxiste ou classique, la survaleur est générée par l’exploitation du travail salarié, nommé travail abstrait. En ce sens, la spécificité du capitalisme contemporain ne repose pas tant sur l’émergence d’une nouvelle forme de travail digital ou encore sur une nouvelle forme de marchandise prédictive produite par des algorithmes, comme le soutiennent Folco et Martineau, mais plutôt sur la valorisation financière d’une nouvelle classe d’actifs intangibles que sont les données numériques. Selon Folco et Martineau : « le travail social en réseau représente un acte productif de valeur économique, et […] en ce sens il peut être utile de le considérer comme un travail, parfois pénible et aliénant, parfois ludique et agréable, mais au bout du compte comme une forme de travail (p. 98) ». Or, en termes marxiens, la valeur d’une marchandise correspond à la représentation du temps de reproduction de la force de travail[24]. Selon cette acception, il n’est pas logique, chez Folco et Martineau, de parler des activités numériques des usagers comme écrire des posts sur Facebook, ou encore la diffusion de contenu érotique sur Only Fans, comme relevant d’un travail productif de valeur. Les produits de la connaissance, tels que l’information, les données numériques ou les algorithmes, ne possèdent aucune valeur d’échange puisque le temps de reproduction d’une connaissance tend vers zéro. L’accumulation des GAFAM ne repose donc pas tant sur l’exploitation du travail non rémunéré des usagers que sur l’extension de la logique d’abstraction et de quantification à la totalité des activités humaines (les sentiments, l’amour, le jugement, la créativité, etc.) permettant ainsi de transformer l’ensemble de la vie sociale en flux de revenus futurs qu’ils sont en mesure de s’approprier[25].

C’est cette confusion conceptuelle qui amène Folco et Martineau à critiquer l’hypothèse de Cédric Durand[26] selon laquelle nous serions entrés dans une nouvelle ère technoféodale où les plateformes extraient de la valeur de manière essentiellement parasitaire sans avoir à passer par la sphère productive (p. 174 à 178). Il faut reconnaître avec eux que l’hypothèse technoféodale est effectivement problématique, puisque la logique d’accumulation des monopoles intellectuels ne constitue pas un retour vers un mode de production féodal, elle exprime plutôt l’une des contradictions fondamentales du capitalisme qui repose sur l’opposition entre la production de richesse matérielle et de valeur. Dans le capitalisme, la production de la richesse matérielle ne vise pas la satisfaction des besoins humains, mais plutôt la production d’une forme de richesse abstraite, la valeur, qui est générée par le temps de travail abstrait. La principale manière d’acquérir cette survaleur consiste à améliorer constamment la productivité du processus de production par le biais de l’innovation technologique qui permet de produire davantage de richesses matérielles en diminuant le temps de travail. Conséquemment, la masse de valeur totale produite diminue, ce qui contraint les capitalistes à produire toujours davantage de richesses matérielles pour s’approprier la même quantité de valeurs[27]. Ainsi, de nombreux travaux empiriques ont montré que, dans un contexte de compétition oligopolistique, les firmes doivent constamment transformer les données et les connaissances en innovations pour extraire divers types de rentes afin de demeurer en position dominante et d’ériger des barrières à l’entrée face à d’éventuels compétiteurs[28]. Dans ce contexte, les GAFAM usent de diverses stratégies afin de s’approprier la survaleur provenant d’autres secteurs de l’activité productive dans une dynamique rentière et de restreindre l’accès aux flux de revenus à d’autres capitalistes subordonnés. Ainsi, la logique d’accumulation rentière des oligopoles numériques consiste à restreindre l’accès à la connaissance commune qui est produite socialement en vue d’en faire un actif intangible, ce qui signifie qu’elle consiste à s’approprier la valeur qui est produite à l’extérieur des frontières légales de leur entreprise. En effet, la production physique des biens n’est plus la principale source de profits pour ces entreprises, car celles-ci ont recours à la sous-traitance vers des firmes subordonnées dont les travailleurs (qui produisent de la valeur), sont surexploités. Elles misent plutôt sur le contrôle de l’accès à l’information et à la connaissance, que ce soit à travers les services d’infonuagique, l’accès à leurs logiciels de traitement automatisé des données numériques ou l’accès aux profils des utilisateurs pour la vente de publicité. Cette logique publicitaire, qui est basée sur une dynamique financière hautement spéculative et est nommée par certains analystes « subprime attention crisis[29] », participe également à la financiarisation de la vie quotidienne.

L’argument de Folco et Martineau selon lequel nous serions entrés dans un nouveau régime d’accumulation et un mode de régulation basé sur les algorithmes qui remplacerait l’ancien régime néolibéral financiarisé est également infirmé par les théoriciens de la régulation. Selon Montalban et al. : « plutôt que de représenter un nouveau régime d’accumulation, cette transformation est endogène au régime d’accumulation financiarisé. Il est basé sur une hiérarchie institutionnelle très similaire, il est dépendant du régime monétaire et financier et il accélère les tendances précédentes[30] ». D’un point de vue régulationniste, Folco et Martineau négligent d’analyser la dynamique politique qui a rendu possible la convergence institutionnelle entre la logique financière et celle de la marchandisation de la connaissance à l’origine du capitalisme de plateforme[31]. La montée en puissance des plateformes numériques s’inscrit dans le contexte de financiarisation de l’économie, où les normes de la valeur actionnariale ont imposé des rendements excessifs et court-termistes aux corporations. Ces dernières ont été ainsi contraintes de sous-traiter une partie de leurs activités les plus risquées, notamment celles de recherche et développement. C’est dans ce contexte également qu’une série de politiques de déréglementations complémentaires au sein des secteurs de la finance, des communications et de la recherche publique a permis de transformer la connaissance en actifs financiers pouvant être capitalisés dans la sphère financière. La loi Bay-Dohle, aux États-Unis, est considérée comme l’acte fondateur de cette « nouvelle économie du savoir », en ce qu’elle a permis de commercialiser sous forme de brevets la recherche financée publiquement, pratique qui était interdite auparavant en vertu des principes de la science ouverte[32]. De manière concomitante, les politiques de déréglementation des fonds de pension américains ont permis à ces derniers d’investir dans des firmes qui ne déclaraient aucun revenu, mais qui possédaient de nombreux actifs intangibles[33], ce qui a nourri la gigantesque bulle spéculative qui a éclaté lors du krach de la nouvelle économie en 2000. Dans le secteur des communications, les politiques de déréglementation ont permis la convergence des médias traditionnels avec les firmes technologiques, pavant la voie à la création de l’oligopole du numérique dominé par les GAFAM[34].

Si la propriété intellectuelle était au coeur de la première phase de déploiement de l’économie numérique (1990-2008), c’est plutôt la question des données numériques qui surgira comme nouvelle source de valorisation à la suite de la crise financière de 2008[35]. En effet, les grandes plateformes ont développé un modèle d’affaires qui transforme les données personnelles en un actif intangible qui est valorisé dans la sphère financière[36]. Comme la rente consiste essentiellement en une construction institutionnelle, la production d’un discours qui prend la forme d’une convention d’interprétation est nécessaire afin de fonder la confiance des investisseurs financiers. Folco et Martineau succombent ainsi au discours idéologique qu’ils cherchent à critiquer, puisque l’emballement médiatique entourant la quatrième révolution industrielle ou encore l’avènement des données massives et maintenant l’intelligence artificielle générative rendue possible au moyen des algorithmes de machine learning et de deep learning doit être compris comme un discours produit par la communauté financière visant à nourrir l’espoir que les revenus futurs de ce secteur seront suffisamment élevés pour y justifier l’investissement[37].

3. La faiblesse philosophique de la critique du capital algorithmique

Finalement, la principale faiblesse de cet ouvrage se situe sur le plan philosophique. L’argumentaire de Folco et Martineau repose sur une forme de réductionnisme économique qui ne permet pas de saisir les fondements philosophiques de la dynamique qu’ils cherchent à critiquer. Leur argument selon lequel le néolibéralisme aurait été supplanté par une logique algorithmique se méprend sur la nature du néolibéralisme qui n’est pas, comme ils l’écrivent, une doctrine économique basée sur « [la] promotion du libre marché et du libre-échange, [la] privatisation, [la] dérégulation, [la] critique de l’intervention étatique et de l’État-providence, [une] conception de l’individu comme homo economicus, [la] lutte contre l’inflation, etc. » (p. 199). Cette acception du néolibéralisme correspond à ce que Philip Mirowski nomme, suivant la thèse du philosophe néo-conservateur Léo Strauss, son discours exotérique, c’est-à-dire un ensemble de slogans simplifiés destinés à convaincre les masses ignorantes[38]. Selon le discours ésotérique, lequel s’adresse à une élite restreinte, le néolibéralisme consiste d’abord et avant tout en une philosophie sociale dont les fondements ont été théorisés par Friedrich Hayek. Hayek est l’initiateur d’une véritable révolution épistémologique, que j’ai nommée ailleurs Révolution culturelle du Capital[39], en ce qu’il viendra redéfinir le marché à partir des postulats de la cybernétique. Selon Hayek, le marché est un mécanisme de transmission de l’information, semblable à un algorithme, auquel rétroagissent les individus qui sont également conçus comme des processeurs informationnels. Sur le plan politique, l’argumentaire d’Hayek visait explicitement à démontrer l’impossibilité théorique de la planification de type socialiste. Reconnaître l’existence d’une entité supra-individuelle nommée « société » conduirait selon lui à reconnaître la possibilité du socialisme. Selon Hayek, toute tentative de saisir l’ensemble de la réalité sociale en vue d’effectuer une quelconque forme de planification allait mener inévitablement au totalitarisme, puisqu’il serait impossible de connaître les savoirs tacites qui sont détenus par les acteurs individuels. L’histoire des sciences et des technologies montre d’ailleurs que, derrière le développement des algorithmes autoapprenants qui permettent aux plateformes de collecter les données numériques, les traiter et les modéliser à des fins d’anticipation des comportements, on trouve une conception de l’individu et de la société qui s’inspire des thèses hayékiennes. En effet, les algorithmes utilisés par les plateformes numériques s’appuient sur le modèle des réseaux de neurones développé par le psychologue Frank Rosenblatt dans les années 1950 dont l’une des principales sources d’inspiration est la pensée d’Hayek[40]. On retrouve également l’influence hayékienne chez l’un des pionniers de l’intelligence artificielle dite symbolique, Herbert Simon, pour qui le principal objectif de l’intelligence artificielle est d’incorporer la rationalité idéalisée de l’entrepreneur capitaliste telle qu’on la retrouve dans les théories économiques néo-classiques[41]. En bon disciple du père du management, Frederick Winslow Taylor, pour qui il fallait fragmenter l’activité des travailleurs manuels afin de mieux les contrôler, Simon conceptualisera l’intelligence artificielle comme la décomposition du processus de prise de décision dans une organisation en vue de le rendre plus efficient dans le contexte où il est impossible d’avoir accès à l’ensemble des informations dans un environnement complexe. Dans sa théorisation de l’intelligence artificielle, Simon reprend donc la conception de la rationalité limitée des acteurs économiques qui avait été développée par Hayek dans le cadre de son débat sur le calcul socialiste où il voulait montrer la supériorité du marché face à la planification. Selon Simon, au contraire d’Hayek, une certaine forme de centralisation du pouvoir et de planification est nécessaire dans le cadre d’une économie dominée par les grandes organisations corporatives, et il est possible d’effectuer celle-ci grâce à l’intelligence artificielle.

La nouvelle forme de contrôle social que Folco et Martineau décrivent à la thèse 9 (p. 195-207), nommée « gouvernementalité algorithmique », correspond donc parfaitement à la théorisation produite par les technocrates néolibéraux qui ont développé l’intelligence artificielle[42]. En ce sens, ils se méprennent lorsqu’ils avancent que la logique algorithmique aurait supplanté la rationalité néolibérale ; elle consiste plutôt en sa réalisation même[43]. Leur thèse voulant que la subjectivité néolibérale ait été dépassée par un nouveau « sujet dataifié » (p. 371) est également discutable, puisque le sujet néolibéral est défini comme un processeur informationnel. Les travaux portant sur le passage de l’État vers un État plateforme ont aussi montré que la logique algorithmique ne succède pas au nouveau management public de l’ère néolibérale comme ils l’écrivent (p. 208), il s’agit plutôt de sa consécration[44]. Le néolibéralisme consiste en un dépassement de la philosophie libérale classique qui s’inscrit dans le passage du paradigme politique du gouvernement vers la conception technocratique de la gouvernance par les nombres[45]. Le passage du gouvernement à la gouvernance par les nombres, ou algorithmique, correspond à une mutation sociétale, que le sociologue Michel Freitag[46] a décrite comme la transition de la modernité à la postmodernité, où la société comprise comme une totalité normative qui régule a priori la pratique sociale cède sa place à un système qui opère une forme de totalisation a posteriori rendue possible par la numérisation de l’ensemble de l’activité humaine et non humaine transformé en flux d’informations. Piégés par un paradigme strictement économiciste, Folco et Martineau ne saisissent pas cette mutation sociétale dans leur discussion sur les nouvelles formes de pouvoir à l’ère des algorithmes. Sur le plan socio-politique, le passage de la modernité vers la post-modernité correspond à la substitution du concept de pouvoir, défini en tant que capacité d’instituer une norme universelle qui agit comme une médiation orientant la pratique particulière, par celui de contrôle, signifiant la capacité d’agir immédiatement (sans médiation politique ou juridique) sur la pratique[47].

Du point de vue d’une compréhension de la société capitaliste comme « ordre social institué », tel que le développent Folco et Martineau, il importe justement de saisir comment les nouvelles formes de régulation algorithmique de la pratique sociale sont en train de se substituer aux médiations symboliques et institutionnelles qui permettaient aux sociétés modernes d’orienter leurs finalités réflexivement, d’un point de vue normatif. Sur le plan symbolique, les auteurs n’abordent pas la question fondamentale du langage. La langue est pourtant la principale forme de médiation symbolique qui renvoie à la dimension expressive et normative d’une culture particulière. En ce sens, il est impossible de produire un langage universel comme le prétend la philosophie computationnaliste au fondement de l’intelligence artificielle[48]. La conception d’un langage universel et abstrait, telle qu’on la trouve dans les théories linguistiques computationnelles en intelligence artificielle, réduit la langue en un code informatique, c’est-à-dire en une série d’opérations réglées sur des éléments définis, évacuant ainsi la dimension expressive et normative constitutive de la communication humaine. Les institutions politiques modernes permettaient, quant à elles, du moins en principe, une certaine forme de distance critique à partir de laquelle la société pouvait réfléchir sur elle-même, notamment sous la forme du débat au sein de l’espace public[49], et institutionnaliser, au moyen de la praxis politique, ses finalités normatives sous la forme de la loi[50].

La faiblesse philosophique de leur analyse se répercute conséquemment sur les propositions normatives qu’ils opposent à la domination algorithmique. À la thèse 19, ils cherchent à élaborer une « éthique critique de la vertu » qui se distinguerait des éthiques traditionnelles appliquées à l’intelligence artificielle. Face aux effets délétères, tant sur les plans culturel, politique, économique qu’environnemental, induits par le développement aveugle de la technoscience, il convient de se poser la question soulevée par Cornelius Castoriadis[51], qui cherchait à comprendre ce que cache cette prépondérance de l’éthique dans les débats philosophiques contemporains[52]. La mobilisation généralisée du discours éthique masque, selon Castoriadis, une crise plus profonde, celle des significations imaginaires au fondement d’un monde commun (Arendt) qui rendent possible l’action politique visant l’auto-institution de la société. Cette dissolution du monde commun, qui culmine avec l’apparition des « médias sociaux », tire son origine de l’erreur anthropologique à partir de laquelle ont été pensés l’individualisme libéral et sa conception strictement négative de la liberté, c’est-à-dire la figure d’une subjectivité solipsiste, désocialisée et déshistoricisée qui mène une existence hors-sol[53]. En ce sens, il me semble que, plutôt que de s’improviser en « experts en transcendance » en vue d’élaborer une très abstraite éthique dont ils disent trouver les fondements chez les militants (p. 426) qui semblent posséder le « monopole de la vertu[54] », Folco et Martineau auraient peut-être dû davantage chercher au sein de la normativité concrète propre à chacune des sociétés les bases éthico-politiques à partir desquelles elles pourraient créer des institutions leur permettant de s’autoprotéger face à la logique destructrice du technocapitalisme[55].