La question des rapports entre le développement technologique, l’espace public et la démocratie a fait tout récemment l’objet d’une intervention de Jürgen Habermas, sans doute destinée à servir longtemps de référence, venant du philosophe qui, depuis son célèbre essai de 1962, est aussi l’inventeur de la théorie contemporaine de la sphère publique (Öffentlichkeit), au sens de l’espace des échanges d’idées et de projets qui sous-tendent la démocratie libéraleJürgen Habermas : Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft (1962). Traduction française : L’espace public : archéologie de la publicité comme dimension constitutive de la société bourgeoise, Paris, Payot, 1997.. Dans cette mise à jour de ses analyses antérieures¸ Habermas concentre son attention sur les changements que l’usage généralisé des réseaux sociaux apporte à la cristallisation de l’opinion publique et à la discussion des « partis » qui la composentÜberlegungen und Hypothesen zu einem erneuten Strukturwandel der politischen Öffentlichkeit, Leviathan, 49. Jg., Sonderband 37/2021, Traduction française : « Un nouveau changement structurel de l’espace public politique » [2021], dans Françoise Albertini et Luca Corchia (dir.), Habermas en terrain insulaire. La Corsica et son espace public, Pise, Pisa University Press, 2022.. Il déplore le fait que ces changements, rendus possibles par les progrès de l’informatique, aient en particulier pour conséquence de brouiller les frontières entre l’information et la fiction.
On doit reconnaître l’importance de la question ainsi posée et chercher à lui apporter une réponse argumentée. Toutefois la perspective que j’adopterai ici sera différente, plus spéculative mais aussi plus large. Je m’interrogerai sur les possibilités qui demeurent pour le zoon politikon, l’humain en tant que vivant « pour et par la cité », d’exister, même sous des figures nouvelles, dans un environnement devenu info-friendly. C’est-à-dire non seulement accueillant pour les technologies informatiques et l’accroissement constant de leur usage, mais faisant de cet usage le vecteur privilégié de la communication et des échanges interpersonnelsJ’emprunte cette terminologie (difficilement traduisible mais parfaitement intelligible en « franglais ») à l’excellent ouvrage de Luciano Floridi : The 4th Revolution. How the Infosphere is reshaping Reality, Oxford University Press, 2014.. J’ai choisi mon titre en raison du fait que, depuis quatre siècles au moins, notre concept du politique a combiné la construction de la citoyenneté avec une représentation du temps historique comme processus dramatique (ou dialectique) de collectivisation des expériences, instituant les « communautés » (la nation, la classe, le peuple, l’Etat) à partir de la subjectivité individuelle et inversementHegel, dans la Phénoménologie de l’esprit, a fourni une extraordinaire allégorie de cette réciprocité en faisant « énoncer » par l’Esprit le principe de sa propre formation dans la formule Ich, das Wir, und Wir, das Ich ist (« je qui est nous, et nous qui est Je ») : voir mon commentaire dans Citoyen Sujet. Essais d’anthropologie philosophique, Parsi, Presses Universitaires de France, 2010. Également É. Balibar, Cittadinanza, Bollati Boringhieri, Torino 2012 (traduction anglaise Citizenship, Polity Press, 2015).. En choisissant les points de vue antithétiques de l’État (rationnel) et de la Révolution (émancipatrice) pour en illustrer la logique, Hegel et Marx ont fourni les interprétations classiques de cette idée, qui en montrent à la fois l’invariance et la versatilité. Nous en sommes encore dépendants. Mais que va-t-il demeurer de la double articulation de l’histoire et de la politique, de l’individuel et du social, quand les effets de la révolution informatique seront arrivés à terme ? Très peu de choses, j’en ai peurFloridi, dans l’ouvrage susmentionné, parle d’une « hyperhistoricité » du monde informatisé (digital). Ce qui appelle une comparaison entre l’historicité et l’hyperhistoricité, comme deux « mondes » ou « modes d’existence ».. C’est ce qui constitue ici mon objet. Mais certaines considérations sont indispensables pour y parvenir.
Et d’abord il faut être conscient du risque qu’il y aurait à reproduire sous une forme plus ou moins modifiée un vieux discours technophobe, qui guette toute représentation « catastrophiste » des processus d’assujettissement de la vie quotidienne et de la vie publique aux technologies de l’information. Je parle de « catastrophe informatique », mais j’emploie le mot de « catastrophe » d’abord dans le sens étymologique, désignant un renversement brutal de l’ordre et du sens de nos actions et de nos rapports mutuels établis. Je pense que la tâche du philosophe n’est pas de présenter cette catastrophe comme un « mal », mais d’en identifier les formes, et d’expliquer pourquoi elles engendrent une transformation de l’humain, ou de son institution, qui est sans véritable équivalent dans le passé récent. Je ne peux dissimuler pour autant que, de mon point de vue, cette transformation est aussi une destruction de certaines valeurs de notre culture, dont nous ne savons pas si elles renaîtront sur de nouvelles bases et sous d’autres formes. Il est d’autant plus essentiel d’éviter le pessimisme a priori. Ne refaisons pas Ellul, Illich ou Heidegger.
De mon point de vue, la catastrophe informatique n’est que l’une des trois grandes « catastrophes » auxquelles nous avons affaire, affectant l’humain en tant que forme de vie qui s’est développée dans certaines conditions historiques et spatiales, aboutissant à faire de la politique (ou de la constitution du « commun » au travers d’une institution de la citoyenneté) une possibilité essentielle, même et surtout conflictuelle, fragile, périodiquement remise en questionJ’ai énoncé ce diagnostic, sous une forme volontairement nihiliste, dans un petit dialogue avec Bertrand Ogilvie (« Ce qui vient : le pire, sans recours ? »), qui ouvre le numéro 72 et dernier de la revue Lignes, février 2024.. Les deux autres catastrophes auxquelles je pense sont la catastrophe environnementale, dont relèvent le dérèglement climatique, la pollution du milieu terrestre, océanique et atmosphérique, l’extinction massive des espèces et l’effondrement de la biodiversité, mais aussi, moins unanimement reconnue bien que je ne la croie pas moins désastreuse, la généralisation de la guerre qui efface les frontières entre « état de paix » et « état de guerre » au niveau géopolitique et au niveau local. En d’autres circonstances j’ai essayé de montrer que ces trois catastrophes, bien que distinctes, ne cessent d’interférer et de s’affecter l’une l’autre« Three Catastrophes, and the Remnant of Politics: Climate, War, Metaverse », conférence au Birkbeck Institute for Humanities, 28 Mai 2023, répétée ultérieurement (19 octobre 2023) à l’Université Columbia de New York. À paraître.. Cette interférence constitue l’horizon dans lequel se pose la question du déclin ou de la disparition du zoon politikon. Aujourd’hui, cependant, je ne veux discuter que l’une des dimensions de ce bouleversement anthropologique. Dans un premier temps, j’évoquerai les pronostics contradictoires aujourd’hui courants quant au développement d’une « politique de la révolution informatique », et je m’interrogerai sur ce qui semble les étayer. Dans un deuxième temps, je proposerai quelques exemples pour illustrer les tendances à la « colonisation » des rapports sociaux et des relations humaines par les ICT (« information and communication technologies »), qui résulte de l’expansion du « métavers » et des domaines d’application de l’Intelligence ArtificielleJ’emploie le terme de « métavers » dans un sens qui n’est ni le sens originel (inventé par Neal Stephenson, dans son roman Le Samouraï virtuel, paru en 1992, et popularisé par la série Matrix, pour désigner un univers fictif doublant le monde « commun » au moyen d’une « réalité augmentée »), ni le sens que s’est approprié le patron de Facebook, Mark Zuckerberg (dans sa tentative avortée pour créer à partir de son réseau une plateforme virtuelle, dite Meta, qui engloberait toutes les autres), mais désigne simplement la circulation « invisible » des données et des informations ciblées qui connecte tous les utilisateurs à l’ensemble des serveurs, et qu’on peut donc considérer comme un « méta-programme » de fait de l’infosphère. C’est l’idée développée par Eli Pariser dans The Filter Bubble. What the Internet Is Hiding from You, Viking Press 2011 (je remercie Warren Sack de m’avoir signalé cet ouvrage).. Enfin j’essayerai de caractériser la forme d’aliénation inhérente à la mise en œuvre des ICT comme interfaces entre leurs « utilisateurs » (users), désormais à la fois humains et « non-humains » (c’est-à-dire consistant en « systèmes » ou « robots » au sens large). Tout cela, sans doute, de façon extrêmement schématique.
Perspectives de la « révolution informatique » : utopies et dystopies
Les discours qui nous sont proposés pour anticiper les pratiques et les institutions destinées à organiser le monde à la suite de la révolution informatique, en particulier dans les pays qui, en se faisant concurrence, ont pris la tête de cette révolution (avant tout la Chine et les Etats-Unis, mais d’autres aussi dans leur sillage) ont pour tonalité commune de prévoir une accélération de l’accélération qui caractérisait déjà les changement sociaux associés aux effets du progrès technique comme « principe suprême » de la modernité Hartmut Rosa : Accélération. Une critique sociale du temps, Paris, La Découverte, 2010. Mais l’idée a derrière elle une longue tradition, remontant en particulier à Siegfried Giedion : La Mécanisation au pouvoir [« Mechanization takes command »], Paris, Denoël, 1948. En informatique l’accélération des capacités est « mesurée » par rapport au débit et à l’efficacité des « architectures » (systèmes). La thèse générale s’énonce : « Une nouvelle ère de l’intelligence s’annonce avec l’accélération de l’innovation informatique » (HPE Greenlake, « portefeuille de solutions cloud »). L’accélération des opérations boursières qui tout à la fois exige et rend possible le remplacement des « traders » humains par des programmes informatiques est l’un des objets du livre de Robert Meister, Justice is an Option. A Democratic Theory of Finance for the Twenty-First Centyry, The University of Chicago Press, 2021, sur lequel je reviens plus bas.. Cette tendance à l’accélération permanente du changement semble avoir atteint maintenant un stade exponentiel. Mais les pronostics relatifs à la nature du résultat se distribuent typiquement entre utopies et dystopies. Ces dernières reposent en particulier sur la généralisation, en train de se produire sous nos yeux, de deux types de phénomènes. Il y a d’abord, du côté de la vie privée, le remplacement des formes traditionnelles de distribution des biens de consommation (dans des « marchés » au sens originel du terme, c’est-à-dire des espaces de rencontre entre acheteurs et vendeurs, de taille plus ou moins grande, depuis la boutique ou le petit étal jusqu’au grand mall ou au « magasin à grande surface ») par des « e-commerces » ou plateformes de vente en ligne, qui « ciblent » les consommateurs en exploitant leurs connections sur le web, considérées comme des indices de préférences ou de besoins (content personalization). Il y a ensuite, du côté de la vie publique, la généralisation des systèmes d’identification automatique des individus (notamment la « reconnaissance faciale ») par les polices nationales ou municipales, les équipements de sécurité, les administrations, qui permettent de savoir immédiatement s’ils sont fichés, où ils se déplacent et qui ils fréquentent, et de mettre ces informations en relation avec un compte-rendu à jour de leur vie professionnelle, de leur vie privée, de leur moralité. D’un côté la séduction, de l’autre la répression… La combinaison de ces deux types d’usages aboutit à ceci que le comportement individuel n’est pas seulement repéré et enregistré mais contrôlé et orienté, en utilisant pour cela de gigantesques bases de données qui contiennent les « profils » de tous les individus et qui les analysent automatiquement du point de vue de leur rentabilité et de leur normalité. Tel est l’arrière-plan du célèbre ouvrage de Shoshana Zuboff sur le « capitalisme de surveillance »Shoshana Zuboff: The Age of Surveillance Capitalism : The Fight for a Human Future at the Frontier of Power (Profile Books, 2019). Dans son ouvrage récent, Technoféodalisme. Critique de l’économie numérique (Paris, La Découverte, 2020), Cédric Durand commente longuement la thèse de Zuboff : « Big Other veille sur un monde d’où on ne s’échappe pas » (p. 103 et sv.). Voir aussi le livre de Eli Pariser, cité supra.. Les individus deviennent alors des inforgs ou organismes configurés et traités par l’informatique« Inforg » pour « informationally embodied organism », entité générée par l’informatique qui, selon Luciano Floridi, désigne en général les acteurs ou participants de l’infosphère.. En extrapolant cette tendance, on aboutit à la version actualisée de la vieille hantise des machines qui prennent le pouvoir sur leurs propres inventeurs (le Golem, Frankenstein), conséquence de l’autonomisation des robots et du développement de l’Intelligence Artificielle dont les capacités excèdent celles de l’intelligence humaine « traditionnelle » pour ce qui est de la vitesse et de la capacité de mémoire, appliquée dans un nombre croissant de domaines.
Mais le tableau contraire est tout aussi largement documenté. Il insiste sur les gigantesques gains de productivité et d’efficacité que la révolution informatique a permis dans des domaines essentiels à la vie (par exemple le diagnostic des risques de santé et de l’évolution des maladies), mais suggère aussi qu’elle procure aux individus du global village enfin devenu réalité des possibilités illimitées de « faire leur marché » sur l’internet pour y trouver des biens de consommation, des jeux, des plaisirs, des informations correspondant à leurs besoins et à leurs goûts ou orientations personnelles, comme si le monde entier était devenu une ressource disponible pour tous. On pense à certains développements de Marx sur l’humanité « parvenue au stade de la totalité des forces productives et existant uniquement dans le cadre d’échanges universels »Karl Marx et Friedrich Engels, L’idéologie allemande (1845), traduction française, Éditions Sociales, Paris, 1976, p. 71.. Plus intéressante encore pour ce qui nous occupe ici (la possibilité de la politique) est la suggestion que l’ICT permet aux « internautes » d’accéder à une nouvelle sphère publique virtuelle, qui n’est plus limitée par les frontières politiques nationales – malgré les problèmes de langue (mais le développement de l’internet s’accompagne de l’expansion de l’anglais globish et les projets de « langue universelle » sont rénovés par la traduction automatique sur laquelle je vais revenir). Elle peut ainsi libérer les individus du contrôle de leurs dirigeants plus ou moins autoritaires, construire des solidarités et générer des débats qui ont pour enjeu les intérêts de l’humanité et l’avenir de la planète en totalité (sur les effets du réchauffement climatique, la préservation des espèces vivantes, la défense des populations menacées). D’où l’introduction du concept du netizen ou « cybercitoyen », véritable citoyen du monde à l’ère informatique. On invoque fréquemment à cet égard l’exemple de ces jeunes geeks chinois qui passent leur temps à s’informer sur le net à propos de la vie et des idées du monde occidental : bien loin d’apparaître complètement aliénés par la machine, ils s’en serviraient pour accroitre leur autonomie et leurs capacités critiques. Dans la version philosophique la plus ambitieuse (Pierre Lévy), qui relit les développements actuels du Web à la lumière d’une tradition métaphysique arabe néo-aristotélicienne (« l’intellect agent »), on verrait se profiler une intelligence collective « partout distribuée, sans cesse valorisée, en temps réel, qui aboutit à une mobilisation effective des compétences de chacun »Voir « D’Aristote au Web de demain : l’intelligence collective selon Pierre Lévy » (https://unblogdesblogs.wordpress.com/2013/07/02/daristote-au-web-de-demain-lintelligence-collective-selon-pierre-levy/). Et Pierre Lévy : Cyberdémocratie. Essai de philosophie politique, Paris, Odile Jacob, 2002. Les affinités avec le concept du « general intellect », que proposent Negri et ses continuateurs développant une théorie du « capitalisme cognitif » et du communisme dont il contiendrait la possibilité, sont beaucoup plus que de hasard..
On peut certes discuter les exemples proposés, mais ces possibilités existent, et elles nous mettent en garde contre l’idée qu’une révolution technologique aurait par elle-même pour effet d’anéantir la liberté. Dans la terminologie platonicienne que Bernard Stiegler avait lui-même empruntée à Jacques Derrida, je dirai que les techniques sont des pharmaka, c’est-à-dire des substances qui peuvent servir à la fois de médicaments et de poisons, pour soigner et pour tuerBernard Stiegler : The Neganthropocene, edited, translated and with an introduction by Daniel Ross, London, Open Humanities Press, 2018, p. 175 (la référence est à l’essai de Derrida: « La Pharmacie de Platon », in La Dissémination, Paris, Le Seuil, 1972).. Ajoutons immédiatement, cependant, que la structure même de l’infosphère – à laquelle, en l’extrayant de son usage exclusif par la société Facebook, on peut donner le nom de métavers, faite d’une accumulation de quintillions d’unités d’information collectées automatiquement à partir des usages (c’est-à-dire des connexions à l’internet) et analysées par des algorithmes qui en extraient des « profils » d’utilisateurs –, a largement pour effet de noyer les usages transgressifs ou subversifs dans la capacité que possède l’ICT d’encadrer et de filtrer les communications sociales. Le système informatique, anonyme et mondialisé, acquiert donc un pouvoir de normalisation et de contrôle des comportements de ses utilisateurs. C’est ce qui nous amène à introduire ici une problématique de la domination dont les formes sont profondément antipolitiques. Elles se présentent comme une contrepartie inévitable des capacités engendrées par les ICT de « modéliser » le monde et d’en prédire les régularités, qui vont sans cesse croissantes. Essayons de cerner deux modalités de cette domination de type nouveau.
Algorithmes et plateformes hiérarchisées
La première réside dans ce que Thomas Berns et Antoinette Rouvroy, dans un article qui a fait date, ont appelé la gouvernementalité algorithmique : « un certain type de rationalité (a)normative ou (a)politique reposant sur la récolte, l’agrégation et l’analyse automatisée des données en quantités massive de manière à modeler, anticiper et affecter par avance les comportements possiblesAntoinette Rouvroy, Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 177/1, Janvier 2013 (l’antithèse normative/anormatif est pris ici non au sens de la normalisation mais de la normativité éthico-juridique, c’est-à-dire de l’ordination des comportements à des valeurs). Entre autres développements de cette idée, voir Cédric Durand, Technoféodalisme, op. cit. ». En langage foucaldien, nous pourrions dire que, même si les processus de collecte et d’analyse portent sur de très grands nombres et se déroulent à l’échelle transnationale, nous avons affaire à une antipolitique qui est essentiellement micropolitique, car elle cible les individus au travers de leurs « profils », en ramenant la « personnalité » de chacun à son empreinte numérique et aux combinaisons qui peuvent être calculées de façon à l’adapter à l’offre de bien matériels ou virtuels (smartmarketing) ou à évaluer les risques qu’elle présente pour la société, son ordre sécuritaire ou moral (ce qu’on appelle en Chine le social score ou « crédit social »), et pour leur imposer les normes de comportement correspondantes. Ce que Bernard Harcourt a appelé « l’exposition numériqueBernard Harcourt, La Société d’exposition. Désir et désobéissance à l’ère numérique, Paris, Le Seuil, 2020. ». Il n’est que de se remémorer l’expérience récente de la protection contre le Covid 19 pour comprendre combien la protection des individus et la répression de leurs conduites « déviantes » peuvent être proches l’une de l’autre. L’organisation des prochains Jeux Olympiques de Paris promet une autre vague de fichiers et de surveillance automatisée.
Mais la domination informatique opère aussi à un niveau macropolitique : c’est la thèse défendue de façon convaincante dans le livre de Benjamin Bratton désormais bien connu, The Stack (l’empilement ou la pyramide), qui décrit une double logique horizontale et verticale d’accumulation du pouvoir, aboutissant à un nouveau Nomos de la Terre au sens de Carl Schmitt, c’est-à-dire à une fusion de la spatialité et de la souverainetéLe titre anglais complet est The Stack. On Software and Sovereignty, Cambridge, MIT Press, 2015. La traduction française partielle, avec une introduction de Yves Citton, s’intitule Le stack. Plateformes, logiciels et souveraineté, UGA Éditions, 2019.. Suivant une logique dite d’immanence, tous les internautes (usagers humains et non-humains ou « bots ») sont constitués à la fois en ressource pour le datamining (la collecte d’informations anonymisées et personnalisées) et en cibles pour les offres, instructions et injonctions également personnalisées. Ce processus construit statistiquement la multitude ou le « peuple » de l’infosphère. Suivant une logique dite de souveraineté les plateformes successives s’empilent les unes sur les autres de façon à incorporer les internautes ainsi que leurs « territoires » respectifs (c’est-à-dire leurs environnements, non seulement géographiques, mais professionnels, familiaux, culturels ou nationaux, avec les interactions qui s’y déroulent) dans des réseaux de serveurs virtuels ou centres de données (« cloud ») opérant à l’échelle mondiale et en concurrence les uns avec les autres pour le monopole de la communication. Pascal Boniface écrit à ce sujet : « Depuis la fin de la Seconde Guerre mondiale, les États-Unis ont imposé leur leadership d’un point de vue financier, économique, stratégique ou encore culturel, et, depuis la révolution numérique, dans le secteur technologique. Ce leadership s’est notamment traduit par le développement exponentiel de cinq géants du numérique américain : les GAFAM (Google, Amazon, Facebook, Apple et Microsoft). Leur succès financier et technologique sans pareil, qui s’est accéléré au cours de la dernière décennie, leur donne désormais les moyens d’étendre leurs champs d’actions à certains domaines préalablement réservés aux États. » Mais, poursuit le directeur de l’IRIS, « la prospérité des GAFAM connait aujourd’hui plusieurs obstacles, dont un de taille, la concurrence chinoise. L’innovation chinoise dirigée par le PCC qui veut faire de la Chine une “cyber superpower” a façonné ses propres champions : les BATX (Baidu, Alibaba, Tencent, Xiaomi). Autrefois copies parfaites des GAFAM, les BATX concurrencent désormais directement les leaders américains, en profitant notamment d’un important soutien du régime chinois Extrait d’interview. Voir P. Boniface : Géopolitique de l’intelligence artificielle. Comment la révolution numérique va bouleverser nos sociétés, Paris, Eyrolles, 2021. ». Les monopoles numériques concurrencent les superpuissances, qui elles-mêmes jouent les monopoles les uns contre les autres. La population des usagers forme la masse de manœuvre.
J’ajouterai pour ma part, en suivant les suggestions de Robert Meister, que la pyramide informatique est corrélée au marché financier mondial (GFM), qui constitue en réalité le « pseudo-souverain » du système-monde capitalisteVoir mon article « Naissance d’un monde sans maître ? Après l’Empire les Marchés ? », réédité dans Écrits I. Histoire interminable. D’un siècle l’autre, Paris, La Découverte, 2020., d’où la possibilité de remplacer les opérations d’investissements boursiers résultant de « choix » humains (par des financiers ou des traders), qui prennent du temps et reposent sur des intuitions humaines faillibles, par des décisions ultra-rapides commandées par des algorithmes bancaires et censées minimiser les risquesRobert Meister, Justice is an Option, op. cit.. Une continuité invisible est ainsi créée entre deux sortes d’opérations « bancaires » : les mouvements des internautes individuels, enregistrés en temps réel dans les banques de données, et le mouvement perpétuel des fluctuations boursières au sein du capitalisme mondial. Ils « agissent » en bourse sans le savoir. D’où la question sophistique qu’on serait tenté de poser : est-ce le « métavers » qui a été incorporé à un « capitalisme absolu », ou le capitalisme qui est devenu virtuel (non sans effets bien réels et massifs sur les vies matérielles de chacun) au travers de la révolution numériqueJ’ai employé, après d’autres, l’expression de « capitalisme absolu » dans quelques essais, dont : « Towards a new critique of political economy: from generalized surplus-value to total subsumption », in Capitalism, concept, idea, image. Aspects of Marx’s Capital today, edited by Peter Osborne, Eric Alliez, Eric-John Russell, CRMEP Books, Kingston University London, 2019; « Absolute Capitalism », in Mutant Neoliberalism. Market Rule and Political Rupture, William Callison and Zachary Manfredi editors, Fordham University Press, 2020. ? Mais ne serait-il pas plus simple de reconnaître qu’on a là les deux côtés d’une même médaille ? Si l’on doit parler ici de catastrophe, elle sera indissociablement technologique et socio-économique.
La colonisation des rapports sociaux
A ce point il faut introduire l’aspect anthropologique de la révolution informatique telle que la mettent en œuvre les agents du capitalisme mondialisé (les seuls, en vérité, qui à ce jour semblent susceptibles d’occuper ce terrain). Comme en d’autres circonstances, je prendrai pour point de départ la définition que Marx avait énoncée dans les Thèses sur Feuerbach de 1845 (éditées après sa mort) : l’être humain n’est rien d’autre qu’un « ensemble de rapports sociauxMarx, Thèses sur Feuerbach, 6 : « Aber das menschliche Wesen ist kein dem einzelnen Individuum innewohnendes Abstraktum. In seiner Wirklichkeit ist es das Ensemble der gesellschaftlichen Verhältnisse ». Voir mon commentaire : « Anthropologie philosophique ou ontologie de la relation ? Que faire de la “VIe Thèse sur Feuerbach” ? », dans É. Balibar, La Philosophie de Marx, nouvelle édition augmentée, Paris, La Découverte, 2014. ». Mais j’essaye de m’en servir à l’envers, en posant la question : que deviennent les rapports sociaux quand les êtres humains sont inscrits un par un (omnes et singulatim) dans une vaste chaîne d’équivalences à travers leurs profils informatiques, ou deviennent des internautes info-friendly immergés dans un environnement info-friendly ? Rouvroy et Berns nous expliquent que la gouvernementalité algorithmique « sans sujets » produit paradoxalement un résultat « monadologique » : la matière première du datamining est entièrement faite de relations (telles que des connexions à un serveur ou un site internet à un certain moment pendant un certain temps, etc.), mais les différences, les conflits, les aléas, les obstacles à la compréhension qui d’ordinaire « mettent en relation » des individus singuliers et construisent ainsi leur identités en constante évolution, sont totalement effacés : « Autrement dit, le commun nécessite et présuppose de la non-coïncidence car c’est depuis celle-ci que des processus d’individuation se produisent dès lors que c’est elle qui nous oblige à nous adresser les uns aux autres. A contrario, le gouvernement des relations, en reposant sur l’évacuation de toute forme de disparité, “monadologise” les relations, au point que celles-ci ne relatent plus rien et n’expriment plus aucun communAntoinette Rouvroy et Thomas Berns : « Gouvernementalité algorithmique… », art. cit., p. 193. ». Les individus sont simultanément additionnés et disjoints, personnalisés et anonymisés, et par voie de conséquence isolés dans leurs « profils », qui enferment leurs vies dans une sorte de bulle. Ceci ne veut pas dire que les relations sociales n’existent plus, mais que leur caractère « social » – ce que, d’une formule arendtienne, Rouvroy et Berns appellent « l’inter-être », et qu’on pourrait aussi appeler le transindividuel – est transféré aux algorithmes et aux systèmes gouvernés par des algorithmes. En convoquant ici l’idée de la « colonisation du monde de la vie » naguère développée par des philosophes de la « vie quotidienne » et de la « communication » comme Henri Lefebvre (qui l’attribue lui-même à Guy Debord) et Jürgen HabermasHenri Lefebvre, La vie quotidienne dans le monde moderne, Paris, Gallimard, 1968, p. 142 ; Jürgen Habermas : Théorie de l’agir communicationnel, Tome II, Paris, Fayard, 1997., nous pourrions dire que la révolution informatique a produit (et de plus en plus) une colonisation des rapports sociaux, qui repose sur leur expropriation suivie de leur appropriation par des programmes automatiques, neutralisant les choix fondés sur des besoins exceptionnels, des désirs singuliers ou des valeurs autres que standardisées. Avant d’en venir à l’esquisse d’un concept pour penser l’universalité de ce processus et la modalité subjective de ses effets il me semble utile d’en dire un peu plus sur les formes concrètes qu’il revêt dans différents domaines de l’expérience humaine. Je pense en particulier aux effets qu’on peut repérer dans le champ de la connaissance, dans celui du travail, et dans celui de la communication en tant qu’elle requiert intrinsèquement une activité de traduction.
Du côté de la connaissance, il semble que beaucoup de débats en cours soient fixés sur l’idée que les progrès de l’Intelligence artificielle (IA), récemment illustrés par la mise au point des « agents conversationnels » tels que ChatGPT, va aboutir à une victoire des robots capables d’apprentissage et d’invention combinatoire sur les cerveaux humains qui sont plus lents, dont la mémoire est plus limitée, et qui ne peuvent opérer à un niveau de complexité comparableUne phrase comme celle-ci suppose évidemment qu’on sache définir la « complexité » d’une façon objective et qui autorise la comparaison. Il se pourrait que son usage soit circulaire, dépendant de l’objectif épistémologique ou politique auquel elle doit servir. Cf. Michel Alhadeff-Jones : « Three Generations of Complexity Theories: Nuances and Ambiguities », repris dans Complexity Theory and the Philosophy of Education, Mark Mason (éd.), Wiley-Blackwell, Oxford, 2008 (traduction française en ligne : https://archive.mcxapc.org/docs/conseilscient/0805michel.pdf ).. Pour tout ce qui concerne les usages pratiques (y compris dans le domaine de l’écriture ou de la recherche), il faut s’attendre à ce que des entendements finis comme les nôtres soient non seulement soumis à la concurrence de ces entendements presque infinis que fait surgir l’intelligence artificielle, mais tendanciellement remplacés par eux. Le « sujet supposé savoir » machinique se retrouverait ainsi dans la position que les philosophies du Moyen-Âge et de l’âge classique attribuaient à Dieu… Parmi les spécialistes de l’IA qui sont aussi de bons philosophes (tels Luciano Floridi, ou Daniel Andler) il semble cependant que l’opinion majoritaire considère de telles extrapolations comme des mythes reposant notamment sur la confusion entre différents sens de l’idée d’intelligenceLuciano Floridi : « AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models », Philosophy & Technology (2023) 36:15 ; Daniel Andler, Intelligence artificielle, intelligence humaine : la double énigme, Paris, Gallimard, 2023.. En particulier à cause de la différence entre les opérations « syntaxiques » (ou de connexion) qui « criblent » à grande vitesse des combinaisons possibles d’unités discursives (donc extraient une signification virtuellement donnée) et les opérations « sémantiques », qui supposent de faire des choix ou de prendre des décisions dans des contextes « indéterminés »Par cette formulation je prends parti, au moins en première approximation, dans un débat récurrent qui oppose deux « stratégies » de développement de l’IA, et qui rebondit avec chaque innovation dans la conception des systèmes. Patrice Maniglier me fait observer que ce choix est hautement discutable. Dont acte. Cela veut dire qu’il faudra reprendre cette question de façon mieux informée et beaucoup plus détaillée. Nous sommes d’accord cependant pour privilégier l’idée de déplacement par rapport à celle de remplacement..
Il me semble qu’un problème plus sérieux a été soulevé par le rédacteur en chef de la revue Wired, Chris Anderson, dans l’éditorial, très discuté depuis, qui annonçait la « fin de la théorie » dans le champ de la connaissance scientifique, dès lors qu’il ne s’agit plus tant, dans des disciplines allant de la physique aux sciences sociales en passant par la biologie, de soumettre des hypothèses (causales ou structurales) d’explication des phénomènes à l’épreuve de l’expérimentation, que de construire des modèles de corrélations statistiques à partir de l’exploitation des big data par des algorithmes, en sélectionnant les plus fréquentes. Les données analysées automatiquement, écrit Anderson, « parlent d’elles-mêmes »Anderson, Chris : : « The end of theory: the data deluge makes the scientific method obsolete » (23 June 2008) (http://archive.wired.com/science/discoveries/magazine/16-07/pb_theory/). Parmi les réponses intéressantes à cette provocation: C.S. Calude and G. Longo : « The Deluge of Spurious Correlations in Big Data » (Centre for Discrete Mathematics and Theoretical Computer Science, CMDTCS Research Report Series, nr 488, August 2015), qui concluent leur discussion : « Scientists and philosophers have always worried about fallacies one commits by looking at correlations only […] one increases the risk of committing such fallacies the bigger the data set one mines for correlations […] Correlation does not make causation obsolete nor does it cause Democritus’s type of science to die […] Despite the looming threat of spurious results, correlational studies are not useless […] Scientists can benefit a lot from data science (analytics), as data storing and mining is a useful complementary tool for science » (je remercie Jean-Marc Lévy-Leblond de m’avoir communiqué cette excellente référence).. S’il s’agit encore institutionnellement de « science » (bien qu’une part croissante en soit produite dans des start-up privées, en dehors des instituts et des laboratoires de type universitaire)Voir Yarden Katz, article « Entrepreneurial Science », Political Concepts. Issue 6 : https://www.politicalconcepts.org/entrepreneurial-science-yarden-katz/ , ce n’est évidemment pas au sens que nous a transmis la tradition « rationaliste » allant d’Archimède à Galilée, Newton, Darwin, ou Durkheim, qui a pour principe épistémologique la productivité de l’erreur (et de sa rectification), ainsi que la confrontation entre des hypothèses antagoniques dont l’intelligence évalue les pouvoirs explicatifs au moyen de la logique et de l’expérimentation. Il en résulte que le danger auquel nous sommes confrontés n’est pas le dépassement de l’intelligence humaine par l’intelligence artificielle (comme dans le cas du jeu d’échecs ou du jeu de go, qui ont vu successivement la défaite des champions humains devant les robots), mais c’est plutôt le remplacement de l’intelligence discursive, devenue inutile ou considérée comme « obsolète », par l’automatisme qui enregistre des corrélations et compare leur probabilité : un phénomène culturel, donc aussi politique, qui amène à considérer l’explication scientifique (ou « théorique ») comme superflue, dépourvue de valeur sociale autant qu’épistémique. Est-ce bien ce qu’il faut à l’humanité au moment où des problèmes cosmologiques et cosmopolitiques d’une ampleur sans précédent exigent d’inventer ou de redéfinir des concepts fondamentaux comme ceux de la régulation géologique et climatique, ou de l’évolution du « vivant » et de la temporalité historique ? Je laisserai la question en suspensSur ce point également, Patrice Maniglier objecte en me faisant observer que la correction automatique des erreurs en tant que procédure d’« apprentissage » est le cœur même de l’Intelligence artificielle en tant que deep learning, et que l’explication causale (j’ajoute : ou structurale) en tant qu’idéal épistémologique est une conception « très discutable ». Nous sommes d’accord cependant pour considérer que le rapport de la théorie à l’expérience est bouleversé, et donc le sens même de l’idée de « connaissance » remis en question. A suivre..
Des considérations légèrement différentes s’appliquent à la question du travail, dont n’importe pas seulement la fonction productive, mais aussi le mode de relation avec la nature qu’il introduit (et configure) au sein de la culture, et surtout la transformation historique en tant que division du travail, qui structure les rapports de coopération entre individus et groupes. La première « révolution industrielle » (terme inventé au début du xixe siècle par des économistes et des philosophes désireux de prouver que les changements technologiques avaient des effets collectifs aussi décisifs que les changements de régime politique) a creusé un fossé entre « travail manuel » et « travail intellectuel » que de nouvelles révolutions au cours des xixe et xxe siècles n’ont cessé d’approfondir (malgré les perspectives de « recomposition des métiers » périodiquement évoquées), déplaçant des masses de travailleurs d’un côté à l’autre de la grande séparation entre l’organisation et l’exécutionYves Schwartz, Expérience et connaissance du travail, Présentation de Georges Canguilhem, Paris, Les Éditions Sociales, 2012, 2e édition.. Or il semble bien que la « révolution informatique », venant après l’introduction massive de l’automation dans l’industrie manufacturière, conduise à une sorte de « manualisation » du travail intellectuel lui-même, allant depuis la généralisation du « travail du clic » standardisé jusqu’au contrôle disciplinaire exercé sur le « télétravail »Les contrôles à distance sont pris dans un double bind caractéristique : il faut empêcher le sous-travail faute de surveillance directe (qu’on peut remplacer par des « logiciels espions »), et il faut empêcher le surtravail que les employés s’imposent à eux-mêmes en abolissant la frontière entre vie professionnelle et vie privée. Les tribunaux sollicités par les proches d’accidentés (suicides par surmenage et dépression) hésitent à sanctionner les employeurs, parce que la transgression des normes relève de la « liberté » du salarié : cf. https://www.cfdt.fr/portail/vos-droits/duree-du-travail-conges-et-jours-feries/actualite/temps-de-travail/teletravail-la-preuve-du-respect-du-temps-de-repos-incombe-toujours-a-l-employeur-srv2_1278304.. Et d’un autre côté, pour toutes les tâches qui ne sont pas techniquement substituables par l’automation (ou qu’il est plus rentable de continuer à confier à des masses de travailleurs humains sans qualification), elle conduit à un nouveau degré de prolétarisation. Le déplacement des opérations de production ou de leur contrôle à l’intérieur de l’infosphère a tendance à invisibiliser le fait que sous son apparence d’autonomie « immatérielle » il doit y avoir un énorme soubassement d’opérations manuelles « résiduelles », exécutées par des travailleurs proches de l’esclavage, généralement recrutés dans les zones périphériques de l’économie monde (on parle de Net-slaves)Voir Lisa Margonelli, « Inside AOL’s Cyber-Sweatshop », Wired, Octobre 1999. Et Antonio Casilli, En attendant les robots, enquête sur le travail du clic, Paris, Le Seuil, 2019.. Et de la même façon, la généralisation du commerce en ligne crée toute une classe surexploitée de magasiniers soumis au rythme de la distribution à flux tendu (Amazon) et de livreurs à la demande (Deliveroo, Uber, etc.)Voir le film de Ken Loach, Moi, Daniel Blake… (2016).. A quoi s’ajoute, comme un phénomène de paupérisation intellectuelle, l’émergence dans toute la société d’une vaste catégorie d’« handicapés informatiques » pour qui l’apprentissage des règles élémentaires de la connexion n’est plus possible, en particulier dans les vieilles générations. On doit y suppléer par de nouveaux services sociaux plus ou moins accessibles. Il est naturellement facile (et contestable) d’énumérer ainsi tous les effets négatifs de la révolution informatique qui touchent au contenu, à l’organisation et au sens du « travail », sans évoquer simultanément l’émergence et la distribution de nouvelles compétences, spécifiquement liées à l’utilisation des plateformes et des services qu’elles offrent, ainsi qu’à la familiarité avec les « interfaces » devenues comme une seconde nature à l’âge le plus tendreCe qui avait provoqué l’admiration du philosophe Michel Serres : Petite Poucette, Éditions Le Pommier, 2012.. La réflexion doit se poursuivre sur ce que signifient désormais tendanciellement « travail » et « jeu », du point de vue de l’investissement individuel et de la socialisation des activités.
D’où l’intérêt de faire place pour finir à un questionnement anthropologique qui fait ressortir encore plus directement la dimension relationnelle du problème, portant sur l’avenir de la traduction comme activité sociale, culturelle et, inséparablement, artistique. La philosophie et la critique littéraire contemporaines ont largement accrédité l’idée que la traduction n’est pas une dimension seconde, encore moins marginale, des processus culturels, mais au contraire leur condition de possibilité et de créativité universelleVoir une synthèse critique récente : Saṧa Hrnjez, Traduzione come concetto. Universalità, negatività, tempo, Padova University Press, 2021. Ainsi que le classique Emily Apter, A Translation Zone. A new Comparative Literature, Princeton University Press, 2006 (traduction française : Zones de traduction. Pour une nouvelle littérature comparée, Paris, Fayard, 2015).. On doit appeler traduction en général l’ensemble des techniques de communication et d’interprétation qui traitent de la différence sémantique, au sens strict (la différence entre les langues, ou au sein de langues officiellement recensées) et au sens large (mais indissociable du précédent) de la différence culturelle, voire idéologique, pour en surmonter les obstacles et en exploiter les ressources. Ainsi que l’avait constamment répété, à l’encontre d’une définition positiviste, le groupe de travail constitué autour de Barbara Cassin pour fabriquer le Vocabulaire européen des philosophies, la traduction ne se contente pas de dresser un tableau des « correspondances » de vocabulaire ou de syntaxe entre les langues, elle affronte l’élément d’intraductibilité incompressible qui caractérise historiquement les idiomes, pour en faire une ressource intellectuelle : l’intraduisible n’est pas ce qu’on ne traduit pas, mais ce qu’on ne cesse pas de (ne pas) traduireBarbara Cassin, « Traduire les intraduisibles, un état des lieux », Cliniques méditerranéennes 2014/2 (n° 90)..
Que devient cet élément de pluralité et de conflit quand on passe à la traduction automatique, une des applications les plus prometteuses et les plus rémunératrices de l’intelligence artificielle, évoluant depuis l’aide aux traducteurs au moyen de dictionnaires et de grammaires informatisés jusqu’à la traduction « neuronale » qui les remplace ou les cantonne dans une fonction de vérificationFranck Barbin, « La traduction automatique neuronale, un nouveau tournant? », Palimpseste. Sciences, humanités, sociétés, 2020, 4, p.51-53. ? Comment la définition même de la « langue » en tant que structure et usage en est-elle affectée ? Cette question engage à la fois la modalité de nos apprentissages fondamentaux et le régime d’universalité auquel nous pouvons accéder par leur intermédiaire. Ce qu’on nous explique, c’est que les traducteurs « humains » (formés par l’apprentissage scolaire et la pratique scientifique, technologique, littéraire spécialisée, seront (et sont déjà) de plus en plus remplacés par des programmes de traduction automatique qui se perfectionnent sans cesse. Mais ce que nous observons, c’est que la singularité sémantique des énoncés ainsi que leur polysémie résistent à l’automatisation, parce qu’elles sont avant tout une affaire de contexte (contexte intérieur au discours, comme tissu de recoupements et d’allusions entre des textes, contexte extérieur, renvoyant à l’infinité des situations et des intentions d’énonciation possibles). C’est pourquoi, contrairement à ce qu’on espère du point de vue économique, les machines de traduction se trompent davantage que les traducteurs humains. Mais on observe une tendance des rapports sociaux et des procédures de communication à s’adapter aux capacités des machines à traduire plutôt que l’inverse : comme si « usager » et « instrument » avaient échangé leurs places.
Il est particulièrement saisissant de voir alors la révolution essaimer du domaine de l’écrit vers le domaine de l’oral : dès lors qu’il devient possible de voyager dans un pays étranger avec une prothèse auditive – dite « oreillette intelligente » – qui délivre instantanément la traduction des paroles entendues en langue étrangère, permettant de « comprendre » ce que disent les indigènes sans connaître un mot de leur langue ni avoir recours à un interprète, les notions mêmes de différence et d’étrangèreté sont abolies. Du même coup, la littérature au sens large et non institutionnel perd sa fonction, ou son incitation. Et la question devient : des langues (en tant qu’idiômes, différant d’un simple code) peuvent-elles exister sans littérature, au sens commun du terme (il y a de la littérature dans toute « négociation » avec l’intraductibilité du langage) ? Et que deviennent alors les humains en tant que « vivants parlants » ? Ce sont les questions qu’il faudrait réactiver au cœur des débats en cours sur les « digital humanities » et « l’écriture informatique »Sur ces questions, Rada Ivekovic me communique les réflexions suivantes, dont je prends note pour la suite : « Quant à la traduction automatique je pense comme toi avant preuve du contraire, qu’elle ne sera pas aussi parfaite et qu’elle n’est point aussi perfectible que certains le pensent, bien que “la situation avance rapidement”. Je comprends ton agacement au sujet de l’oral transmis de la traduction automatique. Mais l’expérience montre que c’est justement à l’oral que ces applications sont incroyablement efficaces, beaucoup plus qu’elles ne le sont et ne le seront à l’écrit. Je suis pour ma part très favorable à ces machines, et leur suis reconnaissante de me permettre de communiquer avec des gens dans la langue desquels je suis analphabète : c’est très précieux. Au-delà des mots et de la traduction, il passe toujours un courant du simple contact humain et de sympathie possible, parfois même de l’amitié partagée. » Elle pointe ici une fonction du langage (l’établissement du « contact » et sa dimension affective) que Jakobson appelait « phatique » (« Linguistique et poétique », in Essais de linguistique générale, chapitre XI, Éditions de Minuit, Paris 1963). Le sémantique et le phatique ne sont évidemment pas indépendants l’un de l’autre, mais les proportions dans lesquelles ils se combinent sont éminemment variables.).
L’aliénation à l’âge de la révolution informatique
Pour conclure, je voudrais reformuler toutes ces questions dans une nouvelle terminologie, qui tend à mieux conceptualiser la catastrophe anthropologique. Je caractériserai l’ensemble de la situation qu’on vient d’évoquer, certes complexe et hétérogène, comme le lieu d’une aliénation numérique (digital alienation). Une fois de plus, prenons garde à ne pas employer de telles formulations dans un sens exclusivement négatif : la catégorie d’aliénation (qui, on le sait, dans la tradition philosophique allemande à laquelle appartiennent Hegel et Marx, a deux équivalents : Enfremdung ou « étrangement » et Entäusserung ou « extériorisation », voire « expropriation ») relève d’une phénoménologie de l’expérience, non d’un procès en inculture devant la juridiction de la conscience humaniste. Une vie « non aliénée » est en réalité un mythe, au mieux une utopie : toute forme de vie, pour autant qu’elle implique un processus de socialisation ou de collectivisation (ce qui lui permet d’entrer dans le champ de l’historicité), suppose des médiations, dont l’institutionnalisation à son tour induit toujours une aliénation. Il n’est que de penser, pour les relations intersubjectives et les processus de reconnaissance mutuelle qu’elles requièrent, à la codification du langage, c’est-à-dire à l’existence de langues « officielles » comme les « langues nationales » : on peut les déformer, les subvertir (c’est ainsi qu’elles évoluent), non les ignorer. Ou encore, pour les échanges marchands (qui ne sont pas tous les échanges, mais leur grande majorité, sans lesquels nous ne pouvons survivre) à la fonction de l’argent, que Marx a justement décrite comme l’institution d’une « équivalence généralisée », ou d’une commensurabilité des activités à travers la circulation de leurs produits. Ou, pour les contrats et les services, à la fonction de la norme de droit (public et privé) qui articule obligation et sanction, capacité et responsabilité. Toutes ces médiations sont symboliques, mais – pour utiliser un schéma d’origine lacanienne – elles font proliférer l’imaginaire, elles nous affectent dans le réel au travers de scénarios ou de fantasmes qui sont tantôt familiers et prosaïques, inscrits dans les habitus corporels, tantôt sublimes, faisant intervenir le surnaturel ou mobilisant des idéaux collectifs spiritualisés. Mais quel est le genre de « médiation » ou de « garantie » pour le fonctionnement des rapports interhumains que la généralisation des programmes informatiques et leur intervention dans chaque moment de l’existence fait maintenant surgir, depuis nos rapports à l’administration jusqu’à nos comportements intimes, et depuis l’acquisition des marchandises jusqu’aux services à la personne (le care) et aux « jeux » dont nous nous distrayons ? Que se passe-t-il quand la vie devient de plus en plus complètement une « vie connectée » (ce que les anglo-saxons, par un jeu de mots transparent, appellent « onlife », l’existence qui se passe « en ligne » ou online), faite de télétravail, mais aussi de télémédecine, de télésport ou télégym, de télésentiments et de télésexualité ? Nous sommes, semble-t-il, très au-delà de ce qui avait été décrit au siècle dernier comme la réification ou le désenchantement du monde, dans la réalité « augmentée » du métavers.
Il peut être utile d’emprunter ici à Bernard Stiegler le concept d’exosomatisation qu’il a lui-même extrait de l’analyse par Alfred Lotka de l’évolution en tant que développement de « prothèses » externes palliant la faiblesse des organes des sens ou multipliant les capacités musculaires et intellectuelles de l’hommeAlfred J. Lotka : « The Law of Evolution as a Maximal Principle », Human Biology 17 (1945); Bernard Stiegler : The Neganthropocene, edited, translated and with an introduction by Daniel Ross, London, Open Humanities Press, 2018. De point de vue anthropologique, toute cette problématique s’enracine dans l’œuvre incroyablement prémonitoire d’André Leroi-Gourhan (Le Geste et la Parole, I. Technique et langage ; II. La Mémoire et les Rythmes, Paris, Albin Michel, 1965).. Mais il faut lui conférer une dimension relationnelle supplémentaire : la gigantesque prothèse collective dont il s’agit ici n’externalise pas seulement les puissances du corps ou de l’intellect, elle concerne ce que Hannah Arendt appelait l’interesse, c’est-à-dire l’être et l’agir en commun, le rapport social transindividuel avec toutes ses dimensions affectives, utilitaires et intellectuelles. La médiation informatique n’est rien d’autre que l’accès préformaté à la totalité virtuelle des connections de tous les autres « utilisateurs » du net qui s’établit non plus « dans notre dos » (Hegel), mais derrière notre écran, comme la part invisible de cette « hypervisiblité » du monde qu’il nous procure en permanence. Elle est essentiellement mimétique, ou reproductive. Et ce nouveau genre d’aliénation, qui commence par l’expropriation de notre « extériorité » elle-même (nos relations aux autres) affecte dramatiquement toutes les autres médiations, qu’elles soient symboliques ou imaginaires : elles ne sont plus (comme pour l’argent) fétichisées en tant qu’abstractions réelles (le mot de Marx pour caractériser l’aliénation monétaire), ou projetées dans une transcendance imaginaire (comme pour la « toute-puissance » de l’Etat de droit ou « l’omniscience » de l’Université et de l’Académie des Sciences), mais plutôt disséminées, banalisées, normalisées, anonymisées. Tel est le résultat paradoxal auquel aboutit le procédé ultra-démocratique (donc a-démocratique) de « personnalisation » des profils d’utilisateurs qu’emploient les plateformes de communication, de commercialisation et de jeu. Dès lors la vérification de l’existence d’un intérêt commun ou d’une collectivité de pensée n’est plus en suspens, elle n’est plus une tâche indéfiniment recommencée pour ceux qu’elle réunit ou qu’elle affronte, elle ne dépend plus d’une série d’expériences, de confrontations aléatoires, voire périlleuses. Elle s’effectue en temps réel, de façon continue, sur chaque interface qui met en contact des internautes ou des inforgs – ces inforgs que nous sommes devenus par l’intermédiaire de nos « profils ».
Ce qui engendre deux séries de conséquences quant à l’utilisation que les sujets font de leurs capacités intellectuelles et de leurs corps. D’une part la capture de l’attention, contre laquelle les psychologues de l’enfant, en particulier, mettent en garde pour essayer de préserver les normes de santé et d’éducation traditionnelles, mais que les gérants des plateformes déclarent ouvertement rechercher, de sorte que nous acquérions tous l’habitude de « passer le plus clair de notre temps sur le net »« We are probably the last generation to experience a clear difference between online and offline environments. Some people already spend most of their time onlife » (Luciano Floridi, The Fourth Revolution, op. cit., p. 94). Il conviendrait ici de creuser, en imitant la méthode de Marx, la relation « productive » entre le temps de connection des individus (nettime) et la valorisation (Verwertung) directe ou indirecte du capital global qui s’effectue dans la sphère des communications. Il s’agit d’un développement à venir de la théorie du « capitalisme absolu ».. Et d’autre part le remplacement de « l’invention de l’autre » (Derrida), c’est-à-dire de sa recherche, de sa découverte, de l’étonnement, de l’attirance ou de l’hostilité que suscite son « étrangèreté », par une attirance pour le double, l’autre virtuel (« alias ») qui est en réalité le même, porteur des mêmes données. Il me semble que c’est au point de recoupement de ces deux effets que surgit la possibilité à la fois antipolitique et posthistorique d’une massification de l’humain (ou d’une transformation de la multitude humaine en « masse » statistiquement contrôlée), qui n’a pas vraiment de précédent. Elle diffère qualitativement des phénomènes totalitaires de l’histoire récente, et même elle en inverse la logique, tout en exacerbant le phénomène de « servitude volontaire » (c’est-à-dire de servitude affectant la volonté) qu’ils avaient déjà installé au milieu de la culture.
Resterait évidemment à se demander s’il est possible d’identifier dans une telle catastrophe un point de bifurcation, s’il y a des possibilités objectives et subjectives de renverser le renversement qui nous a fait passer de l’utilisation de la technologie informatique à l’expropriation de ses utilisateurs. Pour le retrait ou le boycott (à supposer que ce grand refus soit pensable et souhaitable), il est manifestement déjà trop tard. Les sujets ne peuvent tout simplement plus vivre sans se connecter au web qui les « nourrit » de son flux de plusieurs centaines de milliers de « bytes » par jour. Disons encore, dans un langage cette fois kantien : est-ce qu’il est pensable que la « réalité augmentée » du Métavers devienne à son tour l’objet d’une subversion par des internautes qui incarneraient « l’imagination productive », celle qui ne tend pas à la personnification standardisée, mais, comme dit la Critique du Jugement, au « libre jeu des facultés » ? Mais si une telle imagination productive se développe, comment ne serait-elle pas réservée aux membres d’une petite société d’artistes et de techniciens capables de jouer avec l’IA ou de transformer leurs ordinateurs, leurs smartphones et leurs tablettes en « espèces compagnes » (Donna Haraway) dans une sorte de vie de bohème postindustrielleVoir par exemple McKenzie Wark, A Hacker Manifesto (CriticalSecret, 2006), qui perpétue l’esprit du situationnisme à l’époque de la révolution informatique. ? Il faudrait qu’elle s’exerce « en masse » et collectivement, donc politiquement, comme le soubassement d’une nouvelle politique d’après la politique. Ce n’est pas très facile à imaginer, mais c’est aussi ce qu’il vaut la peine de rechercher avec obstination dans les marges ou les interstices de l’infosphère.
D’une telle recherche, que je viens de dire obstinée (pensant en particulier à l’extraordinaire ouvrage de Negt et KlugeAlexander Kluge & Oskar Negt, History & Obstinacy (translated by Richard Langston et al., Edited and with an introduction by Devin Fore), Zone Books, New York, 2014 (version réduite et corrigée de Geschichte und Eigensinn, Zweitausendeins, Francfort, 1981).), mais qu’il faut dire aussi aléatoire, à la limite de l’impossible, dépend manifestement que la « fin de l’historicité » puisse s’interpréter a contrario comme l’occasion d’une politique. Mieux : d’une politique d’après « le politique », dans ses formes modernes (dont beaucoup sont en réalité archaïques). L’historicité, avons-nous dit, c’est le déploiement dans le temps d’une dialectique de l’individuel et du social (à quoi il aurait fallu ajouter plusieurs autres couples de « contraires »). Dès lors qu’une technologie « totalitaire », elle-même à la fois cause et effet, circulairement, d’un régime économique déterminé (« capitalisme absolu »), semble frapper d’obsolescence les conditions mêmes (matérielles, c’est-à-dire spatio-temporelles, et surtout anthropologiques) d’une telle dialectique, ne faut-il pas essayer de trouver ou de construire l’issue dans la modalité d’une contre-révolution, ou mieux d’une anti-révolution informatique, en assumant l’inversion de sens de cette vieille catégorie ? Une telle anti-révolution n’est pas le bris des machines (ou des « bots ») : répétons-le, il est trop tard pour cela et les inconvénients en seraient sans doute plus grands que les avantages. Elle n’a pas de formule unique. Parmi les auteurs à qui je me suis référé, plusieurs en cherchent manifestement les moyens, que ce soit par négation, par bifurcation ou par création. Je crois qu’elle doit passer aussi, idéalement du moins, par une politique publique de formation généralisée aux principes et aux usages de la programmation (dans le sens complet du terme), qui donne aux « usagers » à la fois une prise et une culture (au lieu d’un conditionnement), donc une indépendance d’esprit et une capacité d’organisation en réseaux, face au « pseudo-souverain » et à la « gouvernementalité » algorithmiques. Toutes les forces dominantes du monde actuel sont consciemment liguées contre une telle possibilité, en particulier dans la forme d’une destruction programmée des systèmes scolaires. Mais son idée, correspondant à un désir de savoir au moins aussi obstiné dans l’espèce humaine que celui de vivre, peut encore « s’emparer des masses ».