Eric Sadin : la vie algorithmique

La vie algorithmique. Critique de la raison numérique, L’échappée, 2015.

Il est patent qu’un certain enthousiasme généralisé imprègne l’air du temps au début du XXIe siècle, fondé sur l’émergence d’un nouveau cycle d’émancipation individuelle et collective, et reposant sur la mise à disposition d’informations plus fines et plus nombreuses, une plus grande transparence dans les affaires du monde, une plus grande liberté individuelle d’expression, et surtout un élargissement significatif des biens culturels mis à disposition de tous. On a beaucoup parlé, ces derniers temps, des nouveaux horizons cognitifs et relationnels rendus envisageables par la nouvelle économie de l’information en cours de déploiement. C’est, écrit Eric Sadin, « l’étendue de la perception humaine qui franchit un seuil, dorénavant capable d’observer à tout instant et de tout lieu une infinité d’événements en cours de par le monde. » (p. 189)

Notre temps est caractérisé par un afflux grossissant de données provenant de partout : des personnes physiques, des entreprises privées, des institutions publiques, et bientôt des objets eux-mêmes qui semblent devenir capables, eux aussi, de s’exprimer. Nous tendons vers le redoublement de chaque élément du monde physique ou organique en bits informatiques, exploitables en vue de diverses fonctionnalités. Nous quittons un monde fait de minéraux, d’animaux, et de végétaux, à la rigueur également composé de molécules, de gènes et d’atomes, pour entrer dans une réalité de toute part imprégnée de chiffres. Et pas seulement des dollars. Telle est certainement la définition du Big data, s’il en existe une.

Sadin rappelle comment nous sommes passés, en quelques décennies, de l’octet au kilo-octet, au mégaoctet, puis au gigaoctet, et ensuite au téraoctet. « Le téraoctet représentait le nom exact de notre période, désignant la puissance de stockage désormais détenue par chacun, permettant en théorie de conserver l’équivalent de fonds volumineux de bibliothèques. Le pétaoctet atteste du franchissement  d’un seuil, ne définissant plus la puissance des équipements privés ou professionnels, mais les masses entreposées dans des fermes de données dont les contenances dépassent en quelque sorte les facultés de représentation de l’entendement humain. L’exaoctet (soit un milliard de gigaoctets) ne renvoie plus aux capacités détenues par certains serveurs, mais aux volumes globaux administrés par de grandes entités (à l’instar du CERN par exemple), ou circulant durant un laps de temps déterminé sur la Toile. Le zettaoctet correspond à une mesure astronomique exclusivement destinée à circonscrire la totalité du volume de données générées ou stockées sur l’ensemble de la planète. Il aurait été produit de l’ordre de trois zettaoctets en 2014, et il est hypothétiquement projeté une production de quarante zettaoctets en 2020. Le Yottaoctet enfin évoque une sorte de Terra Incognita, manifestant sous un seul vocable autant la volonté de nommer un horizon irrémédiablement annoncé, que l’impossibilité de se figurer les quantités en jeu. Quant aux unités ultérieures éventuellement appelées à se succéder, au cours du XXIe siècle, elles relèvent d’un ordre qui défie nos structures actuelles d’intelligibilité. » (P. 22)

L’ontologie, bousculée par le numérique

C’est surtout la puissante stratégie d’implantation de capteurs à même les objets qui multiplie toutes les sources de données. Les objets apprennent à parler, pourrait-on dire, et il est bien délicat de cerner quelles pourront en être les implications à horizon BH22. L’homme semble en mesure de saisir le monde « à l’atome près ». Sadin cherche à saisir le nouveau régime de vérité qui s’instaurera à la suite de cette déferlante d’informations. Ce nouveau régime sera selon lui « fondé sur quatre axiomes cardinaux : la collecte informationnelle, l’analyse en temps réel, la détection de corrélations significatives et l’interprétation automatisées des phénomènes. » (p. 28) C’est à une véritable révolution épistémologique et anthropologique que nous sommes conviés. Nous avons à apprendre les règles de la nouvelle vérité rationalisante du numérique. Un genre de vérité qui disloque notre rapport ontologique immémorial au monde, basé sur l’expérience sensible et la distance supposée irréductible entre les composantes de ce monde – pour entrer dans le monde de données informatiques qui remplit cette distance et la comble, mettant en relation des éléments jusqu’alors indépendants, et allant jusqu’à reconfigurer l’essence des choses. « L’enjeu consiste ici à élaborer des outils de compréhension portant sur des procédés hautement agissants, orientant une large partie de nos existences individuelles et collectives, et qui s’imposent sans que la faculté proprement humaine d’évaluation ou de décision librement consentie ne soit en quelque sorte requise, alors qu’elle renvoie dans les faits à une des exigences politiques, juridiques et éthiques majeures de notre temps. » (p. 30)

Le big data, c’est l’enterrement définitif de tout imaginaire fictionnel ou de toute tentative d’appréhender le monde à l’aide de l’imagination, du discours, de la raison. Finis les mythes humains et toutes leur dangereuses dérives totalitaires, diront les partisans d’un libéralisme « libéré » de toute emprise du politique. Nos modes de perception seront demain configurés au filtre principal des données, elles-mêmes portées à notre compréhension humaine suite à des codages et recodages de lignes de codes. Il en sera ainsi dès que ces lignes de codes rivaliseront en précision dans la description du monde environnant – ce qui est déjà le cas dans de nombreux domaines des médias, du marketing, de la consommation.

Fin de la raison au sens classique ?

Il faut revenir sur le data mining et insister sur le nouveau genre de connaissance qu’il fait émerger, fondé sur la récolte d’informations massives et la méthode des recoupements corrélatifs opérés par des algorithmes chargés de repérer toutes les récurrences pertinentes. Il nous invite à un dévoilement robotisé du monde et des phénomènes. La méthode corrélative employée par le data mining consiste à identifier les liaisons entre les variables, sans aucun égard pour leur explication causale. Il lui suffit, pour exprimer toute sa puissance, de faire porter ses analyses sur des agrégats de données volumineuses et variées. Ces conditions suffiront à en extraire des faits auparavant ignorés, imperceptibles par les organes des sens et l’observation expérimentale classique. C’est bien l’ensemble de l’épistémologie occidentale, de Platon à Popper en passant par Descartes et Kant, qui est bousculée, ou plutôt « redoublée par une nouvelle modalité expansive d’intelligibilité du réel. » (p. 103)

« Nombre d’applications ou de procédés sont depuis peu fondés sur des aptitudes précognitives, implémentées dans des systèmes d’entreprise ou mises à disposition des individus. Nouveau régime de vérité qui ne se contente plus de saisir au plus près les états de fait, mais qui dans un même mouvement cherche à percer ou à devancer des événements à haute probabilité –proche ou lointaine- d’émergence. Certes, des failles et des insuffisances limitent cette faculté par le fait de l’imprévisibilité structurelle des flux du monde physique et humain ; néanmoins les protocoles ne cessent de se sophistiquer et de prouver leur efficacité régulièrement croissante. Le régime prédictif procède à une sorte de bouclage intégral, ou comble définitivement un « angle mort » dans le cadre de nos rapports jusque-là jugés inévitablement partiels ou « troués » au réel. Car c’est une anthropologie totalisante qui actuellement s’impose, qui suppose de soumettre l’ensemble des échelles, couches et dimensions de l’espace et du temps à une visibilité et à une maniabilité globales, auxquelles rien ne doit échapper, et où tout peut être programmé, afin de se délivrer définitivement du principe ontologique et stérile d’incertitude. » (p. 122-123)

Nous sommes avec le Big data conviés à une intellection brutalement amplifiée des phénomènes, sur une petite décennie. Mais cette amplification dissimule une double invisibilité, explique Sadin : d’abord parce que les processus techniques qui soutiennent le data mining sont empreint d’une part d’immatérialité qui interdit de facto toute perceptibilité au sens courant ; d’autre part parce que toute perception émane d’interfaces très différentes, instaurant le doute systématique quant à la véracité de la chose extraite ou reconstruite. Au total, il faut convenir qu’une part de ce qui est conçu et produit par l’humain échappe à présent à la capacité de compréhension humaine. Etrange façon de nous rappeler notre finitude, au moment où  nous envisageons la « réalité augmentée », où nous semblons toucher à la capacité de reconstruire le monde. C’est la désintégration de tout horizon universel qui pointe, au moment où la mondialisation se fait réalité concrète, et requerrait un type d’universel renforcé. C’est la possibilité d’une perspective commune qui s’évanouit, au moment où les enjeux stratégiques conduisent à des impasses civilisationnelles planétaires.

Quelles orientations et/ou mesures envisager ?

« Le technopouvoir méprise le pouvoir politique, et plus encore le droit, il considère tout encadrement ou restriction de son champ d’initiative comme un abus » (p. 201) estime Sadin, qui en appelle à lutter contre le technopouvoir qui colonise le futur de tous sans en avoir fait un objet de débat public. Sadin estime nécessaire l’édification d’un « cadre d’action commun, favorisant l’imposition concertée de limites, l’avènement de contre-pouvoirs, autant que des jeux de réappropriation individuels et collectifs. Ce nouveau techno-pouvoir… » doit  faire « … l’objet d’une praxis politique à la mesure de sa puissance. » (p. 40) Peut-on encore concevoir un rapatriement du numérique dans le champ du politique ? Non pour imprimer au numérique l’orientation de ses développements, mais au moins pour le soumettre à la délibération publique ? L’enjeu serait alors de devenir capable d’évaluer les effets induits de cette évolution vers un univers numérisé. Sadin s’inspire des leçons de Nietzsche à ce sujet : « C’est l’analyse de l’impact occasionné sur les êtres et la société qui seule permet une évaluation critique des dispositifs. C’est ce que je nomme une heuristique des effets. » (p. 38)

Le monde est à présent orienté par un nombre extrêmement réduit de personnes, qui ont décidé au cours des dernières décennies de son orientation, contribuant sans aucune délibération publique à la transformation des conditions d’existence de milliards d’individus. Plus que jamais, avec le Big data, le temps long semble avoir disparu des radars de la civilisation occidentale. Le Big data participe à l’écrasement de toute perspective temporelle sur le seul présent, au moment où les enjeux climatiques, économiques ou génétiques requièrent une capacité de projection au loin. « Face à la puissance d’inventivité de l’industrie du numérique, à son génie même, c’est toute la puissance d’inventivité des individus et des sociétés, tout le génie humain à pouvoir dessiner autrement les choses, qu’il faut encourager. » (p. 220)

Jean-François Simonin, Février 2016

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.