Difference between revisions of "B42"

From SAS
Jump to: navigation, search
(Created page with "Le grand entretien avec Dominique Boullier Etudes Digitales, 2019-1, n°7., pp. 243-274. Version prépress ====Jacques A Gilbert=== Comment évoqueriez-vous votre parcours...")
(No difference)

Revision as of 18:22, 30 June 2020

Le grand entretien avec Dominique Boullier

Etudes Digitales, 2019-1, n°7., pp. 243-274.

Version prépress

Contents

=Jacques A Gilbert

Comment évoqueriez-vous votre parcours ? Quels traits vous paraissent-ils les plus saillants ?

=Dominique Boullier

L’éclectisme me semble être le terme qui me définit le mieux. Ma vie de chercheur n’est qu’une de mes vies puisque j’ai également été éducateur, homme politique et chef d’entreprise.

=Jacques A Gilbert

J’ignorais que vous aviez dirigé une entreprise.

=Dominique Boullier

J’ai créé mon entreprise en 1989 et je l’ai revendue lorsque je suis devenu professeur d’université. Elle relevait du secteur du numérique, bien avant que les start-up ne deviennent la norme. Connaissant parfaitement ce domaine pour l’avoir pratiqué, je suis particulièrement agacé par la manière dont la motivation et l’enthousiasme des créateurs d’entreprise sont exploités et caricaturés pour étayer l’idéologie startupiste.

=Jacques A Gilbert

De quelle manière avez-vous articulé toutes ces vies ?

=Dominique Boullier

Elles ont été successives, à l’exclusion de la vie politique. Concernant plus spécifiquement ma vie académique, j’ai été un « instituteur » au sens où je me suis attaché à instituer des collectifs de travail fondamentalement pluridisciplinaires. C’est ce à quoi je me suis employé à l’Université de Technologie de Compiègne en prenant la direction de l’équipe Costech à la suite de Bernard Stiegler et de John Stewart. J’ai poursuivi dans cette voie à l’Université Rennes II où j’ai pris la tête du LARES pendant trois ans ou bien encore lorsque j’ai créé le Laboratoire des Usages Lutin à la Cité des Sciences de Paris puis le médialab avec Bruno Latour. J’ai enfin rejoint l’École Polytechnique Fédérale de Lausanne (EPFL) pour diriger le Social Médialab.

Cette démarche instituante, à rebours du modèle startupiste, consiste à créer les conditions nécessaires à la viabilité d’un espace collectif. J’emprunte ces termes à Pierre Legendre que j’ai rencontré lorsque je pratiquais la psychanalyse en tant que soignant au Centre Psychothérapique de Nantes. Si la psychanalyse institutionnelle représente donc ma matrice, mon passé d’entrepreneur et de décideur m’a permis d’être spontanément en position de responsabilité. C’est certainement une des raisons pour lesquelles je n’ai pas publié autant que je l’aurais dû, retard que je m’emploie désormais à rattraper : mon premier souci a été de créer des environnements propices à l’intelligence collective chère à Pierre Lévy. Techniquement équipés, ces environnements gardent des traces, fondent une mémoire, constituent un registre des activités mais surtout donnent à chacun sa place – et une place institutionnellement reconnue. Cette dimension n’a rien d’anodin. J’ai régulièrement dû me battre pour éviter que les collègues ne se disqualifient entre eux, pour que certains soient reconnus pour ce qu’ils étaient ou à l’inverse pour qu’on ne laisse pas croire que tout le monde peut tout faire et avoir les mêmes responsabilités. Un tel travail, qui n’a rien de comparable avec le management, est de nature politique : il s’agit de rassembler autour d’une mission, d’un projet ou d’un problème.

=Jacques A Gilbert

Au regard de l’ensemble de ces expériences, vous qualifieriez-vous de sociologue ?

=Dominique Boullier

Certainement mais il faut préciser que ma thèse en sociologie a été encadrée par un anthropologue en la personne de Gérard Althabe. J’ai été formé par ailleurs en linguistique structurale par Jean Gagnepain. L’anthropologie et la linguistique constituent ainsi des éléments clés de ma formation intellectuelle qui n’a donc jamais été mono-disciplinaire. La première m’a permis d’appréhender le nécessaire décentrement induit par la pluralité des mondes qui s’imposent à nous. Sur ce point, alors que quelqu’un comme Bernard Stiegler prend comme référence fondamentale les Grecs, j’aurais tendance pour ma part à me référer plutôt aux Achuar (étudiés par Philippe Descola). Je crois qu’il est possible de choisir librement ses fondateurs. La linguistique m’a préparé à l’informatique grâce à ses dimensions combinatoires et systématiques et grâce à la rigueur qu’elle suppose. Cet effort de formalisation est essentiel à la démarche scientifique, laquelle n’a toutefois rien d’impératif en soi. Par exemple, la psychanalyse n’a pas vocation à produire une science.

=Jacques A Gilbert

La situez-vous donc du côté de l’herméneutique ?

=Dominique Boullier

La psychanalyse relève du soin – tâche extrêmement noble et dont la pratique permet d’apprendre beaucoup.

De fait, les praticiens se constituent un corpus théorique mais celui-ci est avant tout orienté vers le soin même s’il peut subsidiairement permettre de créer des modèles. Néanmoins, ceux-ci ne sauraient être soumis à des dispositifs de mise à l’épreuve de type scientifique. La psychanalyse partage ce trait avec la philosophie, à l’exception peut-être de certaines branches de l’empirisme voire de la phénoménologie : la mise à l’épreuve scientifique n’est pas leur principe d’explication et de validation, ce qui est d’ailleurs une bonne chose. Ainsi, lacanien convaincu, je pratique néanmoins les sciences cognitives, selon une posture qui pourrait sembler paradoxale. Il n’en est rien dès lors que l’on admet que ces dernières, contrairement à la psychanalyse, visent à réduire méthodologiquement les problèmes. Je suis redevable aux membres des laboratoires que j’ai pu créer ou diriger, particulièrement à l’Université de Technologie de Compiègne, de cet abord pluriel.

Dans le même esprit, le travail collaboratif m’a permis de m’initier aux computer sciences, même si je n’ai jamais codé sérieusement. Inversement, j’ai renoué avec les sciences politiques en enseignant à Sciences Po. Au-delà, je suis passionné par la géographie à laquelle m’ont initié Jacques Lévy et Franck Ghitalla qui m’a donné le goût des cartes et des graphes. De même, je suis sensible à l’exigence à laquelle s’astreignent les historiens au regard des contraintes qui s’imposent à eux. Enfin, je me suis forgé une culture économique à la lecture d’André Orléan, de Laurent Thévenot et de Michel Callon, cette dimension étant par maints égards absolument indispensable. Je suis donc, en l’espèce, du côté des conventionnalistes.

Autrement dit, je crains ceux d’entre les économistes qui donnent leurs modèles pour un reflet de la réalité ou qui laissent ainsi croire que ceux-ci sont efficaces. Ils performent les marchés ainsi que l’a parfaitement démontré Michel Callon. Je me suis familiarisé avec la recherche de ce dernier, qu’il menait avec Bruno Latour, alors que j’étais à l’Université de Californie Berkeley en 1985 et 1986. Ainsi, mon souci permanent pour la technologie m’a fait basculer de la linguistique structurale à la théorie de l’acteur-réseau : Michel Callon comme Bruno Latour ont très précocement pris au sérieux la technique, ce qui n’était guère fréquent en France.

Ce passage de la linguistique structurale à la théorie de l’acteur-réseau ne me semble toutefois pas être une totale rupture. L’une et l’autre partagent en effet un fond commun : la sémiotique. Les actants de la théorie de l’acteur-réseau sont, rappelons-le, directement issus de la pensée d’Algirdas Julien Greimas.

Dès lors que leur fondamentale qualité d’opérateurs est prise en compte, il est parfaitement possible de réaliser des combinatoires. Cela étant dit, je reviens avec le temps sur des positions plus structurales de même qu’il me semble essentiel d’étayer nos comptes rendus de mises à l’épreuve. Cette démarche est complémentaire de celle empruntée par Marcel Mauss. Son Essai sur le don se fonde sur une collecte de comptes rendus d’observations malgré l’absence de toute enquête de terrain personnelle. Autrement dit son travail de lecture est producteur de science en ce qu’il autorise la comparaison entre les différents comptes rendus ethnographiques. Il n’est pas réductible à une simple accumulation d’observations empiriques à laquelle la théorie de l’acteur-réseau semble parfois céder. Je me propose donc d’emprunter la voie d’une théorie de l’acteur-réseau computationnelle.

=Armen Khatchatourov

De votre point de vue, quel destin l’interdisciplinarité a-t-elle dans le monde actuel ?

=Dominique Boullier

Les disciplines traitent d’une multitude d’objets selon des points de vue spécifiques. Si l’on fait l’effort de distinguer schématiquement les points de vue, il est possible de rapprocher les économistes des psychologues, les uns comme les autres empruntant le point de vue des individus pour mettre en évidence leurs préférences personnelles. Au contraire, une grande part de la sociologie de même que les historiens de la longue durée visent les structures sociales et leur pouvoir. Enfin, la théorie de l’acteur-réseau permet de prendre en compte les actants non-humains que sont les objets et les messages. Précisément, ceux-ci n’ont pas encore été sérieusement analysés alors même que nous disposons des outils méthodologiques permettant une telle étude. Or, cette dernière se doit d’être interdisciplinaire. Elle peut même emprunter à l’entomologie sans pour autant tomber dans la sociobiologie. Par exemple, il est parfaitement possible de soutenir que, de temps à autre, nous nous comportons selon des modèles que nous partageons avec les fourmis selon des principes de stigmergie (les traces des uns guidant les comportements des autres) sans pour autant réduire l’humain à la fourmi. Inversement, il ne serait pas pertinent de donner à croire que l’humain est uniquement un agent décideur parfaitement rationnel même si, contrairement aux fourmis, il peut prendre des décisions calculées et informées mais seulement de temps en temps comme le montrent les sciences cognitives ou l’observation des situations de travail. Il existe donc plusieurs régimes d’engagement dans le monde, comme l’a montré Thévenot.

=Armen Khatchatourov

Comment envisagez-vous l’inscription institutionnelle de l’interdisciplinarité au sein de l’Université ?

=Dominique Boullier

Je ne peux qu’être pessimiste sur ce point. Les systèmes institutionnels ont permis de maintenir la valorisation des disciplines alors que les questions qui présentent un intérêt sont nécessairement interdisciplinaires. Cette situation est d’autant plus dommageable qu’elle éclipse quiconque travaille à la frontière de deux champs disciplinaires. Le CNRS porte, sur ce point, une responsabilité majeure ainsi que j’ai pu le constater lorsque de 2000 à 2004, j’ai été chargé de mission auprès du directeur du nouveau département STIC, Francis Jutand, qui avait une vision vraiment pluridisciplinaire.

=Jacques A Gilbert

Le CNU n’est pas exempt d’un tel travers. Il est impossible d’enfermer les chercheurs dans un objet et encore moins dans une approche unique. Lévi-Strauss a emprunté à la linguistique structurale un de ses modèles afin de l’appliquer à un terrain anthropologique : si cette démarche a pu être comprise, en son temps, comme une transgression, il est tout à fait étonnant qu’un tel jugement perdure soixante-dix après les débuts du structuralisme.

=Dominique Boullier

Il est désolant de voir tant d’énergies investies dans la défense de disciplines qui pourtant n’existent même pas en tant que telles : j’en veux pour preuve qu’elles sont toutes construites et soumises à ce titre à des divisions paradigmatiques radicales. Ce biais justifie que de nombreux sociologues ne perçoivent pas le fait que les computational sciences se sont emparées de la dimension sociale sans avoir eu besoin de les consulter, et ce d’autant plus vivement qu’elles répondent efficacement à la demande en la matière. Or, cette efficacité même ne va pas sans poser des difficultés tant en termes politiques que scientifiques. J’ai publié l’article Vie et Mort des sciences sociales avec le big data dans la revue Socio pour tenter de provoquer, sur ce point, une prise de conscience. Les sciences sociales doivent urgemment définir les points de vue qu’il leur est possible d’adopter ainsi que les méthodes qui leur sont associées au risque de se voir déposséder de leur objet d’étude.

Il ne s’agit donc pas de s’emparer du big data comme d’une thématique de recherche parmi d’autres. Bien plus fondamentalement, il convient de réunifier les sciences sociales tout en les divisant au moins en trois parties selon les trois points de vue que j’évoquais précédemment : Les structures, les préférences individuelles et les réplications (propagation des non-humains)

=Jacques A Gilbert

Il est vrai que de très nombreux chercheurs en sciences humaines et en littérature ont un usage purement instrumental des humanités digitales. Ils s’emparent ainsi, sans plus de question, des logiciels capables d’identifier rapidement les occurrences et ne font pas preuve de la nécessaire prudence mise en exergue par Franco Moretti. Celui-ci rappelle en effet qu’il convient de fixer des présupposés avant de soumettre un texte à la question algorithmique. Autrement dit, l’algorithme ne peut agir que dans un champ pensé en amont.

=Dominique Boullier

La constitution des corpora eux-mêmes ne peut être, en effet, déléguée aux outils digitaux. À l’EPFL, j’ai eu la chance de pouvoir échanger régulièrement avec Franco Moretti qui m’a fortement éclairé quant à ces problématiques. Sa démarche a ceci de précieux qu’elle prend au sérieux le potentiel du numérique sans toutefois céder ni à la fascination, ni au réductionnisme. Ainsi, sans disqualifier les experts, elle ouvre sur des questions d’un nouveau genre mais des questions encadrées par un protocole particulièrement intéressant.

=Jacques A Gilbert

Vous venez de publier une seconde édition de Sociologie du Numérique alors que votre premier opus date de 2016. Vous semblez ainsi illustrer la notion de changement permanent que vous analysez par ailleurs, à l’appui de la loi de Moore, non sans une certaine ironie. En effet, vous remarquez que, le changement fût-il constant, la promesse sous-jacente reste la même. Ainsi, le même succède au même à une vitesse vertigineuse. Une telle réflexion permet d’interroger la synchronisation qu’il est possible d’opérer entre l’histoire des machines et l’historicité de la vie humaine et de son rapport à la scientificité. Si nous avons un passé avec la technique bien que les techniques en tant que telles puissent être très rapidement oubliées, vous développez l’idée selon laquelle nous serions passés d’une transmission cumulative à une révolution permanente. Il me semble que cette préoccupation était déjà la vôtre dans le rapport Connecter n’est pas instituer.

Nouvelles technologies de communication et autres dispositifs pousse-au-jouir que vous avez publié en 1988. À la lumière de ce texte, l’institution paraît être une problématique prépondérante de votre parcours de pensée. Pensez-vous qu’elle permette d’interroger la possibilité qui nous est laissé de construire une pensée durable alors que les nouvelles technologies changent en permanence ?

=Dominique Boullier

L’humanité fait face à des problématiques qui interrogent le pilotage politique autant que notre capacité à connaître les mouvements dans lesquels nous sommes pris. Je n’interprète cette passivité, pour ainsi dire grammaticale, ni par le prisme du complotisme, ni par celui du fatalisme. En revanche, je constate que nos décisions ont des effets systémiques, suivant en cela l’idée de subpolitique développée par Ulrich Beck. Ces décisions sont formulées à l’extérieur des instances décisionnaires, qu’elles soient ou non politiques, invitant instamment la philosophie des techniques à mieux cerner le running code. Il consiste à générer des lignes de code avant même toute spécification ou validation de projet, selon une logique radicalement différente de celle en œuvre pour l’invention du train, de l’automobile ou de l’aviation ou même par l’avancée de la biologie. Le running code va en effet de pair avec le rough consensus qui suppose, non pas une prise de décision au sens propre, mais l’adoption de l’opinion dominante d’un groupe. Une telle posture s’appuie sur un principe de parfaite égalité des membres du groupe entre eux. Or nous savons, pour reprendre la formule de George Orwell, que certains sont nécessairement plus égaux que d’autres. Malgré cela, le consensus gouverne actuellement l’ensemble des décisions de nature technique, y compris au sein des start-up qui se prévalent d’un développement dit « agile ». Si je devais me référer à ma culture psychanalytique, j’interpréterais une telle démarche comme un passage à l’acte : la construction du désir est entièrement court-circuitée au profit de la seule pulsion. La moindre fantaisie, qui s’avère souvent d’un mimétisme confondant, justifie que l’on lance un projet pour peu qu’il soit techniquement possible.

L’ensemble des questions éthiques que soulève la technologie relèvent de cette attitude que nul ne veut remettre en cause sous prétexte qu’il ne faut pas freiner l’innovation. Je soutiens au contraire que nous devons ralentir cette urgence en refusant de nous laisser aller au passage à l’acte : il convient de se réinscrire dans une démarche de construction du désir, voire de contention du désir au nom de l’éthique. Nous ne pouvons nous contenter d’apologies, ce qui semble être devenu, à l’initiative de Mark Zuckerberg, le troisième temps du couple running code/rough consensus.

Jacques A. Gilbert Et à votre avis, cela peut déboucher sur quoi ?

=Dominique Boullier

Nous percevons bien que nous touchons là à une forme de dépolitisation radicale au sens où la construction institutionnelle des collectifs et des prises de décision, même d’inspiration la plus libérale, est purement et simplement effacée au nom du solutionnisme technologique théorisé par Evgeny Morozov. Je me suis élevé, dès 2012, contre cette « invasion des barbares » qui paraissait alors porteuse de toutes les promesses. Je me suis ainsi opposé vivement à Henri Verdier et Nicolas Colin qui s’étaient fait les chantres de la plateformisation à outrance. Eux-mêmes sont revenus sur leur position initiale : Henri Verdier, en particulier, en a convenu lors de l’une de ses dernières conférences portant sur la souveraineté numérique.

L’époque actuelle est ainsi marquée par un retour à la régulation après l’engouement démesuré pour la disruption. Celui-ci avait été relayé avec un particulier enthousiasme avant les années 2000, en pleine émergence de la « nouvelle économie », par quelqu’un comme Jean Michel Billaut, Président Fondateur de l'Atelier de BNP Paribas. Lui comme d’autres n’ont, à l’époque, pas tenu compte des avertissements de bon sens que nous étions peu nombreux à formuler : les sites sur lesquels misaient les investisseurs n’avaient aucun client, laissant présager l’éclatement de la bulle internet. J’entends bien que la spéculation est un jeu de perceptions réciproques et, qu’à ce jeu, les investisseurs ont choisi de miser sur des acteurs économiques sans activité commerciale en toute connaissance de cause, espérant réaliser leur profit avant que l’illusion perceptive ne soit éventée. Le fait est que l’écroulement fut certes prévisible et brutal mais non définitif : l’innovation est en effet désormais régie par la spéculation ou, pour être plus exact, par un effet spéculaire.

Elle avance selon l’image de soi que les choix techniques permettent de générer chez l’autre, que l’on souhaite faire investir dans notre projet, pour à la fois donner du crédit et y croire. C’est la raison pour laquelle j’avance la notion d’innovation d’opinion à la suite d’André Orléan qui s’est lui-même inspiré du concours de beauté théorisé par Keynes. Celui-ci offre un exemple limpide de la logique intrinsèque au capitalisme financier numérique que je souhaite investiguer, lequel génère des attentes et des signaux dans le seul but de faire réagir autrui. Ce couplage permet de comprendre la forme que prend actuellement la technique. Je m’attache à suivre cette voie qui me semble la seule pertinente, de même que Marx n’a pas produit une sociologie de la machine à vapeur sans examiner par ailleurs les rapports de production correspondants. De fait, la machine à vapeur ne devait pas nécessairement déboucher sur l’émergence de l’industrie capitaliste. Elle ne l’a générée que parce qu’elle était elle-même prise dans des rapports spécifiques de production, à commencer par l’accumulation primitive et la division du travail de l’époque. De la même manière, nous aurions pu fonder un monde sur le modèle de celui qui régit Wikipédia. Nous l’aurions pu jusqu’en 1995, lorsque Bill Clinton et Al Gore ont livré l’Internet au marché par le truchement des opérateurs télécoms alors qu’il était encore géré par la NSF (National Science Foundation). Dès lors, la perspective d’une infrastructure publique de l’Internet que nourrissait passionnément Berners-Lee s’est à jamais perdue.

En tout état de cause, cette espérance ne peut être disqualifiée au nom de l’innovation, ne serait-ce que parce que Wikipédia est une véritable innovation. Mais ce modèle ne survit qu’à la marge, En périphérie de firmes devenues surpuissantes grâce à la finance. Si Google n’assurait que sa rentabilité intrinsèque, via la vente de publicités, le pluralisme serait encore de mise. Au contraire, maintenant qu’il fait le cœur de la spéculation, ce moteur de recherche a étouffé toutes les alternatives, soit par absorption, soit par écrasement. Ce monopole de fait nous rend tous dépendants.

=Jacques A Gilbert

Vous sembliez, dès un texte écrit en 1988, donner à la désinstitutionalisation un sens politique dans la mesure où l’État se modifie sous le coup de la financiarisation. Au regard de ce constat, quelles perspectives entrevoyez-vous à la double lumière de votre expérience d’homme politique et de chercheur ?

=Dominique Boullier

Le matériel de cet ouvrage demeure en effet intéressant. J’avais conduit des enquêtes de terrain afin de comparer les mécanismes régissant les services de messagerie, les parcs de loisirs et le Club Med. J’ai, de la sorte, mis au jour leur étonnante concomitance en ce qu’ils m’ont paru être des « pousse-au-jouir » pour reprendre les termes de Gérard Miller. Or, ces mécanismes sont plus que jamais de mise, installant un stress permanent, comme le souligne Sloterdijk : nous voici sommés de réagir à d’incessantes stimulations. Les réseaux sociaux fonctionnent, en ce sens, selon la même logique que la finance, laquelle plonge ses acteurs dans un état de vibration permanent qui les conduit à exploser de temps à autre, tout autant que les bulles qu’ils génèrent. Les films mettant en scène des traders fondent tout leur argument sur cette violente excitation. Même les Youtubers l’ont appris en veillant à publier ce qui choque et qui excite pour attirer de l’audience. Un tel dispositif ne permet pas la construction du désir, ni même d’un projet. Il est destituant en ce qu’il privilégie le mimétisme entre individus et disqualifie ainsi massivement le droit au profit du principe « winner-take-all ». Autrement dit, seuls comptent le premier, le plus imposant, le plus rapide ou le plus choquant. C’est d’ailleurs cette dernière dimension qui donne toute son efficacité aux fake news ainsi que l’a démontré une récente étude (Vosoughi, 2018) : plus nous sommes choqués, plus nous sommes prompts à répandre ce qui nous a choqués. On ne peut donc mettre sur le compte de la fausseté du message la rapidité de sa propagation, au-delà de l’influence que peuvent avoir par ailleurs les trolls.

Cette perte de l’institution est certes un problème de nature politique. Mais, plus fondamentalement encore, elle me semble relever d’un problème anthropologique. Je rejoins sur ce point la position de Pierre Legendre qui n’est pas réactionnaire au sens où elle consisterait à revêtir le passé de toutes les vertus. Au contraire, elle vise à réinventer le droit, suivant en cela l’ambition de Lawrence Lessig. Autrement dit, la fluidité qui est à notre disposition n’est vivable que si elle est régulée. Wikipédia est, de ce point de vue, un chef-d’œuvre : il a produit une véritable institution, même si celle-ci est complexe et certainement pas infaillible. Il n’en demeure pas moins qu’elle permet de procéder à des arbitrages, qu’elle met à disposition des historiques et constitue donc une mémoire et qu’elle protège la contradiction à travers les espaces de discussion. La dimension contradictoire, précisément, est centrale tant en termes juridiques que politiques. Or, elle est totalement évacuée par des dispositifs du type de Google qui est devenu un moteur de réponse et non de recherche. Il donne des réponses en position zéro, c’est-à-dire en tête de page, sans préciser d’où elles proviennent et sans suggérer qu’elles peuvent être équivoques ou, pour le moins, porter à controverses. Ce sont ces mêmes réponses dont l’utilisateur s’empare sans plus de réflexion. Je ne peux que m’inquiéter de la dictature de la vitesse à laquelle nous sommes soumis même si je ne partage pas entièrement les positions que Hartmut Rosa défend dans Accélération, Une critique sociale du temps. Cet ouvrage, au demeurant, n’évoque pas directement le numérique.

=Jacques A Gilbert

Il est étonnant que Hartmut Rosa ne se soit pas intéressé au numérique au regard de la thématique dont il a traité.

=Dominique Boullier

Il faut tenir compte du fait que son ouvrage est paru en 2005, avant l’explosion de Facebook et de Twitter. En tout état de cause, il me semble que la situation à laquelle nous sommes confrontés relève moins d’un problème d’accélération que d’un problème de rythme. En effet, même si la tendance est à une vitesse toujours croissante, elle est plus fondamentalement encore découpée en phases de plus en plus nombreuses, de plus en plus hachées. L’étude de cette fragmentation a permis aux chercheurs de Costech à l’Université de Technologie de Compiègne d’explorer le syndrome de saturation cognitive. Celui-ci peut être envisagé non seulement à partir de l’attention mais également depuis les procédures de décision ou le traçage des comportements. La granularité de plus en plus fine qui est actuellement à l’œuvre suppose que nous générions des impulsions, que le système génère des impulsions et que les unes comme les autres soient soumises à la calculabilité. Nous entrons ici dans un autre monde.

=Armen Khatchatourov

Reliez-vous cette granularité des actions et des décisions à ce que d’aucuns désignent par « la fin du sujet » ou « dividu » ?

=Dominique Boullier

M’inscrivant dans la lignée de Gabriel Tarde, je suis, de fait, leibnizien : la mise en exergue de la dimension infinitésimale, plus que l’idée de monade, me semble une avancée majeure et pas uniquement pour les mathématiques. Elle a nourri le courant deleuzien au même titre que la pensée de Bruno Latour. On pourrait imaginer que l’infinitésimal s’accommode assez mal de mon intérêt pour la linguistique structurale. Je pense au contraire que l’un et l’autre sont complémentaires. Lorsque Ferdinand Saussure énonce : « la valeur d’un élément, c’est d’être ce que les autres ne sont pas », il se rapproche du différencialisme. Or, celui-ci occupe une place centrale dans ma formation intellectuelle et se révèle d’une particulière utilité dès lors qu’il faut saisir des degrés de granularité de plus en plus fins. Ceux-ci ne peuvent que disqualifier les sciences sociales si elles persévèrent dans l’étude de l’individu alors qu’il n’existe plus que des dividus qui ne sont eux-mêmes plus définis en fonction de propriétés sociales mais du seul fait que telle ou telle touche ait été maintenue appuyée pendant un temps donné. L’unité d’analyse est dès lors ramenée à la micro-action.

L’ouvrage publié par mes collègues de Sciences Po à propos du biais comportementaliste pointe cette problématique que j’ai alimentée en partie puisque j’ai ouvert un Laboratoire des Usages à la Cité des Sciences en 2004. Celui-ci était entièrement dédié à la mesure comportementale dans la perspective toutefois de redonner une place aux utilisateurs. Le fait est que le contexte a, depuis cette expérience, totalement changé. La question ne consiste plus à débusquer un quelconque biais comportementaliste. Elle repose sur le fait que la granularité est devenue le ressort même d’un système économique calqué sur le modèle de Google, ainsi que Shoshana Zuboff l’a parfaitement démontré. Ce qu’elle appelle « la plus-value comportementale » est généré à partir de traces qui sont transformées en « produits prédictifs ». Cette problématique ne peut être tenue pour un simple parti pris théorique. Les promoteurs d’une telle économie s’embarrassent assez peu de théorie mais ont parfaitement trouvé leur intérêt dans l’exploitation de la granularité appliquée aux comportements. Et la force de frappe financière de ces plates-formes, en raison du mode de financement dominant d’internet, à savoir la publicité, leur permet d’orienter les futurs comportements grâce à cette connaissance fine des traces de nos comportements passés. Cela produit un mouvement d’apprentissage permanent qui fait dire à Zuboff que la division de l’apprentissage remplace la division du travail : les firmes apprennent y compris avec le Machine Learning alors que les sujets savent de moins en moins pourquoi telle information se présente à eux dans notre fil ou pourquoi tel résultat est mis en avant, et comment il se fait qu’on est incapable de s’empêcher de vérifier nos comptes sur tous nos réseaux et de réagir à tout nouveau post.

=Jacques A Gilbert

Pour filer l’évolution de l’individu au dividu, il serait peut-être plus pertinent d’évoquer des portements plutôt que des comportements. Si ces derniers présupposent une unité constituée, les premiers sont réductibles à une congruence de traces qui effacent l’avec, le « cum ».

=Dominique Boullier

Ce dernier demeure néanmoins mais uniquement sur un mode algorithmique ou statistique.

=Armen Khatchatourov

Il ne s’impose pas comme une nécessité : les machines, qu’elles soient commerciales ou scientifiques, s’intéressent exclusivement aux micro-actions.

=Dominique Boullier

Certes. Néanmoins, ces dernières ne font sens que si elles permettent la détection de patterns, c’est-à-dire d’une forme d’agrégation. En tout état de cause, cette détection se fonde sur la différence. Ce n’est pas un hasard si le machine learning comporte, via les support vector machine, un mode analogiste : on optimise les similarités et les différences pour rendre la classification plus robuste. Il n’est plus dès lors question que de mesurer des distances.

=Armen Khatchatourov

Shoshana Zuboff ajoute aux trois niveaux de réalité décrits par Karl Polanyi (la vie devenue travail, la nature devenue biens immobiliers, l’échange devenu monnaie) un quatrième niveau : le comportement. Elle pose par là une question de nature pour ainsi dire ontologique.

=Dominique Boullier

C’est la raison pour laquelle l’internet des objets n’est pas un phénomène anecdotique : Il empêche de faire une distinction de substance entre les traces laissées par un clic à l’initiative d’un utilisateur et celles consécutives à l’action d’un robot. Un tel prisme pose des problématiques multiples tant du point de vue statistique que juridique ou de traitement massif des données. La théorie de l’acteur-réseau est particulièrement utile dans ce contexte : elle nous a équipés intellectuellement de façon à ce que nous puissions accueillir le non-humain dans notre réflexion.

=Jacques A Gilbert

L’expérience de Parcours Sup est, de ce point de vue, très intéressante. Les élèves dont les souhaits n’avaient pas été retenus ont demandé à recevoir la justification de ces décisions. On leur a adressé pour toute réponse, et après de nombreuses sollicitations, cent pages de code. Néanmoins, ils ont ainsi obtenu, quoiqu’indirectement, qu’une personne humaine signe les décisions correspondantes. Un tel exemple illustre bien le fait qu’on assiste à une sorte de transfert des instances décisionnelles particulièrement problématique.

En effet, les machines ne pouvant prendre de décisions juridiquement qualifiées, elles ne peuvent qu’apporter une aide à la décision. Pour autant, la qualité interfacielle de notre environnement n’apporte aucune assurance quant au respect de cette nécessaire limitation.

=Dominique Boullier

Pour faire à nouveau référence à Karl Polanyi, j’évoque à ce propos une logique de désencastrement du calcul : celui-ci s’autonomise ; ses boucles tournent par elles-mêmes sans garantir l’interprétabilité de leurs résultats et sans être reprises à l’intérieur d’un quelconque design organisationnel, qui doit toujours être spécifique. D’un point de vue juridique, il est essentiel de pouvoir distinguer entre l’éventuel recours à une aide à la décision et les décisions effectivement validées. Au regard de cette difficulté, Alain Bensoussan, malgré le caractère polémique de ses prises de position, a raison de vouloir doter les robots d’une personnalité juridique, selon le même modèle mobilisé par l’Inde et la Nouvelle-Zélande à propos des fleuves ou, récemment, pour le lac Érié. Seule une telle démarche permettra d’attribuer la responsabilité à qui de droit. Le non-humain doit donc accéder à un statut juridique quand bien même nos façons de penser devraient en être bouleversées. Là encore, la théorie de l’acteur-réseau est déterminante en ce qu’elle a permis à la réflexion de ne plus être uniquement centré sur le sujet humain.

Daphné Vignon Votre ouvrage La ville événement paraissait développer une perception plus négative de l’institution que celle que vous livrez ici. Vous remarquez en particulier qu’elle propose une « fiction pauvre », voire « lacunaire », contrairement à celle produite par la « conversation » soutenue par les réseaux sociaux.

=Dominique Boullier

Ce livre relève de l’anthropologie urbaine. Il démontre que les événements mineurs peuvent générer des changements d’échelle, comme on l’observe sur les réseaux sociaux. L’institution a toujours une difficulté à être en prise sur les événements. En l’espèce, ceux relatés au sein de La ville événement sont très précisément documentés puisqu’ils ont été observés simultanément par plusieurs membres de l’équipe de recherche que j’avais constituée pour cette étude. Celle-ci permet de souligner la grande expertise dont sont dépositaires les acteurs de terrain qui s’imposent comme les indispensables capteurs de l’institution. J’en ai moi-même été le témoin pour avoir participé à plusieurs patrouilles avec les forces de maintien de l’ordre. Je pouvais sentir ceux d’entre les agents qui portaient l’institution avec eux : au contraire de leurs collègues pris par la peur, ils disposaient de cette étonnante capacité à pacifier les situations par leur seule présence, y compris face à des protagonistes pris de boisson et emportés par l’excitation du moment.

De la même façon, j’ai vécu des scènes particulièrement tendues lorsque je travaillais comme éducateur auprès de jeunes délinquants. Ainsi, mon expérience de l’institution ne se situe pas uniquement à un niveau conceptuel et juridique ; elle est également pour ainsi dire physique au sens où l’institution peu ou non sécuriser les personnes. Les récents exemples de harcèlement démontrent les effets délétères d’une institution qui n’est pas instituante, d’une institution qui ne garantit pas sa place à chacun. Permettez-moi de remarquer à ce propos que le management a massivement détruit cette garantie des places pour des raisons supposément libérales de performance ou de compétitivité.

Travailler sur les événements m’a donc permis de souligner que les institutions, du fait de leurs protocoles, ne parviennent pas à saisir ce qui émerge, le grain fin de ce qui est. Pourtant, dans le même temps, elles s’appuient sur des professionnels qui jouent pour elles le rôle de capteurs tels que les agents de renseignement qui se mêlent aux manifestants. Du moins, ce fut le cas jusqu’à récemment. Après être allé observer les manifestations des « gilets jaunes » sur les Champs-Élysées, j’ai publié le 4 décembre 2018 un article sur mon blog de Mediapart intitulé L'incroyable faillite du maintien de l'ordre macronien. Un tel constat d’échec s’impose à tous ceux qui, comme moi, ont eu l’occasion de voir la manière dont les forces de l’ordre travaillaient il y a seulement dix ans et la manière dont elles interviennent de nos jours.

=Jacques A Gilbert

Pensez-vous que cette faillite soit volontaire ?

=Dominique Boullier

Elle émane d’une volonté politique dont l’objectif est de nier le mouvement des « gilets jaunes », de lui interdire toute forme de représentation, de lui refuser une place et donc de le destituer. C’est la raison pour laquelle, et pour la première fois, les manifestants qui se sont présentés à dix heures du matin Place de la Concorde se sont fait gazer cinq minutes plus tard : ils n’avaient pas le droit de cité sur les Champs-Élysées alors même qu’ils y ont été ensuite autorisés. On saisit là l’incohérence du pouvoir et son propre affaissement institutionnel au profit de la réactivité. Par ailleurs, on ne peut que constater l’incompétence avec laquelle il prend appui sur les agents à sa disposition. Il s’ensuit qu’il est tout à fait fallacieux de prétendre que des milliers de black blocks déferlent sur Paris alors qu’ils ne sont que quelques centaines sur le territoire national et, qui plus est, parfaitement connus des services de renseignement. À défaut de s’appuyer sur l’expertise policière, il est impossible d’instituer la manifestation, autrement dit de lui donner sa place. En l’espèce, les « gilets jaunes » que j’ai vus bloqués avenue de Friedland n’avaient plus nulle part où aller : certains d’entre eux ont donc commencé à allumer des feux, ouvrant la voie aux épisodes émeutiers dont nous avons été les témoins. Ce gigantesque désordre est une caricature de la désinstitutionalisation.

Daphné Vignon De quelle manière ces places institutionnelles sont-elles données ? Peuvent-elles être revendiquées ? Le modèle de Wikipédia et de l’intelligence collective que vous évoquiez précédemment peut peut-être permettre de répondre à cette question tout en en appelant une nouvelle : la représentativité politique est-elle encore possible à travers l’institution ?

=Dominique Boullier

Nous ne pouvons que constater l’essoufflement d’un certain type d’institutionnalisation de la représentation tant politique que scientifique, celle-ci étant aux prises avec un mouvement de disqualification généralisée.

Bruno Latour et moi-même avons, malgré nous, contribué à cette malheureuse tendance en ce que nous avons rappelé que la science en train de se faire suppose une multiplicité de controverses. Nous avons ainsi mené un travail particulièrement rigoureux autour des hésitations, des débats et des mises à l’épreuve qui précèdent l’établissement d’une science ou d’une innovation technique, travail qui présente, de mon point de vue, un apport essentiel des sciences and technological studies. Or, cette prise de position a été entendue comme l’annonce de la disparition de la vérité scientifique en tant que telle. Il s’agit là d’un parfait contresens : il n’est en aucun cas question d’affirmer l’absolue relativité des thèses entre elles. Toutes ne se valent pas. Je crains que les discours de cette eau qui prolifèrent actuellement, exploités qu’ils sont par les réseaux numériques, ne soient qu’une réaction à l’abus de pouvoir scientiste qu’a commis l’institution scientifique.

=Jacques A Gilbert

Dans l’Antiquité et au Moyen-Âge, je pense au Contre les sophistes Isocrate ou au Traité décisif d’Averroès il paraissait évident qu’il fallait articuler les dimensions tant ésotériques qu’exotériques ce qui a pu paraître incompréhensible à un lecteur d’après les Lumières. Les questions antiques et médiévales ont été balayées par l’affirmation d’une vérité scientifique établie selon un modèle pyramidal ascendant. Or, le modèle actuel semble renversé et se présente comme une sorte d’entonnoir descendant.

=Dominique Boullier

Le texte de ma conférence Éduquer à l’incertitude, publié dans l’ouvrage Cultures numériques, soulève ce paradoxe. Éduquer à l’incertitude consiste à admettre qu’il n’est plus possible de transmettre les certitudes qui étaient, auparavant, rattachées aux institutions par le truchement des autorités. Ma définition de l’institution, au contraire, n’est pas liée aux autorités mais s’articule à la notion de place. Or, affirmer que chacun se voit garantir une place suppose qu’on puisse penser un garant, un tiers que d’aucuns ont pu qualifier en leur temps de méta-social. Si celui-ci s’effondre, un climat d’incertitude s’installe nécessairement, rendant par-là même difficile toute démarche éducative. Parallèlement, les dispositifs techniques tels que la block chain sont censés reposer sur une confiance distribuée et sans garant alors qu’un examen plus attentif met en évidence le fait qu’ils alimentent une défiance totale. Il faut en effet déployer des efforts inouïs (ce qu’on appelle des proof of work qui demandent des calculs très complexes, pour le modèle de blockchain de Bitcoin tout au moins) pour obtenir la validation d’un contrat dont le contenu lui-même n’est pas parfaitement clair puisqu’il est crypté. Nous assistons donc à l’émergence d’un régime de défiance généralisée particulièrement vis-à-vis des intermédiaires traditionnels tels que les scientifiques, les politiques ou les journalistes. Il nous est proposé de les remplacer par un contrôle technologique et algorithmique. Or, l’architecture de ce dernier a été pensée sur le présupposé qu’il n’est plus possible d’avoir confiance en rien ni personne. Un tel monde est proprement invivable.

=Armen Khatchatourov

La seule mesure palliative consiste à distribuer le calcul.

=Dominique Boullier

C’est bien la preuve que l’on se méfie de tout le monde et non que l’on est gouverné par un idéal du partage : il s’agit par cette distribution d’empêcher quiconque de fausser la construction des chaînes de blocs. Le peu de temps où j’ai eu à subir un tel régime était lors de mon bref séjour en Pologne pendant le coup d’État du général Jaruzelski. Faire l’expérience d’un État totalitaire est un bon moyen de s’en prémunir à tout jamais.

=Jacques A Gilbert

Vous évoquez cette question lorsque vous traitez de l’invisibilité. La méthode de Max Weber consistait, à partir de corrélations, de développer des explications permettant d’accroître le visible du déjà-visible. Or, actuellement, le « dessous du visible » ne peut être porté à la visibilité : l’interface arrête la vue. Vous analysez ce modèle au fil de votre interrogation autour de l’immersion. Vous remarquez en effet que nous ne disposons plus d’une vision extérieure par laquelle le sujet posait son objet pour le concevoir, fût-ce au prix d’une opération artificielle. Au contraire, vous affirmez à la suite de Peter Sloterdijk qu’il faut, pour voir, être maintenant à l’intérieur. La difficulté est dès lors de situer ce que l’on peut tenir pour le « dedans », d’autant plus que la notion de dividu suppose de ne récolter qu’une multitude de données. À défaut, et si nous choisissons de nous en remettre seulement au calculable, nous serons contraints d’adopter une posture conséquentialiste. Dès lors nos choix se porteront sur ce qui marche plutôt que sur ce que nous comprenons.

Au-delà, dans d’autres traditions culturelles, il n’est pas nécessaire de voir et de comprendre pour admettre l’efficacité. En d’autres termes, n’assistons-nous pas tout simplement à la crise d’un type de science strictement occidentale ?

=Dominique Boullier

C’est le prix à payer du mouvement moderne d’extériorisation du sujet. Nous avons posé le monde à l’extérieur, et pas uniquement par l’intermédiaire de la perspective. Nous nous en sommes extraits. Mais, ainsi que Sloterdijk le souligne, nous avons finalement toujours été à l’intérieur. Dès lors, il nous revient de répondre à cette question : que pouvons-nous penser à l’intérieur ? Il n’est pas impossible que la phénoménologie soit la plus apte à y répondre. En tout état de cause, nous ne pouvons plus nous contenter de l’appréhension scientifique du monde. Or, paradoxalement, renoncer à l’omnipotence scientifique nous permet d’acquérir un nouveau type de connaissances. C’est la raison pour laquelle j’affirmais précédemment que la psychanalyse n’a pas à faire science. De même, l’expertise sur laquelle s’appuie la pharmacopée indienne ne peut être disqualifiée au seul motif qu’elle n’est pas de nature scientifique. Cela étant dit, ma position n’est pas celle du relativisme : je prétends au contraire qu’il nous faut continuer à faire de la science ne serait-ce que pour tout ce que celle-ci a permis et permet d’accomplir. Néanmoins, nous devons être en mesure de la poser à côté d’autres modes de connaissance, et ce d’autant plus qu’une appréhension depuis l’intérieur du monde est riche d’enseignements.

C’est à partir de ce constat que je modèle actuellement le plan de mon ouvrage consacré à l’habitèle.

D’autant plus que la question de l’intérieur percute celle posée par le modèle des réseaux. En effet, celui-ci nécessite, de manière générale, un point de vue extérieur en ce qu’il suppose de cartographier le monde. De la sorte, notre préoccupation porte moins sur les entités qui circulent au sein des réseaux que sur la topologie que ces derniers permettent d’identifier. A contrario, ma recherche, que je qualifie volontiers de troisième génération des sciences sociales, porte sur ce qui circule dans les réseaux et qui n’est ni un nœud, ni une structure et qui, d’une certaine façon, se situe à l’intérieur des réseaux.

Nous devons admettre qu’en adoptant des modèles du réseau, nous avons dissous toute pensée de l’enveloppe et implicitement de l’institution. Il va sans dire qu’une telle lecture peut être aisément transposée dans le champ politique : la globalisation est synonyme de réseau alors que le protectionnisme réfère à l’enveloppe. On peut objecter qu’une telle affirmation est, par maints égards, trop tranchée. Force est pourtant de constater que, pour avoir donné un privilège presque exclusif au réseau, nous devons maintenant réinventer l’enveloppe. Une telle démarche relève d’un programme à la fois politique et technique au sens où elle suppose d’engager la réflexion d’abord au niveau de chacun, puis au niveau d’un système technique et enfin au niveau d’une coopération entre États, dont on peut dès lors se demander s’ils sont capables de « faire enveloppe ». Il ne s’agit donc pas de théoriser une protection entendue dans le sens le plus réactionnaire du terme, d’autant moins que refuser toute forme d’échanges équivaut à une condamnation à mort. Au contraire, il convient de penser une immunologie dans le sillage de Peter Sloterdijk. Il s’agit dès lors d’étudier les modalités de régulation des flux, des échanges et des places. Celles-ci sont nécessairement plurielles pour chacun d’entre nous : nous ne sommes plus en position d’en avoir une seule et devons au contraire admettre d’en changer régulièrement.

Daphné Vignon Comment se garantir contre une totale relativisation des places entre elles ? Envisagez-vous qu’il puisse y avoir des « justes places » pensées sur le modèle du kairos ?

=Dominique Boullier

Cette problématique est complexe tant d’un point de vue politique que cognitif. Si nous ne vivons plus dans une société traditionnelle, nous devons néanmoins maintenir un sens des places sans pour autant que celles-ci soient substantielles ! On peut alors reprendre une démarche structuraliste (au sens formel et théorique du terme) pour tenir compte des différences. En effet, nous n’avons de place que dans des systèmes différentiels qui sont plus mobiles qu’auparavant, quand bien même les grandes hiérarchies sociales ont perduré. Dans cette perspective, il n’est pas question de disqualifier a priori ceux d’entre nous qui veulent défendre leur place, ou pour le moins leur droit à avoir une place. Si cette revendication est légitime, il n’en demeure pas moins qu’il n’est plus possible d’occuper les mêmes places qu’auparavant. Les travaux que nous avons publiés au sein des Cosmopolitiques avaient précisément pour ambition d’assembler ces différentes positions sans les disqualifier a priori. Au-delà, évoquer le changement des positions n’équivaut pas à promouvoir le relativisme. Il nous est possible d’adopter un temps une posture scientifique puis, à d’autres moments, une posture relevant de l’expérience humaine : l’une n’annule pas l’autre.

Daphné Vignon Est-il donc possible de rapprocher la notion de point de vue que vous exposiez précédemment de la notion de place ?

=Dominique Boullier

De même que le pluralisme politique est au fondement de la démocratie, de même nous devrions admettre parfaitement qu’il existe une pluralité de postures permettant de penser le monde. Aucune d’entre elles ne peut se donner comme hégémonique, au mépris de toutes les autres. En ce sens, la récente tribune de Bruno Latour parue dans Le Monde me semble être une perte de temps. Il s’évertue à évacuer la tradition bourdieusienne au prétexte qu’elle ne permet pas de comprendre le monde. Je ne peux pas partager une telle affirmation. Les bourdieusiens ont développé un modèle qui a imprégné la vision que nous avons du social : il est donc loin d’être ridicule.

=Jacques A Gilbert

Considérer qu’une vérité s’impose au détriment de toutes positions contradictoires est une démarche strictement religieuse ainsi que l’a démontré Jan Assmann avec sa critique du monothéisme. Ce dernier ne consiste pas à adorer un seul dieu mais suppose de faire la différence entre le vrai dieu et les faux dieux.

Affirmer qu’un dieu est vrai au détriment de tous les autres pousse nécessairement à créer des clivages et à faire sécession. La science s’est, d’une certaine manière, fondée sur ce monisme de confiance et de croyance.

A un certain point limite, affirmer que l’on ne croit en rien est un énoncé strictement monothéiste.

=Dominique Boullier

Bruno Latour définit le moderne comme celui qui croit que les autres croient. C’est par ce qu’elles sont données pour des croyances que certaines visions du monde peuvent être disqualifiées. Or, en défendant cette position, le moderne expose ni plus ni moins que sa propre croyance. Au contraire, si l’on adopte le perspectivisme d’Eduardo Viveiros de Castro, on peut passer d’une vision à l’autre. Pour autant toutes ne se valent pas, ne serait-ce que parce que la domination des unes sur les autres fait tout l’enjeu de la lutte des influences politiques. Or, dominer ne signifie pas écraser : il ne s’agit pas, au travers de la domination, de détruire un ennemi auquel on dénierait le droit à la commune humanité. Dans cette perspective, le pluralisme est érigé au rang de valeur fondamentale et doit être à la fois préservé et parfaitement décrit. Précisément, la description des différents régimes de vérité s’impose comme une véritable difficulté à laquelle Bruno Latour n’échappe pas lorsqu’il opère une distinction entre ce qu’il nomme les « modes d’existence ». Son recensement a pris une telle ampleur que la photographie d’ensemble est devenue particulièrement complexe.

Plus modestement, je développe une lecture fondée sur les trois points de vue qui me semblent structurer les sciences sociales et que j’ai cités précédemment. Ceux-ci supposent que le pouvoir d’agir soit délégué aux structures, ou aux préférences individuelles, ou aux actants que sont les objets et les messages en circulation. Permettez-moi de préciser que cette « délégation de pouvoir » est arbitraire au sens où elle n’est réalisée qu’à des fins d’investigation. Ainsi, lorsque nous affirmons que le pouvoir d’agir est délégué aux structures, nous ne prétendons pas que les personnes sont susceptibles d’être manipulées comme des marionnettes. En tout état de cause, il est impossible d’embrasser ces trois points de vue d’un même mouvement, d’autant moins qu’ils supposent chacun de mobiliser des méthodes très spécifiques.

C’est l’expérience du numérique qui m’a amené à adopter cette position pluraliste En effet, la démarche que nous avions empruntée dans le cadre du médialab m’est apparue, au fil du temps, relever d’un malentendu. Elle consistait à repérer des structures, en utilisant parmi les méthodes numériques uniquement celles qui permettent une analyse des positions ou une topologie des controverses. Reconstituer ces controverses dans le temps en deuxième instance ne résout pas les difficultés que pose un tel abord. Celui-ci postule en effet de définir les positions à l’avance alors que leur mouvement n’est perçu que cinétiquement, comme une succession de clichés. Néanmoins, nous ne pouvons nous en tenir à ce point de vue qui est uniquement celui des structures. Précisément, mon propos est de comprendre les modalités de circulation d’entités telles que les énoncés. Je cherche donc à suivre les entités circulantes, à comprendre la manière dont elles pénètrent d’autres entités afin d’évaluer leur pouvoir d’agir, fût-il limité et leur capacité à créer du réseau, fût-elle provisoire. C’est la raison pour laquelle je travaille sur la mémétique, en m’appuyant sur Daniel C. Dennett et sur l’évolutionnisme culturel. Le fait est qu’il existe un véritable courant permettant de concevoir ce qui se maintient à travers de multiples figures, y compris au sein du monothéisme. Quelles raisons justifient-elles une telle survivance des énoncés ? Il me semble essentiel de mettre ces derniers à l’épreuve sans pour autant viser à leur ôter tout leur pouvoir. Une telle démarche permet de rétablir un certain pluralisme qui n’est ni disciplinaire, ni hiérarchisé.

=Armen Khatchatourov

Votre article intitulé Medialab stories : How to Align Actor Network Theory and Digital Methods retrace de manière critique l’aventure du médialab. Comment définiriez-vous la troisième voie que vous tentez d’ouvrir entre le point de vue des structures d’une part et le point de vue des préférences individuelles d’autre part ? Bruno Latour a lui-même, à l’origine de sa réflexion, souhaité s’inscrire sur un autre plan qu’Émile Durkheim et Max Weber pour échapper à la dichotomie entre individus et structures. Quel est, selon vous, l’apport du numérique au service de cette recherche ? Celle-ci passe-t-elle nécessairement par l’analyse des énoncés ? Le cas échéant, s’agit-il de prendre en compte uniquement les énoncés en tant que tels ou est-il également nécessaire de saisir leur circulation et leur survivance ? Enfin, une telle démarche peut-elle déboucher sur la question des institutions, laquelle n’est pas frontalement prise en charge par la théorie de l’acteur-réseau ?

=Dominique Boullier

Forte de son ambition de créer un « monde plat », la théorie de l’acteur-réseau a été, dès l’origine, conçue comme une machine de guerre contre les institutions. Ainsi que le rappelle l’article que j’ai cosigné en 2012 avec Bruno Latour, Pablo Jensen, Tommaso Venturini et Sébastian Grauwin sous le titre The whole is always smaller than its parts – a digital test of Gabriel Tardes' monads, dès lors que « le tout » est entièrement déplié, ne reste qu’une multitude de petites différences, qui, emboîtées les unes avec les autres, font institution. Si cet abord est légitime, il ne peut, à mon sens, se donner pour définitif, raison pour laquelle je ne peux souscrire à cette idée de « monde plat ». En effet, les assemblages une fois constitués ne sont pas réductibles à de simples amas : ils font corps. Sans nier l’existence des cellules, un tel constat permet donc de considérer des corps dont on peut dire, comme pour le corps humain, qu’ils sont autres choses que des conglomérats de cellules. Ainsi, tout constructivisme responsable se doit de reconnaître non seulement le déconstruit mais également le construit. Ce dernier permet de faire des entités originales qui s’échappent et vivent leur vie sans que l’on sache vraiment pourquoi. Des entités qui, en vertu de la théorie de l’évolution, gagnent ou perdent mais, pour le moins, existent.

Par ailleurs, lorsque nous avons créé le médialab en 2009, nous avons, à la suite de Franck Ghitalla, abordé le numérique à partir de l’analyse des liens hypertextes. Cette acception de la trace se justifiait car les réseaux sociaux n’étaient pas aussi développés qu’aujourd’hui, avant qu’ils n’instaurent la traçabilité du moindre comportement. Franck Ghitalla m’a présenté sa première analyse des réseaux au tout début des années 2000. J’ai trouvé ce modèle aussi passionnant que spéculatif. Je me suis immédiatement méfié des approximations induites par les transpositions précipitées des clusters aux « communautés » ou des nœuds aux « acteurs » – même si nous devons à présent apprendre à vivre avec ces approximations. En tout état de cause, si la démarche de Franck Ghitalla a été instructive, elle ne permettait pas de rendre compte des flux, devenus pour ainsi dire invisibles. Dès lors que le réseau est appréhendé uniquement comme une structure, les liens sont, en quelque sorte, institués. De la sorte, ces derniers peuvent même être marchandés au sein d’une communauté : par exemple, les référencements s’échangent entre membres ( je te cite, tu me cites). Google, s’il participe pleinement à cette logique, ne repose pourtant pas uniquement sur une telle mécanique topologique. Il prend au contraire en compte une dynamique de circulation de traces de comportements qu’il ne me semble plus possible de négliger.

J’ai participé à la production d’études topologiques portant sur le Web scientifique et technique ou sur le Web du livre. J’ai appris donc d’expérience que les graphes générés à partir des algorithmes sont à prendre avec circonspection. Par exemple, les distances entre les sommets, comprises aussi bien en termes de spatialisation que de visualisation, sont pondérées sans que l’on sache toujours exactement le justifier.

Or, ces graphes sont utilisés pour rendre visibles voire expliquer des structures, des positions substantielles : ils permettent de décrire les camps qui s’affrontent lors d’un débat ou les positions d’alliances adoptées dans le cadre d’un projet. Une telle méthodologie n’a rien à voir avec la théorie de l’acteur-réseau. En effet, l’ANT permet de rendre compte d’une dynamique entendue dans une perspective deleuzienne comme un devenir.

De mon point de vue, celle-ci ne peut être appréhendée que grâce au suivi des entités qui circulent et qui relient.

Je n’en suis venu à cette conclusion qu’avec le temps même si je n’ai jamais adhéré aux discours pseudo-théoriques visant à faire du numérique le révélateur d’une prétendue continuité du social depuis l’échelle microscopique à celle macroscopique, ou qui combinerait sans contradiction une approche qualitative et une approche quantitative. Les données ne sont pas la réalité ! Celles-ci, ainsi que le monde qu’elles décrivent, sont formatées par nos regards et donc par nos instruments. Ce fait n’appelle aucun jugement de valeur. C’est uniquement une condition de la connaissance qui doit être pleinement prise en compte de sorte que nous soyons conscients de ce que l’on fait. Au contraire, nous avions déployé, au sein du médialab, un discours inadapté à notre activité réelle. C’est la raison pour laquelle j’ai développé une critique de l’argument de la continuité, en particulier à travers l’article intitulé Zoomer n’est pas explorer. Le zoom n’est pas un simple mouvement de rapprochement. Il suppose de procéder à un entier recalcul, fondé sur des algorithmes spécifiques : il ouvre sur un autre monde que celui qui a été vu depuis le lointain. Le zoom n’offre donc qu’un effet artificiel de continuité. L’ensemble de ces incohérences a motivé mon départ vers l’École polytechnique fédérale de Lausanne. Les membres du médialab, occupés à produire des graphes et de la topologie, ne pouvaient pas travailler à partir de mes propositions et abandonner le point de vue de la structure des positions, alors même qu’ils pensaient pratiquer l’ANT.

Ainsi que je le soulignais plus haut, si l’on s’en tient au modèle proposé par Bruno Latour, les institutions « ne sont que » des accumulations de petites différences. Cette définition me paraît trop restrictive. Au contraire, si l’on adopte une démarche différentielle, il est possible de saisir ce qui circule et qui va créer, à un moment donné, les conditions de structuration d’une institution. Il ne s’agit pas ici d’énoncer un principe général mais de démontrer empiriquement ces dernières, de les calculer, de les comparer. Le fait est que certaines aboutissent, d’autres non. Or, seules celles qui « marchent » comptent dans la durée, ainsi que nous l’avons déjà remarqué. Sur ce terrain, les computational sciences ont un temps d’avance : elles offrent une véritable efficience sans s’embarrasser de théories. Nous pouvons donc contribuer à les reconnecter à ces discussions théoriques.

=Jacques A Gilbert

Elles introduisent néanmoins une dimension sémiotique en ce qu’elles produisent du sens.

=Dominique Boullier

C’est beaucoup dire. Au mieux, elles laissent des traces potentiellement interprétables ou plus exactement corrélables. Elles créent ainsi les conditions d’émergence du sens.

Ces processus façonnent un environnement propice à la prolifération de traces que nous avons dorénavant la possibilité de suivre. Je me propose ainsi de m’en tenir à la théorie de l’acteur-réseau au sens strict et de distribuer l’agentivité non seulement aux humains, mais également à toute entité qu’elle soit ou non vivante telles que les objets ou les messages. En effet, si ceux-ci sont des extensions de nous-mêmes, ils vivent une vie propre dès lors qu’ils entrent en circulation. L’enjeu consiste donc non seulement à les suivre, à les comparer, à les analyser mais également à les calculer. Dans cette perspective, j’espère pouvoir lancer un ERC dont le programme de travail consiste à reprendre les protocoles d’évaluation des chances de succès dans les environnements quasi expérimentaux que sont les mèmes et twitter. Ceux-ci, bien que parfaitement artefactuels et marginaux par rapport aux tendances lourdes du social, relèvent néanmoins du social. Ils permettent de mettre à l’épreuve des détections de patterns à partir de méthodes de data science. Adopter une telle démarche c’est admettre la nécessité de la réduction des dimensions des problèmes pour les rendre calculables – une réduction dont j’ai fait sans cesse le constat au fil de mes travaux au sein de l'École polytechnique fédérale de Lausanne. C’est prendre le contre-pied de la position de Bruno Latour telle qu’il l’expose dans son ouvrage Irréductions qu’il a publié en 1984 et remanié en 2005. Il soutient en effet qu’il n’existe pas de meilleur rôle politique que de révéler l’ensemble des entités qui contribuent à peupler un phénomène, ce qu’il fait très bien dans son article Le topofil de Boa Vista ou la référence scientifique - montage photo-philosophique. Cette étape créative de la recherche mène inévitablement au surpeuplement et à l’impossibilité de la comparaison, qui doit constituer selon moi, la seconde phase du processus de connaissance, sa validation qui supposera nécessairement une réduction de dimensions du problème (ou de ses variables).

Cela suppose donc, après repeuplement et restitution de la continuité et intégration à un schéma conceptuel pour rendre compte de ces entités, d’accepter de discrétiser, de classifier pour rendre comparable. Au contraire, les data scientists ont tendance à prendre les concepts et les catégories disponibles dans le sens commun (ou dans une discipline) pour sélectionner les features sur lesquels ils vont travailler et pour labelliser les classes qu’ils dégagent. Si toutefois les features ne permettent pas de produire un calcul, pour des raisons de faisabilité le plus souvent, ils entreprennent d’en réduire le périmètre ou les dimensions sans toujours se préoccuper des acquis des recherches en sciences sociales par exemple (pour des problèmes de type sociétal) ou de la cohérence conceptuelle du tout.

Il est légitime qu’une partie des sciences sociales poursuive son effort d’exploration et de déploiement pour garantir une certaine exhaustivité et une précision notionnelle. Il est tout aussi légitime de s’interroger sur ce qu’on retient de ce travail. La science se réduit-elle à constater qu’il n’existe que des situations uniques, contrairement au sens commun d’ailleurs qui pousse à la réduction à outrance pour fournir des faits et des lois ? Suppose-t-elle au contraire de rendre comparable ces situations qui ne sont, par définition et du point de vue de l’expérience humaine, jamais identiques entre elles ?

=Jacques A Gilbert

Lorsque vous confrontez David Hilbert et Alan Turing, vous utilisez le terme de contournement qui me paraît particulièrement intéressant. Il invite en effet à s’interroger sur ce qui est contourné.

=Dominique Boullier

L’enjeu serait de contourner, au moyen d’une boucle purement mathématique, le défi philosophique consistant à démontrer les axiomes dans des termes eux-mêmes mathématiques (théorème d’incomplétude).

Il s’avère que c’est impossible ainsi que Kurt Gödel l’a démontré. Alan Turing simplifie la formulation de ces interrogations avec génie : il ne s’attache pas à la résolution des grandes problématiques philosophiques mais se propose de décomposer algorithmiquement un problème donné. Il n’en reste pas moins qu’il demeure in fine une part d’incalculabilité : en effet, la machine de Turing, pour universelle qu’elle soit en théorie, n’en est pas moins finie dans les faits. C’est à partir de ce constat qu’Alan Turing théorise, avec Alonso Church, les échelles de complexité. Sans préjuger de la possibilité d’axiomatiser ou non les entités, il les décompose selon une démarche fondamentalement opérationnelle. Celle-ci justifie que l’on privilégie à présent « ce qui marche » sans chercher à le comprendre. Nous avons des « compétences sans compréhension » pour reprendre l’expression de Daniel Dennett et c’est d’ailleurs elles que nous mobilisons pour nous nous acquitter de l’immense majorité de nos activités. Seule une posture scientifique nous permet, dans un second temps, de parvenir à une compréhension mais toujours orientée par un point de vue, c’est- à-dire réduite.

=Jacques A Gilbert

Les choses produites doivent être réintégrées dans un récit, dans un monde. Or, celui-ci pâtit de la non-compréhension qui se traduit dans la prolifération des fake news ou dans la croyance dans les fausses sciences : de très nombreuses personnes considèrent les outils digitaux comme relevant d’une forme de magie. Pour autant, s’il n’est pas essentiel d’avoir une connaissance précise du système digestif lorsqu’on mange, il est au contraire nécessaire de développer une compréhension minimale de ce qui est socialement partagé.

=Dominique Boullier

En effet. Ainsi que je viens de le souligner, nous devons nous appuyer sur des régimes d’explication et d’explicitation de second degré, qu’ils relèvent de la science, du droit ou du politique. Interrogeant la validité de ce que nous affirmons, ces régimes réintroduisent la controverse et l’encadrent par des procédures spécifiques. C’est de la sorte que la démocratie est née. Néanmoins, une telle posture a ceci de contraignant que, du fait de sa nature contradictoire, elle engendre des complications et ralentit d’autant les processus.

Elle est ainsi à rebours de « ce qui marche ». Dès lors, il me semble nécessaire de rappeler, au nom de l’éthique, que ce qui est faisable n’est pas nécessairement souhaitable. Il est fondamental de continuer à délibérer, à réguler et à auditer les algorithmes, fût-ce d’un prix d’un ralentissement. Ne privilégier que « ce qui marche » suppose, à terme, de marcher droit – perspective bien peu enviable qui se dessine néanmoins derrière le technologisme et le solutionisme. Le livre de Grégoire Chamayou, La Société ingouvernable, Une généalogie du libéralisme autoritaire, me semble de ce point de vue éclairant, même s’il n’évoque à aucun moment le numérique.

=Armen Khatchatourov

La troisième voie que vous vous proposez d’ouvrir ne consiste-t-elle pas à suivre les entités circulantes afin de comprendre comment cette circulation peut, dans certaines conditions, déboucher sur une certaine forme de stabilité ?.

=Dominique Boullier

Mon ambition est, dans une certaine mesure, plus modeste. Le premier enjeu consiste à repérer des patterns de propagation : certains supposent une intensité aussi forte qu’éphémère ; d’autres, à bas bruit, perdurent sur le long terme. Or, la description de ces patterns est délicate en soi. On peut y parvenir en mobilisant, par exemple, certains éléments de la théorie du signal. Le second enjeu, encore plus complexe, suppose de déterminer les propriétés sémiotiques de ce qui se propage. Prenons le cas du mème. Il va se propager à une certaine vitesse, agréger un public plus ou moins large, puis perdre de sa visibilité et de son influence. Cela étant dit, nous ne savons au fond rien de ce qui s’est propagé. Qu’est-ce qui a déclenché la propagation ? Et parmi ces facteurs, quel est le pouvoir d’agir spécifique du mème ? Ces questions demeurent sans réponse sauf peut-être à recourir à la sémiotique. C’est précisément à ce niveau qu’il est possible de repérer le pouvoir d’agir. Au bout du compte, c’est le terme qui « fait » quelque chose.

Pour autant, mon hypothèse est que ce problème est, pour ainsi dire, insoluble : l’élément déclencheur ne peut être calculé, même s’il est possible de l’isoler en décomposant le mème. Une telle opération d’identification ne permet pas de percevoir sa permanence, c’est-à-dire ce qui pourrait permettre de le reproduire. En effet, pour le dire en langage structural, dans une série un même « trait » n’est pas lié à une matérialité unique, ni à une seule signification. Il est en particulier possible de varier la matérialité en conservant une même signification : c’est d’ailleurs tout le plaisir du mème. Ce qui reste mystérieux, c’est ce qui a permis sa large propagation.

Mon principal souci est donc de disposer des outils permettant de rendre compte de cette traçabilité qui est, selon moi, une catégorie statistique de même niveau que l’exhaustivité ou que la représentativité. Elle doit donc encore être construite afin, dans un second temps, de déterminer « ce qui marche ».

Or, « ce qui marche » n’est pas nécessairement une institution. Si l’on s’en tient à l’évolutionnisme culturel par exemple, certains éléments n’ont pas fait institution mais se sont imposés comme des marqueurs durables. Si je devais filer la métaphore génomique, je dirais qu’il existe des marqueurs qui, quoique spécifiques, ne créent pas une nouvelle espèce.

=Jacques A Gilbert

Les marqueurs ne s’expriment que dans des contextes précis.

=Dominique Boullier

C’est la raison pour laquelle la compréhension du milieu et des influenceurs nécessite de poursuivre l’effort d’analyse Au-delà, je m’attache à déterminer quelle formulation des mèmes leur garantit le succès. Une telle ambition nécessite de procéder à des comparaisons de nature épigénétique.

=Jacques A Gilbert

Ne décrivez-vous pas là la narration ?

=Dominique Boullier

J’ai récemment évoqué cette hypothèse avec Serge Bouchardon. Précisément, je pense qu’il serait constructif de s’appuyer en partie sur la narratologie afin de comprendre ce qui perdure et ce qui construit le sens par une sorte d’effet de rétroaction. Certains éléments du récit ne font que durer ou ne prennent sens qu’à un moment déterminé. Ils se présentent dès lors comme des jalons qui sont réinvestis dans le temps. Cette problématique temporelle, au sein du récit, est particulièrement prégnante. Néanmoins, je ne suis pas certain qu’il faille envisager la propagation uniquement comme un récit.

=Armen Khatchatourov

Le numérique est-il seulement un outil d’observation au service de ces études de propagation des traits ? Doit-il au contraire être considéré comme un support de propagation ? Vous affirmez en effet : « le numérique ne fait pas émerger ces entités inédites, il se contente de les rendre visibles, calculables, alors qu’elles faisaient déjà partie de l’expérience ordinaire. »

=Dominique Boullier

Le principe de circulation que j’envisage existait en effet déjà à travers la rumeur ou la conversation. Il était néanmoins impossible de le tracer, même si Gabriel Tarde s’y était employé en son temps. Non seulement nous ne disposions pas d’enregistreurs performants avant l’ère du numérique mais nous ignorions ce qu’il était possible de faire à partir d’une telle analyse.

=Armen Khatchatourov

Pensez-vous qu’il faille postuler une permanence des processus de propagation qui seraient rendus visibles grâce au numérique ? Au contraire, le numérique modifie-t-il la nature de la propagation ?

=Dominique Boullier

Vous soulevez un double problème. En effet, il est possible de considérer que les observations réalisées sur les plateformes ont un caractère d’expérimentation pour ainsi dire naturelle. Autrement dit, une étude qui porterait par exemple sur le #metoo sur Twitter, serait résolument restreinte. Elle relèverait de ce que je me plais à appeler le « plateformisme méthodologique » qui peut être acceptable et productif s’il est assumé consciemment avec toutes ses limites. Elle n’a pas vocation à rendre compte de l’émergence d’une controverse de fond mais consiste uniquement à étudier la propagation d’un mème spécifique sur une plateforme spécifique.

La principale difficulté que l’on rencontre lorsqu’on cherche à formaliser la propagation tient donc dans le niveau de conceptualisation retenu. Étudier uniquement Twitter n’a pas grand intérêt en soi, pas plus que de tenir des propos trop généraux.

Au contraire, un niveau de formalisation adéquat doit permettre, à terme, de tester la propagation des éléments dans un environnement autre qu’une plateforme spécifique. Parvenir à ce transfert exige de procéder à la fois mathématiquement et sémiotiquement.

Il s’agit là d’une sociologie de corpus. La méthodologie correspondante implique de tester des algorithmes et des patterns afin de comparer leur efficience au sein de différents corpus préalablement constitués et de mesurer la validité de leur extension. Pour prendre un exemple de propagation dans un tout autre domaine, on peut par exemple s’interroger sur les raisons pour lesquelles les écrans sont rectangulaires et horizontaux.

Ainsi que Lev Manovich l’a démontré, la forme des tableaux est, en la matière, déterminante. Elle a été récupérée alors même qu’elle est totalement inadaptée aux pages web : en toute logique les écrans devraient être verticaux afin de ménager un réel confort de travail. Mon ambition est donc de repérer si telle ou telle modalité de propagation peut s’appliquer à des entités matérielles telles que les écrans ou les listes ou à des entités culturelles, qu’elles relèvent par exemple de la religion ou de l’architecture. Ce qui veut dire que les enjeux de propagation, à l’ère de l’internet des objets, vont devenir cruciaux, car ils vivent de leur vie propre et ce d’autant plus que le réseau des réseaux n’est en rien sécurisé.

=Jacques A Gilbert

La seconde édition de votre ouvrage Sociologie du Numérique vient de paraître. Quelles modifications avez-vous apportées au texte initial ?

=Dominique Boullier

Le domaine du numérique est, par définition, le lieu de la révolution permanente. Mes travaux sont d’autant plus soumis à ces effets de temporalité qu’ils consistent aussi à dresser une histoire des techniques. Je me devais donc, dans cette seconde édition, d’intégrer à mon texte initial l’émergence du machine learning ou de la blockchain, quand bien même peu de travaux de sciences sociales ont été publiés sur ces phénomènes récents. Je suis donc contraint de me référer à mes propres recherches afin de donner des pistes d’analyse et de proposer une méthodologie adaptée. Au-delà, certains cadres théoriques ne sont plus pertinents. Par exemple, au chapitre économique, je ne m’arrête plus avec autant de détail sur les ouvrages de Manuel Castells ou de Yann Moulier-Boutang, quelle que soit l’affection que je leur porte par ailleurs. De nouvelles théories, particulièrement stimulantes, sont parues depuis. Ainsi je porte désormais l’accent sur André Orléan, Alain Supiot ou Michel Féher (le temps des investis, 2017). Ce dernier démontre parfaitement que nous sommes « à crédit » au sens où nous recherchons à obtenir de la crédibilité et de la croyance. La dette correspondante, détenue par quelques-uns, crée une terrifiante asymétrie. Même Emmanuel Macron est en quête d’investisseurs afin de valoriser la réputation de la France. Cette quête généralisée crée une économie spéculative qui se joue au plus profond de chacun d’entre nous.

Enfin, j’ai développé les problématiques liées à la propagation dans le sens que j’évoquais précédemment, la sociologie des algorithmes ainsi que les questions relevant de la justice, de la santé, de la cyberguerre, de la surveillance et de la sécurité ainsi que de l’environnement.