explorations - nouveaux objets - croisements des sciences

L'auteur

Giuseppe Longo

Mathématiques et Philosophie, DR, CNRS
Ecole Normale Supérieure

Page auteur

longo [chez] ens.fr

Référence

Giuseppe Longo, « L’informatique aux interfaces des savoirs », Influxus, [En ligne], mis en ligne le 30 août 2012. URL : http://www.influxus.eu/article444.html - Consulté le 29 juillet 2017.

L’informatique aux interfaces des savoirs

par Giuseppe Longo

Résumé

La distinction implicite de Turing entre «imitation» et «modèle» est thématisée dans cet article. Elle ouvre la voie à une analyse serrée de l'expressivité et des limites des machines à états discrets programmables. Dans ce cadre, le hasard est analysé, à la fois pour les périphériques informatiques et les processus physiques. On observe qu'il n'y a pas de hasard dans les dispositifs d'états discrets programmables. Bien sûr, le hasard peut être introduit par des fonctionnalisés artificielles supplémentaires, mais la «structure de détermination » des machines numériques diffère radicalement de celles qui prévalaient dans les théories physiques. 
La nature de l’ «univers symbolique» nouvellement formé est mentionnée ainsi que la nature linguistique des machines numériques actuelles. Une connexion est établie avec le rôle du langage dans ses praxis scientifiques constructives. En particulier, une distinction est proposée entre «référentiel» et «référencé» au cœur de la construction des connaissances scientifiques. Il est fait allusion au changement de paradigmes scientifiques et de paradigmes de connaissances, ainsi qu’au double rôle de l'informatique dans l'organisation du monde pour nous. La simulation par ordinateur en biologie, par exemple, permet de nouvelles perspectives pour l'intelligibilité de la dynamique biologique. La simulation informatique dans les sciences sociales est une question plus difficile et stimulante encore. L'impact sociétal de ces simulations est donc discuté, à la fois en raison du vaste rôle des réseaux informatiques et de leur utilisation spécifique en tant qu’outil non neutre dédié à toutes sortes d’interactions mondiales, sur les marchés financiers, par exemple. Cet article laisse donc entendre la nécessité d'un «engagement éthique» comme base pour une utilisation efficace et rationnelle des machines à calculer dans nos vies quotidiennes et scientifiques.

Abstract

Turing’s implicit distinction between « imitation » and « model » is thematized here. It opens the way to a close analysis of the expressiveness and limitations of discrete state programmable machines. In this frame, randomness is analyzed, both for computing devices and physical processes. It is observed that there is no randomness in discrete state programmable devices. Of course, randomness may be introduced by artificial extra features, yet the « structure of determination » of the digital machines radically differs from prevailing ones in physical theories.

The nature of the newly formed « symbolic universe » is mentioned as well as the linguistic nature of current digital machinery. A connection is made with the role of language in its scientific constructive praxes. In particular, a distinction is proposed between « referential » and « referenced », at the core of the construction of scientific knowledge. The change of scientific and knowledge paradigms is hinted as well as the twofold role of computing in organizing the world for us.

Computer simulation in biology, for example, allows new perspectives for the intelligibility of biological dynamics. An even more challenging issue is related to computer simulation in social sciences. The societal impact is thus discussed, both in view of the broad role of computer networks and of their specific use as a non-neutral tool on various sorts of world-wide interactions, on financial markets, for example. It is thus hinted to the need of an « ethical commitment » as a basis for an effective and sound use of computing machines in our everyday and scientific lifes.

1. L’origine de la machine numérique à états discrets : entre mathématiques et philosophie.

Au cours des années 1930, un croisement très riche entre le questionnement philosophique sur les fondements des mathématiques, la réflexion sur la cognition humaine et les techniques mathématiques nouvelles, est à l’origine de l’ordinateur moderne. A l’époque, les machines à calculer existent déjà, de celle de Babage (1850) aux machines analogiques comme le « Differential Analiser » de V. Bush (1927), mais c’est le problème épistémologique de la complétude déductive des formalismes axiomatiques, qui amènera à l’invention des concepts fondamentaux du calcul digital moderne.
L’analyse logique de la preuve chez Herbrand (sa thèse, 1930, Ens-Sorbonne) contient une première définition de la fonction récursive primitive (calculable au sens fort). Gödel (1931) et Turing (1936) enchaineront en donnant une réponse définitive au questionnement fondationnel de l’époque : est-ce qu’un calcul de signe potentiellement mécanisable et sans référence au sens permet de décider tout énoncé mathématique ? Peut-on en démontrer la cohérence par des arguments « finitaire » et formels ? Et, en fait, le raisonnement humain est-il complètement réductible à un système de signes potentiellement mécanisable ?
Pour répondre à de telles questions philosophiques, ces grands mathématiciens durent préciser ce que veut dire « potentiellement mécanisable ». Autrement dit, pour construire des propositions indécidables ils durent préciser ce que veut dire décidable ou calculable en général, en donnant une formalisation mathématique (la classe des fonctions récursives) de la notion informelle de calcul. Turing, en particulier, en propose une définition particulièrement originale, sa Logical Computing Machine (LCM), idée abstraite d’un « homme dans l’acte minimal de calcul » (une remarque de Wittgenstein), et définit formellement par ce biais des fonctions non-calculables. Les deux idées au cœur de la LCM sont l’invention et la distinction, purement mathématiques à l’époque, de la notion de logiciel et de la notion de matériel.
Ces deux « non » retentissants, de Gödel et Turing, à l’hypothèse de complétude de la déduction formelle constituent donc une réponse technique à un questionnent philosophique sur le raisonnement déductif et la cognition humaine. Et l’univers du calculable ainsi construit et bien délimité permettra, dix ans après, de réaliser cette machine électronique à état discret qui est en train de changer nos formes de connaissance, voire notre rapport au monde. Plus précisément, quel impact cette machine a-t-elle aujourd’hui sur la construction des savoirs scientifiques, et des « savoirs » en général ?

2. Imitation et modélisation.

Dans deux articles, de 1950 et 1952, Turing propose implicitement une distinction de très grande importance concernant l’intelligibilité que la Machine peut nous donner du monde. Dans le premier, il décrit un « jeu de l’imitation », entre une femme et un ordinateur, confrontés à un interlocuteur qui leur pose des questions pour comprendre, sur une télétype. Dans le deuxième il propose un « modèle mathématique » (un système d’équations) de l’engendrement physico-chimique de formes (« morphogénèse »).
Plus précisément, dans le premier article, il précise la nature physique de sa machine logique : elle est une « discrete state machine » (DSM) qu’il utilise pour duper l’interlocuteur (qui est la femme ?). Le deuxième développe une analyse innovante d’une dynamique (action-réaction-diffusion) dans un « système continu ». La différence conceptuelle est radicale. La première construction n’envisage pas de rendre intelligible les processus mentaux, mais de les imiter sous contrainte (l’interface linguistique discrète, la télétype – l’examinateur ne peut pas toucher, par exemple). La deuxième, « qui peut être fausse », dit-il dans l’introduction, essaye de faire comprendre ce qui se passe dans un processus dont on met en évidence des causes et des conséquences : les équations mathématiques donnent une structure de la détermination possible de la dynamique physico-chimique – elles la rendent intelligible et permettent la prédiction, au moins qualitative, de l’évolution (sous certaines conditions, une structure modulaire, en bande, va paraître, dont les détails des formes dépendront de fluctuations initiales en dessousde l’observable – conséquence de la « dérive exponentielle », dit-il, dans son génie de précurseur).
Cette « sensibilité aux conditions aux contours » (la dérive exponentielle), si bien comprise par Poincaré (1890) mais que l’on décrira dans des termes mathématiques précis seulement dans les années 1970, est au cœur des dynamiques continues non-linéaires. Elle échappe au discret computationnel, car la discrétisation force un niveau minimal d’accessibilité du calcul : l’approximation propre à son univers de données discrètes. Turing le dit explicitement, en 1950 : sa « DSM n’est pas sujette à ce phénomène », la dérive exponentielle, qui l’intéresse tout particulièrement dans le deuxième article.
Réfléchissons à cet enjeu de façon plus générale. Le discret et le continu nous proposent des regards différents sur le monde, ils l’organisent mathématiquement de façon différente. Dans les décennies suivantes, on clarifiera par des théorèmes que l’un n’est pas l’approximation de l’autre, en général : dès que l’on décrit une dynamique continue d’interactions (non-linéaire, mathématiquement parlant), les trajectoires dans le discret divergent rapidement des évolutions possibles dans le continu et la prédictibilité mathématique change. Des « théorèmes de poursuite » spécifient les possibilités et les limites des approximations digitales. Le monde organisé en petites cases bien séparées est tout autre chose que le monde lisse (et différentiable) de Cantor et des équations différentielles. La DSM permettra d’en résoudre comme jamais auparavant, mais le modélisateur doit analyser ce qu’il perd et apprécier ce qu’il gagne : la force du calcul, bien évidemment, mais aussi la possibilité de l’itération à l’identique de la simulation computationnelle, même de la plus sauvage des turbulences et du plus étrange des attracteur. Cela est inconcevable pour ces processus physiques – ils n’itèrent jamais à l’identique : la dérive exponentielle l’empêche, en tant que croissance exponentielle de fluctuations non mesurables, qui deviennent observables dans le temps. dans la machine à état discret on gagne énormément en puissance de calcul, mais on perd du sens : l’intelligibilité proposée par le modèle continu.
La Mécanique Quantique confirmera l’importance de l’enjeu : la distance de Planck ne partage pas l’espace en petits cubes phénoménologiquement séparés, car l’intrication empêche la séparation par la mesure ; la dynamique est décrite par les équations de Schrödinger, dans le continu des espaces d’Hilbert, hors du monde (de dimension infinie, si nécessaire). Et elle posera le problème de la « prochaine machine », où la nature du matériel, quantique, modifiera profondément la conception du logiciel et l’organisation de la connaissance qu’il nous propose.

3. La simulation et l’interaction.

Souvent, le terme de « simulation » gomme les distinctions que l’on vient de faire. Et la machine est supposée « représenter » le monde et nos savoirs de façon plus au moins fidèle, sans autres précisions. Or, il faudrait prendre garde à ce terme, ou en trouver d’autres qui permettent de préserver la finesse des analyses. Appelons alors simulation la pluralité intégrée et interactive de l’expérimentation virtuelle, telle qu’elle est faite aujourd’hui. Dans ce cas, l’implantation numérique d’une image du monde précède ou guide la modélisation, en tant que tentative mathématique d’intelligibilité causale. D’approche naïve, elle est devenue une méthode scientifique, très utilisée de la météorologie et de la géophysique à la biologie végétale. On insère dans la machine une grande quantité de données, voire de paramètres et d’observables, même, dans certains cas (en biologie végétale, typiquement), avant que l’on puisse concevoir un cadre conceptuel et mathématique apte à saisir in abstracto l’immensité de ces espaces de phases. Ce cadre sera dans la machine, il se co-constituera dans l’interaction homme-machine. Voilà une nouvelle forme d’empirie qui se joue entre le chercheur et la machine : elle est si puissante et si constitutive de nouvelles connaissances scientifiques (et non scientifiques), qu’elle exige un approfondissement épistémologique et gnoséologique fort important. C’est un savoir-faire et un savoir qui se mêle de tous les savoirs.

4. Les réseaux et l’interaction entre machines.

Un nouveau niveau d’organisation s’est ajouté au fil du temps à ceux de la machine originelle : celui des réseaux locaux et mondiaux d’ordinateurs. On ne peut pas mentionner ici les problèmes mathématiques que cette nouvelle organisation du matériel pose, voyons-en seulement quelques conséquences.
La machine séquentielle ne modélise pas l’aléatoire physique. Les générateurs pseudo-aléatoires en sont une (modeste) imitation, en fait un exemple des plus pertinents d’imitation de l’aléatoire physique. Typiquement, ils itèrent à l’identique si on les relance sur les mêmes données au contour, ce qui n’a pas de sens dans des dynamiques quelque peu sensibles. Par contre, l’aléatoire, et l’un des plus « forts » aléatoires, est au cœur des réseaux. Les interventions humaines, le hasard des files d’attente, de l’accès multiple à une même base de données… voilà du « vrai » hasard. Est-ce pair ou impair, le nombre de gens branchés en ce moment sur Skype ? Cette parité peut même dépendre du hasard quantique (qui diffère du hasard classique), car des expérimentateurs au CERN peuvent décider d’accéder au réseau selon le résultat d’une mesure d’intrication quantique …. sans considérer les possibles et variés retards relativistes, quand le réseau entoure la Terre.
Voilà un nouveau rôle du hasard qui, de grand absent à l’origine de l’informatique, devient un phénomène puissant et inédit : ces réseaux paraissent le seul cadre où l’on soit obligé de mêler l’aléatoire classique, relativiste et quantique, aussi bien que celui des activités humaines. Pourra-t-il nous aider à saisir, par exemple, l’aléatoire propre aux phénomènes biologiques ? Au cours de l’évolution, ainsi que de l’embryogénèse, le hasard des mutations peut avoir une origine quantique, mais il interagit avec des cadres que l’on comprend mieux en termes classiques : les interfaces de dynamiques variées, voire entre phénotypes et entre phénotypes et écosystème. De plus, des effets épigénétiques retro-agissent sur l’expression des gènes, voire sur la fréquence même des mutations. Une culture et une science des réseaux, même s’il s’agit de réseaux de machines, nous offre un point de vue nouveau pour comprendre ces réseaux de réseaux qui forment tout organisme, voire toute espèce biologique, ainsi que la possibilité, bien évidemment, de les imiter, voire de les simuler au mieux.
Tout en s’éloignant des sciences proprement dites, est-ce que les réseaux des savoirs sont étrangers à une « pensée des réseaux » ? Cette dernière peut-elle nous aider à comprendre ce qui est en train de se passer dans le monde de nos savoirs, dans la structure même de nos sociétés, à l’instant où tout individu est (potentiellement et) directement connecté à tout autre individu, où la communication instantanée plurielle, à n’importe quelle distance, modifie les formes de l’interaction humaine ?

5. Un nouvel univers symbolique.

L’invention du langage, puis celle de l’écriture, ont institué l’histoire humaine en modifiant l’interaction sociale. L’invention des réseaux numériques est peut-être tout aussi importante : cette mémoire et cette présence de l’homme accessibles à tout autre homme enrichissent quantitativement et qualitativement l’échange humain et, donc, l’histoire. Il s’agit en fait d’un nouveau constitué symbolique. Nous voulons en souligner deux aspects dans lesquels la forte mathématisation dans la conception et l’exploitation des réseaux d’ordinateurs joue un rôle essentiel. La première réflexion, 5.1, servira aussi à faire le point sur un élément ultérieur et fort général de l’interaction fructueuse entre savoirs et rôle de la langue, fût-elle celle, nouvelle, de l’échange sur les réseaux numériques. La seconde, 5.2, posera la question de l’impact de l’invention récente de la monnaie électronique et réticulaire.

5.1 Référenciant/référencié.

De la même façon que l’on est amené à considérer, pour la raison, un double statut - la raison constituante et la raison constituée - on est conduit à distinguer pour toute forme symbolique, deux fonctions : une fonction référenciante et une fonction référenciée. Tentons de préciser [1].
Dans sa fonction référenciante, une forme symbolique fournit le moyen de formuler et d’établir, comme pour la langue ordinaire en physique (mais cela vaut aussi pour d’autres disciplines), les grands principes (théoriques, pour la physique) autour desquels elle s’organise. Relative au sujet fixant des normes, elle gouverne ainsi en un certain sens l’activité objectivante. Par contraste, dans sa fonction référenciée relativement à ces modélisations, une forme symbolique se caractérise plus par des termes que par des mots [2], en rapports conceptuels qu’en enjeux de significations ; elle se soumet alors aux déterminations propres de ces structures mathématiques abstraites qu’elle a contribué à mettre en place et dont elle a déclenché la générativité propre. Et ce, jusqu’à ce que le mouvement de théorisation scientifique se serve, en reprise, de cet état référencié de la langue pour lui conférer une nouvelle fonction référenciante en vue de l’élaboration de nouveaux modèles, de nouveaux principes, plus généraux ou plus abstraits, « l’état final » d’une étape devenant en quelque sorte « l’état initial » de l’étape suivante. L’invention mathématique des réseaux et, ensuite, les nouveaux constitués formels qu’ils imposent, jouent ce double rôle dynamique. Dans ce processus dialectique sans cesse en action, le modèle mathématique comme tel maintient l’écart et la distinction - essentiels pour la construction d’objectivité - entre ces deux fonctions de la langue, voire de tout univers symbolique, tout en assurant la nécessaire médiation entre elles. Il se renforce et se modifie grâce à l’une ; il ne cesse de transformer l’autre de par la dynamique interne qui lui est propre grâce à la générativité des mathématiques. Ce faisant, le modèle mathématique contribue à engendrer la nouvelle langue de la connaissance à travers les fonctions qu’il lui fait alternativement adopter et entre lesquelles il assure une circulation réglée (un peu à l’image, mais dans le registre de la rigueur objectivante, de ce que parvient à créer la poésie dans le registre de l’engagement de subjectivité).
Un exemple physique de ce processus peut être trouvé, en droite ligne des innovations de Képler, Copernic et Galilée, dans le statut de la théorie de la gravitation universelle de Newton. L’état référenciant de la langue faisait jadis appel à une représentation (« aristotélicienne ») du monde selon laquelle le « supra lunaire » constituait un absolu de la perfection et de la permanence (invariabilité du cours des planètes décrivant des cercles parfaits, et modèle correspondant des épicycles ptolémaïques). Ce n’est pourtant qu’à partir de cette fonction référenciante (dont l’état encore quasi mythique se retrouve chez le même Newton dans ses travaux alchimiques ou bibliques) que se trouve néanmoins construit le modèle mathématique (comme le voulait Galilée) de la gravitation universelle, qui régit tous les corps qu’ils soient infra ou supra lunaires. Cette relativisation radicale, grâce à la mathématisation, quant aux forces d’interaction, s’accompagne certes du maintien (voire, du point de vue conceptuel, de l’introduction) d’un autre absolu, celui de l’espace et du temps, mais elle redéfinit la langue du cours des planètes dans un état désormais référencié à ce modèle où les orbites elliptiques et les observations empiriques sont « expliquées » par la loi de la gravitation universelle. Plus : sont dégagés grâce à ce modèle mathématique les invariants physiques pertinents qui serviront de structure d’appui pour toute considération ultérieure et qui modèleront la langue de cette cosmologie nouvelle. C’est cet état référencié (au modèle mathématique ainsi construit) de la langue de la cosmologie newtonienne qui servira ensuite de fondement nouveau pour la suite de la recherche, jouant alors désormais un rôle référenciant, pour relativiser ces absolus d’espace et de temps eux-mêmes et concevoir la théorie einsteinienne de la relativité générale.
Reprenons cette distinction d’un point de vue complémentaire, plus proche des procédures et des formalismes plus spécifiquement logiques. En tant que référenciée la langue doit d’une façon ou d’une autre, pour faire sens et conjurer les paradoxes, se plier à une sorte de théorie des types capable de discriminer entre les différents niveaux de ses énoncés. Mais la construction d’une telle théorie des types fait appel à la fonction référenciante de la langue. Celle-ci guide en effet l’élaboration conceptuelle et la formulation des énoncés formels. Ainsi, la fonction référenciante norme et invente. Elle régit l’activité créatrice et organisatrice. La fonction référenciée est objet d’étude et d’analyse. Elle exige la médiation d’un langage logico-mathématique qui l’objectivise et permette de la traiter rigoureusement au regard de sa propre fonction référenciante.
Notons, à ce stade, que l’exigence, formulée par des logiciens constructivistes, d’une « logique effective » porte donc essentiellement sur l’aspect référencié. Comme dans l’intuitionnisme qui voit l’activité de pensée à l’œuvre dans le processus d’élaboration et de construction mathématique. Mais en tant qu’elle innove et crée, c’est-à-dire en tant qu’elle fait surgir des références inédites, l’activité de pensée ne répond pas à des critères ou des normes de constructibilité : elle les produit.
D’une façon un peu similaire, tout univers symbolique, à partir de la modélisation de la théorie physique, se présente lui aussi à la fois comme second et néanmoins comme déterminant : sa construction effective succédant à la réflexion (les réseaux et leur langue sont construits, ils ont une histoire scientifique) qui énonce les principes - ce qui est à modéliser - et dont l’antériorité peut lui conférer un statut d’absoluité apparente, patronne pourtant toute avancée théorique ultérieure, quand bien même cette dernière irait jusqu’à contredire des principes antérieurement tenus pour acquis.
C’est sans doute cette configuration conceptuelle qui permet de comprendre comment les situations parfois si contre intuitives traitées, par exemple, par la physique quantique peuvent néanmoins être « parlées » dans une langue naturelle qui ne cesse spontanément de prétendre le contraire des résultats acquis : cette soi-disant langue naturelle ne l’est plus beaucoup (à ses mots proprement dits ont été substitués des termes) et en tout état de cause elle s’appuie non plus sur ses structures linguistiques et sa grammaire propres (et les mentalités correspondantes) mais bien plutôt sur les structures mathématiques du modèle qu’elle interprète et commente, sans pouvoir pour autant en restituer la profondeur et, surtout, la générativité mais assurant néanmoins la communication culturelle.
Quelle nouvelle objectivité constituons-nous par cette langue électronique et réticulaire ? Quel nouveau rôle est-il en train de jouer dans nos cultures ce nouvel espace symbolique que nous donne l’écriture digitale et en réseaux, donc partagée instantanément, dont le contenu informationnel est toujours accessible et à tous, grâce à des mémoires digitales immenses et exactes ?

5.2. La monnaie électronique et réticulaire.

La mise en place de la monnaie frappée, en Grèce ancienne, et celle de la monnaie en papier, à Florence, au cours de la renaissance italienne, se sont accompagnées, ceci n’est point un hasard, de l’invention de la philosophie et de la science ancienne et, ensuite, moderne. Le fait est que ces deux moments de la créativité humaine ont demandé et contiennent en soi une composante extraordinaire d’abstraction. Que veut dire cette pièce à l’effigie de Kresus, dont la valeur quantifiée par des signes géométriques (carrés, triangles, cercles …) permet de tout acheter, transforme tout en or ? Et ce morceau de papier où l’écriture d’un nombre garantit une valeur commerciale ou de travail ? Une valeur qui, a priori, n’a pas de limite : n’importe quel nombre peut être écrit, et il se transfère très rapidement. Accepter ces deux abstractions successives ne va pas de soi : c’est aussi fort que les inventions culturelles et scientifiques qui les ont accompagnées.
Nous sommes maintenant à un troisième passage : quel est le sens de ces valeurs boursières, simples écritures sur un écran, éloignées de toute référence à la liquidité (monnaie bancaire disponible) ? Que se passe-t-il quand les Credit Default Swaps, valeurs d’assurance, atteignent sur les écrans 60.000 milliards de dollars, le PIB du monde ? Ces titres ont augmenté, en quinze ans et à partir de presque rien, puisqu’ils … augmentaient. Ils ont aspiré de l’épargne, puisqu’ils… en aspiraient. Mais, en augmentant en dehors de toute valeur « réelle », ils ont fait perdre à l’épargnant tout rapport à la liquidité, même à celui qui auparavant en avait. Bien évidemment quand suffisamment d’agents « demandent à voir », le Roi est nu et tout s’écroule. Ces nouveaux signes formels de richesse disparaissent comme de la monnaie papier qui brûle – mais bien plus rapidement et avec des effets globaux.
Seule la mathématisation massive de la finance et sa mise en réseaux permettent ces effets de croissance purement formelle que l’ont vient de décrire, sorte de divergence mathématique de sommes de séries qui expriment des effets de « résonnance ». Et encore, elles permettent des « arbitrages » immédiats (ventes et achats simultanés sur plusieurs bourses, largement automatisés), qui imitent des productions de richesse observables, mais fictives, à partir de fluctuations infinitésimales (des différences de prix négligeables, mais qui, cumulées par millions de ventes/achats, donnent des grands effets formels).
Qu’est-ce qui est en train de changer dans le rapport de l’homme à la production de la richesse ? Quel impact ou corrélation cela peut-il avoir avec nos formes de savoir ? Cela sera-t-il comparable aux nouvelles inventions de l’abstraction grecque et de la Renaissance ou, en échappant au contrôle démocratique, cela servira-t-il surtout à transférer 80% de la croissance vers le 1% des plus riches, comme de 2000 à 2007 aux USA, tout en distribuant les risques sur le monde ?

6. Les réseaux et la puissance de la perte du sens : un problème sociétal et éthique.

Les grandes compagnies de cartes de crédit, comme Visa ou MasterCard, peuvent dire, avec un bon niveau de certitude, qui va… divorcer au cours de l’année prochaine. Attention, elles peuvent prédire non seulement le pourcentage des mariages qui se terminent, ce qui est une banalité pour tout bureau de statistiques, mais aussi les chances qu’un tel individu aura de divorcer. En fait, sur la base des profils de dépenses de quelques centaines de millions de détenteurs des cartes bancaires dans le monde, elles connaissent les profils qui mènent, avec des probabilités bien définies, à tel ou tel autre comportement futur. Autre exemple à la portée de l’expérience de tout acheteur sur internet : la grande pertinence des conseils d’Amazon sur le choix d’autres livres à acheter. La mise en relation statistique de votre achat avec ceux d’un grand nombre d’autres acheteurs du même livre permet d’en proposer de nouveaux, presque mieux que ne le ferait votre vieux copain, compétant libraire au Quartier Latin. Ce dernier vous parlait en connaisseur de vos préférences et des contenus des livres, bref il agissait en référence à du « sens ». Les machines peuvent en faire autant, voire faire mieux, sur des bases « purement mécaniques » d’associations formelles sur des vastes bases de données statistiques, sans aucune référence au sens, bien évidemment.
Jamais l’homme n’a été confronté à des telles possibilités de connaissance et de contrôle de la part de ceux qui gèrent les réseaux et détiennent les données. Dans la guerre permanente entre contrôle et vie privée, disait récemment, au cours d’un exposé à l’Ens, A. Shamir, un des inventeurs de la cryptographie, on gagne des batailles pour la protection des citoyens, mais on est en train de perdre la guerre : la force économique d’un état, d’une grande entreprise, lui donne toujours de l’avance sur tout individu. Seule une réflexion active, une référence permanente à notre humanité communicante sur les valeurs et les contenus, un humanisme fort, dans l’interaction des savoirs, peut donner un sens et enrichir ultérieurement les potentialités de la DSM de Turing et sa mise en réseau.
L’usage de ce savoir technique, l’informatique sur les réseaux, même quand il est justement accessible à tous, s’il est pratiqué sans veille critique, peut aussi mener à des dérapages graves. Tous les savoirs profitent, par exemple, de l’accessibilité immédiate aux articles, aux citations, aux catalogues des bibliothèques... Et voilà, n’importe quel bureaucrate peut, en appuyant sur un bouton, prétendre évaluer la production de connaissance, grâce à la bibliométrie. Le facteur d’impact des revues, le nombre des citations dans les deux ans qui suivent la publication des articles, voire les citations globales d’un chercheur apparaissent en un rien de temps sur l’écran. La communauté savante vote ainsi, sans le vouloir et par une méthode statistico-formelle, pour décider à la majorité de la qualité, en fait de « la vérité » scientifique. Les travaux marginaux et exploratoires, les nouveautés difficiles sont alors exclus ; les chercheurs qui disent « non » aux théories dominantes aussi. Or, la science et les savoirs se construisent autour d’une pensée toujours hérétique, car pensée de la nouveauté, depuis la Grèce ancienne, depuis Copernic et Galilée. Ces deux innovateurs, par exemple, se battaient contre des scientifiques compétents, qui travaillaient à une entreprise techniquement réalisable et de grande difficulté technique, mais biaisée du point de vue métaphysique : l’analyse des trajectoires des planètes en termes d’épicycles, dans le cadre de la théorie dominante. Et quel était le facteur d’impact, pendant dix, vingt, trente ans, des travaux de Cantor, Poincaré ou Boltzmann, des travaux qui changeront la science cinquante ans après ? La production du savoir doit être évaluée selon son sens, si difficile à cerner, selon l’audace nouvelle qui échappe aux statistiques toujours conservatrices, inertielles, toujours « en retard » sur la nouveauté, par définition. L’histoire des savoirs et leur futur est un changement permanent de regard, de point de vue, contre toute inertie majoritaire et théorie dominante. La science se renouvelle toujours et ceci dans un espace critique, forcement hérétique. Elle utilise de la démocratie non pas le vote majoritaire, mais son complément essentiel : la possibilité du désaccord.
D’une part, donc, nous avons bâti un nouvel monde de liberté et d’échange, un lieu extraordinaire pour la circulation des idées ; de l’autre, en l’absence de contrôles démocratiques et éthiques forts, des dérapages non maitrisables sont possibles, en particuliers puisque les potentialités des réseaux sont absolument nouvelles. Le dialogue sur les enjeux et les méthodes avec les sciences de l’homme, lieu de la réflexion sur le « sens », est plus que jamais nécessaire : ce n’est que dans l’interface entre les disciplines que l’on peut construire une veille qui enrichisse les nombreux savoirs et pratiques en jeu, sans les déformer ni en réduire la signification.

Conclusion.

Les ordinateurs ne sont pas seulement des instruments avec lesquels l’interaction est uni-directionelle et uni-dimensionnelle, une interaction qui a déjà changé la science par l’imitation et la modélisation. Grâce à la simulation, telle qu’on l’a définie plus haut, l’ordinateur est un élément actif d’un environnement, où machines, ingénieurs, scientifiques, chercheurs de toute discipline interagissent et s’engagent dans un dialogue. De plus, tout ordinateur est désormais dans un réseau, plus exactement dans un réseau de réseaux, qui le relie aux autres et qui relie les hommes entre eux. Ces réseaux nous proposent un monde de concepts et de comportements qui est en train d’acquérir le rôle d’un nouvel univers symbolique. Un processus qui modifie non seulement les connaissances, mais aussi la cognition et les activités humaines. Aujourd’hui, une vraie négociation sur les savoirs et les pratiques doit s’établir dans ces environnements et ces réseaux. Il faut alors mieux comprendre et maîtriser ce qui se passe une fois que l’ordinateur et les réseaux entrent sur la scène des savoirs et des comportements, ou plus généralement encore, sur la scène de l’histoire.


Note : Cette note reprend synthétiquement des idées qui sont en grande partie dans les textes ci-dessous, où l’on pourra aussi trouver des vastes bibliographies (les articles sont téléchargeables de http://www.di.ens.fr/users/longo/).

F. Bailly, G. Longo, MATHEMATICS AND THE NATURAL SCIENCES. The Physical Singularity of Life, Imperial College Press, London, 2011. 

J. Lassègue, G. Longo. What is Turing’s Comparison between Mechanism and Writing Worth ? Longo’s invited lecture, Proceedings of « The Turing Centenary Conference (CiE 2012) », Computational Models After Turing : The Church-Turing Thesis and Beyond, Isaac Newton Institute programme, Cambridge, June 18 - 23, 2012 ; LNCS vol. 7318, Springer, 2012.

G. Longo. Critique of Computational Reason in the Natural Sciences, In « Fundamental Concepts in Computer Science » (E. Gelenbe and J.-P. Kahane, eds.), Imperial College Press, pp. 43-70, 2009.

G. Longo. Incomputability in Physics and Biology. Invited Lecture, Proceedings of Computability in Europe, Azores, Pt, June 30 - July 4, LNCS 6158, Springer, 2010.

G. Longo. Interfaces de l’incomplétude, pour « Les Mathématiques », Editions du CNRS, 2012.

G. Longo, T. Paul. The Mathematics of Computing between Logic and Physics. Invited paper, « Computability in Context : Computation and Logic in the Real World », (Cooper, Sorbi eds) Imperial College Press, 2010.


[1] Nous reprenons ici les considération dans le premier chapitre de Bailly F. Longo G. Mathématiques et sciences de la nature. La singularité physique du vivant. Hermann, Paris, 2006.

[2] En ce sens qu’elle se sert souvent des mots plus ou moins précis, plus ou moins polysémiques du langage courant pour désigner des notions beaucoup plus restreintes et abstraites et qui ne prennent leur signification que dans le contexte « technique » dans lequel on les utilise désormais.

Logique et Interaction : vers une Géométrie de la Cognition

Cet opus augural rassemble des communications issues des différentes rencontres du groupe LIGC [Logique et Interaction : vers une Géométrie de la Cognition] au sein duquel collaborent des philosophes et des scientifiques d’horizons divers, rassemblés dans une réflexion philosophique commune sur l’impact des métamorphoses récentes de la logique dans le contexte de son dialogue avec l’informatique théorique.
Le groupe LIGC promeut une analyse critique des points de vue « réalistes » prédominants en philosophie de la logique, en philosophie des sciences et dans les approches logiques de la cognition, au profit d’une philosophie interactionniste de la rationalité.