Alliage | n°45-46 - Décembre 2000 Dialogue transculturel 2 

Mike J.E. Cooley  : 

La seule bonne façon de faire de la science ?

Plan

Texte intégral

Pour moi, l’an 2001 a signifié non seulement la fin du XXe siècle et le début du XXIe, mais encore la fin du millénaire le plus extraordinaire de l’histoire humaine. Dans une perspective européenne, ce millénaire a vu le déclin du féodalisme et le développement des villes-États, l’émergence de la forme cartésienne de la science et de la technique, et le remplacement progressif de la religion par la science comme moteur de l’évolution de la société.
Une foi présomptueuse dans la science et le changement technique qui l’accompagne s’est imposée. J’emploie “foi” à dessein. C’est le mot juste dans ce contexte, car ses propagateurs témoignent à l’envi du type de zèle missionnaire qui caractérisait les convertis des anciennes religions. La science est, par elle-même, une terre beaucoup trop ingrate et aride pour accueillir les délicates racines de nos diverses cultures et de notre humanité.
Notre science et notre technique semblent nous avoir conféré une domination sur la planète et la nature même. En fait, il apparaît que nous sommes, dans l’histoire connue, la première génération de la seule espèce à disposer du pouvoir de se détruire elle-même et de détruire la planète. C’est un pouvoir terrible, qui nous donne une responsabilité à laquelle notre culture, notre éducation et notre politique nous préparent mal. Nous sommes devenus beaucoup trop savants pour pouvoir survivre très longtemps si nous ne devenons pas plus sages.

Les deux faces de la science

D’un côté, notre progrès semble spectaculaire, étourdissant. Au cours du siècle écoulé, nous avons appris à voler, nous avons tué quarante millions d’hommes en une seule guerre, qualifié Jackson Pollock de grand artiste, et joué au golf sur la Lune. On peut dire que la science et la technique ont fait de nous l’espèce dotée de la plus forte mobilité ascendante. Pourtant, à aucun moment sans doute de l’histoire humaine, il n’y a eu plus de gens se sentant aliénés et menacés par l’univers technocratique. Ceci est dû en partie au fait que notre progrès est une arme à double tranchant. En examinant le millénaire écoulé, nous constatons qu’il a produit la beauté de Venise mais également l’horreur de Tchernobyl, la thérapie des rayons X mais aussi l’anéantissement de Hiroshima. Le progrès offre certes, dans les supermarchés, une gamme étourdissante de marchandises, du moins à ceux qui en ont les moyens, mais, dans nos pays techniquement avancés, des millions de gens ont peur de la salmonellose, de l’encéphalite spongiforme bovine et de diverses contaminations par des bactéries comme E-coli. L’eau qui coule de nos robinets n’est pas toujours saine. Parallèlement, nous sommes capables, au moyen d’ordinateurs et de l’intelligence artificielle d’animer des robots, tout en restant souvent de minables servants passifs de nos machines.
À l’orée du XXIe siècle, il nous faut acquérir la capacité d’appréhender cette double nature de notre science et de notre technique : trier les processus favorables pour nous appuyer sur eux, et identifier ceux qui sont nuisibles, afin de les minimiser et de les marginaliser. Pour effectuer ce tri, nous devons procéder à un réexamen du processus scientifique lui-même. La science, selon ses propres termes du moins, monopolise la notion de rationnel et serait donc censée s’opposer à l’irrationalité et à la superstition. En fait, la science en est venue à se présenter comme le moyen nous permettant d’exorciser l’irrationalité.
La révolution copernicienne a détruit le modèle d’univers centré sur la Terre, et Darwin a rendu caduques les idées anciennes sur la création de la vie et de l’humanité. Vue sous cet angle, la science semblait une connaissance décisive, permettant de libérer l’humanité de son asservissement à la superstition (élaborée en système religieux), appui idéologique essentiel de l’ordre social ancien.
Les années récentes ont vu une assez nette remise en cause de cette interprétation plutôt mécaniste. On a pris conscience du poids idéologique que porte la science en son sein et mis en doute sa neutralité. Au-delà d’une analyse de la science en termes de bon usage ou d’abus, cette remise en question atteint le processus scientifique lui-même.
Les sciences sociales ont montré que la science développée dans une société donnée en reflète les normes et l’idéologie. Elle cesse d’être considérée comme autonome, pour devenir élément d’un système complexe, les présupposés idéologiques intériorisés contribuant à déterminer jusqu’aux conceptions et théories expérimentales des scientifiques.
Il est utile de se rappeler que la science et la technique, telles que nous les connaissons, se sont développées dans la tradition judéo-chrétienne et le cadre de religions fondées sur le monothéisme ; elles font de l’homme une sorte de dieu, au-dessus du reste de la création. S’il n’y a qu’un seul Dieu, il n’est peut-être pas surprenant que nous recherchions la « seule bonne façon » (the one best way) de comprendre et de traiter le monde.

Le modèle technocratique et ses origines

Une partie du problème résulte de la façon dont nous abordons les méthodes scientifiques. Pour être considérée comme scientifique, une méthode doit avoir les trois caractéristiques prédominantes des sciences physiques : prévisibles, reproductibles et quantifiables. Par définition, sont exclus l’intuition, le jugement subjectif, le savoir implicite, l’interprétation et les rêves — toutes qualités spécifiquement humaines. En fait, peu de choses, dans le monde réel, se conforment à ces trois caractéristiques, le temps qu’il fait étant un contre-exemple spectaculaire.
La première caractéristique des sciences physiques – la prévisibilité – peut être vue comme une tentative de se protéger d’événements inattendus, de catastrophes naturelles, s’inscrivant dans le désir de réduire l’incertitude. Les systèmes de contrôle permettent de déterminer un résultat avec une forte probabilité quand on en fixe les données. C’est là une caractéristique centrale du modèle de l’usine et du taylorisme. Taylor lui-même expliquait ainsi sa méthode :

« Dans mon système, on dit précisément à l’ouvrier ce qu’il doit faire et comment il doit le faire. Toute modification qu’il apporte aux instructions données est fatale à la réussite de l’opération. »1

Ce modèle technocratique a envahi toute la société industrielle. Il existe même un modèle informatisé applicable aux universités vues comme des « unités de production » : les étudiants y sont tenus pour des marchandises, les examens, des procédures de contrôle de qualité, la délivrance des diplômes, la sortie du produit et les professeurs, des agents de production, modèle qui utilise un algorithme d’évaluation de performance de Frank-Wolfe.2
On peut y voir le résultat inévitable d’une évolution historique qui a produit une méthode scientifique liée à des systèmes fondés sur une règle et vu le développement de calculs de convergence conduisant à la seule bonne façon de faire. On peut également trouver certaines des racines de cette évolution dans la recherche de Leibniz d’un langage exact.3
Dreyfus situe l’origine première du problème dans l’utilisation de la logique et de la géométrie par les anciens Grecs, et dans l’idée que tout raisonnement peut être réduit à une sorte de calcul. Selon lui, les débuts de l’intelligence artificielle sont probablement à situer aux environs de 450 av. J.-C., lorsque Socrate a affirmé son souci d’établir une norme morale. Il précise que Platon a généralisé cette préoccupation en appelant à une épistémologie où toute connaissance doit être articulée en termes explicites, pouvant être compris et appliqués par n’importe qui ; un savoir-faire impossible à énoncer en termes explicites est, dans cette optique, non un savoir, mais une croyance.
Dreyfus évoque la tradition platonicienne où sont exclus du savoir, par exemple, les cuisiniers procédant selon leurs goûts et les poètes écrivant sous l’effet d’une inspiration. Ce qu’ils font n’implique pas de compréhension et ne peut être compris. De façon plus générale, ce qui ne peut être énoncé explicitement en instructions précises — tous les domaines de la pensée qui nécessitent talent, intuition, ou sens de la tradition —  est réduit à une sorte de tâtonnement arbitraire. Une longue et complexe évolution historique a ainsi conduit le savoir propositionnel à prendre le pas sur le savoir implicite, et à la séparation entre la pensée et l’action.

La main et le cerveau

Au XVIe siècle, le mot « concevoir » ou ses équivalents sont apparus dans la plupart des langues européennes. Cette apparition a coïncidé avec le besoin de décrire cette activité professionnelle distincte qu’est la conception. Ce n’est pas que la conception ait été alors une activité nouvelle, mais elle se séparait désormais de l’activité productive d’ensemble et était reconnue comme une activité à part entière. Elle était d’ailleurs vue comme plus scientifique et d’un plus haut niveau que l’activité productive sur le tas. On peut dire que s’est effectuée alors une séparation entre cerveau et main, travail intellectuel et labeur manuel, aspect conceptuel du travail et ensemble de l’ouvrage. Mais surtout, cela a signifié que la conception se séparait de l’action.
Progressivement, les dessins donnant une idée générale de ce qui devait être construit, et qui véhiculaient l’idée d’un but, se sont trouvés remplacés par des plans cotés, des instructions exactes de construction et des procédures d’assemblage. Cette évolution a conduit à une déqualification des maîtres-d’œuvre et limité leur latitude d’interprétation et d’improvisation. Le savoir-faire pratique a été de plus en plus subordonné au savoir théorique plus exact de ceux qui avaient eu la formation idoine. Le savoir-faire concret tiré de l’expérience, l’intuition et le sens du toucher allaient être subordonnés aux formes de connaissance plus abstraites et théoriques, et de plus en plus remplacés par elles. Loin d’aller dans le sens d’une symbiose entre théorie et pratique, on s’engageait dans la voie de la disparition de la tradition, hautement innovante et productive de l’artisanat. Léonard de Vinci est le témoin de cette évolution :

« Ils diront que n’ayant pas eu la formation voulue, je ne parlerai pas correctement de ce que je souhaite élucider. Mais ils ne savent pas que mes sujets seront mieux illustrés par l’expérience que par davantage de mots. L’expérience a été la maîtresse de tous ceux qui ont bien écrit et c’est donc comme à une maîtresse que je me référerai à elle dans tous les cas. »5

Jusque-là, les artisans avaient des instruments de travail au moyen desquels ils obtenaient des formes conceptuelles ou mathématiques. Par exemple, ils avaient des règles sinusoïdales pour construire des angles complexes, des planimètres pour l’intégration pratique de surfaces, et des outils pour développer des formes paraboliques. Dürer avait perçu le potentiel que représentait l’élaboration de formes et de procédures de calcul qui préserveraient l’unité de la main et du cerveau.6 Mais (hélas), cette voie ne fut pas suivie. Du coup, les aspects subjectifs, intuitifs, de nos capacités se sont trouvés ignorés, voire supprimés dans de nombreux domaines de l’effort humain, notamment dans la science et l’ingénierie. Rosenbrock, le fameux spécialiste des systèmes de contrôle, a écrit :

« Ma conclusion est que l’ingéniérie est un art plutôt qu’une science, et en disant ceci, je lui donne un statut supérieur et non pas inférieur. »7

En outre, on allait ignorer la dimension implicite du savoir, ces connaissances qui, selon Polanyi, sont « des choses que nous savons mais que nous ne pouvons exprimer ».8 La signification globale de ce savoir implicite a été décrite de façon intéressante par Alan Janik :

« Ceux qui ont des problèmes avec le concept de savoir implicite ont tendance à identifier toute connaissance avec la science et à considérer que, en tant que mode non scientifique de connaissance, le savoir implicite ne peut être que déficient. Mais c’est totalement erroné. En fait, le type de connaissance qui est normalement qualifié de scientifique se fonde sur le savoir implicite, comme l’a toujours souligné Michael Polanyi. »9

Vers de nouveaux modèles

Le lecteur peut ici, légitimement, se demander où tout ceci nous mène : à constater que l’on dispose de preuves, de plus en plus nombreuses et venant de multiples horizons, que le paradigme scientifique n’est pas dépourvu de graves défauts. En outre, si nous ne résolvons pas ces problèmes de façon constructive, l’ampleur et la vitesse des changements en cours sont susceptibles de provoquer des dommages irréversibles sur les plans tant culturel que matériel, tels les dommages causés aux systèmes écologiques et la destruction en cours de la flore et de la faune terrestres. La science semble si englobante, cohérente et efficace à court terme, que ses critiques sont facilement réduits au silence par la simple question : « Connaissez-vous quelque chose de mieux ? » Certes, la vraie faiblesse de la critique, c’est l’absence d’alternatives, si petites, si embryonnaires soient-elles.
De façon surprenante, c’est du domaine improbable de l’ingéniérie de production et des systèmes de contrôle que nous vient la proposition d’une autre voie. Au début des années 80, les chefs d’entreprises les plus perspicaces ont pris conscience que l’on allait vers une ère d’innovation permanente, où, pour réussir, il serait essentiel de libérer la créativité, l’ingéniosité et la motivation du personnel, atout le plus précieux des entreprises. Un groupe d’ingénieurs, de scientifiques, de philosophes et de sociologues de l’industrie, a senti que le temps était venu de démontrer, au moyen d’un projet, petit mais concret, que l’on pouvait concevoir des systèmes qui valorisent et renforcent la dimension créative, intuitive, fondée sur le talent et l’ingéniosité humaine. Cela nécessitait la remise en cause certaines des hypothèses de la méthode scientifique et la conception d’un système centré sur l’homme.10,11
Dans le cadre du programme ESPRIT, la Commission européenne a accepté de soutenir le projet 1217, destiné à concevoir et construire un système de fabrication avancé devant, pour l’essentiel, créer une symbiose entre l’homme et la machine : l’homme serait chargé des jugements qualitatifs, subjectifs, et le système, des aspects quantitatifs. Au lieu d’accepter que l’homme soit dominé par des systèmes basés sur les règles et les faits du domaine, on développerait une future technologie émancipatrice. En pratique, cela signifiait promouvoir l’implication affective, l’engagement et le savoir implicite de l’être humain, tandis que la machine n’aurait qu’un rôle subordonné. Dans ce cadre, le système technologique a été conceptualisé comme outil et non comme machine (selon la distinction de Heidegger), ce qui va à l’encontre de nombreux principes de la méthode scientifique. Notre science est essentiellement fondée sur l’explication causale. Dans ce type d’explication, on est conduit à la conclusion que l’homme est une machine. Si c’était le cas, il vaudrait probablement mieux utiliser une véritable machine qu’une prétendue ! En fait, ce sont les caractéristiques nous différenciant de la machine qui contribuent à notre ingéniosité et à notre créativité.
Le professeur Rosenbrock, l’une des grandes figures impliquées dans le projet ESPRIT, réfléchissait, depuis le début des années 70, aux questions philosophiques et scientifiques soulevées par ce projet et d’autres connexes. Il en a tiré un livre tout à fait extraordinaire, l’une des œuvres les plus importantes sur la nature de la méthode scientifique.12 Il y remet en question les hypothèses d’une science uniquement fondée sur les explications causales et fait la démonstration de l’égale validité d’une méthode basée sur le but. Il réexamine la théorie du contrôle et la question de l’intégration d’objectifs humains dans les machines, traite des équivalents mathématiques et analyse les mythes de la causalité efficiente et de la causalité finale. Enfin, il réexamine les mondes de la mécanique classique et de la mécanique quantique, et la signification du principe de Hamilton.
Les scientifiques, qui acceptent mal les critiques des philosophes ou autres chercheurs n’appartenant pas à la tradition scientifique, devraient prendre au sérieux ce livre écrit par un mathématicien appliqué, éminent ingénieur de systèmes de contrôle, membre distingué de la Royal Society. L’importance de ce livre tient à ce qu’il donne une démonstration pratique de la façon dont on peut récuser le mythe de « la seule bonne façon de faire » et proposer des alternatives valides. Au moment où la science et la technologie occidentales envahissent tout grâce à la mondialisation des technologies de communication, l’idée qu’il peut exister des façons différentes et variées de comprendre et connaître le monde et d’interpréter le progrès, nous offre un nouveau cadre de réflexion.

Des voies à explorer

Dans ce cadre, des pays de cultures très diverses peuvent explorer des formes de science qui s’appuieraient sur la richesse de leur héritage et de leur culture, au lieu d’accepter une subordination globale à la science et la technique occidentales.
Il serait particulièrement intéressant et probablement fructueux de réexaminer les traditions scientifiques et techniques des autres grandes civilisations, comme celle de la Chine. L’œuvre monumentale de Needham sur la science et la civilisation de ce pays13 offre des vues stimulantes dans plusieurs domaines, où une telle recherche pourrait utilement commencer à parcourir les voies non explorées.
À ce moment de l’histoire où nous commençons à comprendre la véritable signification de la biodiversité, nous devons pouvoir saisir également celle de la diversité culturelle et chercher les moyens de la valoriser au sein de la tradition scientifique

Notes de bas de page numériques

1 .F. Taylor, cité dans M.J.E Cooley, Architect or Bee? The human price of Technology (Architecte ou abeille ? Le prix humain de la technologie) 2ème édition, 1991, page 41. TIA 95 Sussex Place, Slough SL1 1NN Angleterre

2 . Cooley, op. cit. page 82.

3 . S.Toulmin, « The Dream of an Exact Language » (Le rêve d’un langage exact) dans Goranzon and Florin (ed.) Dialogue and Technology : Art and Knowledge. (Dialogue et technologie : art et savoir), Springer Verlag, Londres et Berlin 1991.

5 . Léonard de Vinci, cité dans Cooley op.cit. p. 60.

6 . Kantor, cité dans Cooley op. cit. p. 55.

7 .H.H. Rosenbrock, The Redirection of Technology (La réorientation de la technologie) Symposium IFAC, Bari, Italie, mai 1979.

8 . M. Polanyi, « Tacit Knowing: Its Bearing on some Problems of Philosophy », (Le savoir implicite : sa portée pour certains problèmes philosophiques) Review of Modern Physics Vol. XXXIV, 1962 p. 601-605.

9 . A. Janik, « Tacit Knowledge, Working Life and Scientific Method » (Savoir implicite, vie de travail et méthode scientifique) dans Knowledge, Skill and Artificial Intelligence (Savoir, talent et intelligence artificielle) Goranzen and Josefson (ed.) Springer Verlag, Londres et Berlin, 1988.

1 0. H.H. Rosenbrock, (ed) Designing Human Centered Technology: A Cross Disciplinary Project in Computer Aided Manufacturing (Concevoir une technologie centrée sur l’homme : un projet interdisciplinaire pour la fabrication assistée par ordinateur) Springer Verlag, Londres et Berlin, 1989.

1 1. K.S. Gill, Human/Machine Symbiosis: The Foundations of Human Centered Systems Design (Symbiose homme - machine : les bases de la conception de systèmes centrés sur l’homme) Springer Verlag, Londres et Berlin, 1996.

1 2. H.H. Rosenbrock, Machines with a Purpose, (Des machines ayant un but) Oxford University Press, 1990.

1 3. J. Needham, Science and Civilisation in China (Science et civilisation en Chine) Cambridge, 1959. Vol I à VI et au-delà.

Pour citer cet article

Mike J.E. Cooley, « La seule bonne façon de faire de la science ? », paru dans Alliage, n°45-46 - Décembre 2000, La seule bonne façon de faire de la science ?, mis en ligne le 03 septembre 2012, URL : http://revel.unice.fr/alliage/index.html?id=3854.

Auteurs

Mike J.E. Cooley

Président de l’Association de l’innovation et de la technnologie de l’université de Brighton.