Alliage | n°70 - Juillet 2012 L'imaginaire dans la découverte 

Marina Maestrutti  : 

Rendre visible l’invisible

Le rôle de la vision et de l’image dans l’histoire des nanotechnologies.
p. 62-73

Plan

Texte intégral

1Les manuels et ouvrages de vulgarisation attribuent aux microscopes à balayage (Scanning Probe Microscopy, spm), et en particulier au microscope à effet tunnel (Scanning Tunneling Microscopy, stm), le mérite d’avoir permis non seulement de voir la matière à l’échelle atomique, mais aussi de pouvoir la manipuler avec un niveau de précision inédit. Le stm est ainsi considéré comme l’objet phare de l’histoire « officielle » des nanotechnologies : grâce à son pouvoir de visualisation, il montre un monde autrement invisible, en rendant présente, accessible et familière la dimension nano. Le présent article voudrait montrer que l’invention du stm ne s’est pas faite dans la continuité, mais dans un contexte de stratégies conditionnées par des situations contingentes, et que les images qu’il produit ont joué un rôle fondamental dans la communication publique de la recherche. Or ces images ne sont pas des représentations du réel, mais des images-processus, susceptibles d’être manipulées et utilisées comme des instruments pour faire ou « modifier » le monde.1 Leur usage rhétorique puise indifféremment dans les registres de l’imaginaire, du scientifique et du promotionnel, ce qui rend leur lecture particulièrement complexe et ambiguë.

Les précurseurs

2En 1959, dans un discours prononcé au Caltech, Richard Feynman met en évidence le problème fondamental : chimie et biologie gagneraient en efficacité si elles pouvaient voir ce qu’elles font et « faire des choses au niveau atomique ».2 Puis il lance un défi : augmenter la puissance du microscope électronique. Le stm semble répondre directement à sa demande : un instrument espéré, dont le développement permettra de rendre visible l’invisible et, en outre, de pratiquer une forme plus consciente et directe de chimie, une forme d’ingénierie de la matière.
Trente ans après, dans la postface de 1990 de son livre Engins de création, Eric K. Drexler tient le stm pour l’instrument qui rendra possible la construction d’« une machine permettant de positionner les atomes pour fabriquer un proto-assembleur grossier ».3 La manufacture moléculaire, c’est-à-dire l’idée que les nanotechnologies permettront de construire objets et matériels simplement en manipulant les atomes grâce à des assembleurs universels, a donc trouvé l’outil de sa réalisation.
L’invention du stm en 1981 par Gerd Binnig et Heinrich Rohrer, chercheurs au laboratoire ibm de Zurich et prix Nobel de physique en 1986, semble constituer la suite logique du défi lancé par Feynman et en même temps ouvrir la frontière d’une vision futuriste, selon la perspective de Drexler.

Le stm : un instrument ambigu

3La force rhétorique et la promesse inhérentes à l’histoire officielle du stm ont été exploitées par les communautés scientifiques qui ont trouvé en lui un objet fédérateur et constructeur de nouvelles identités. Ces groupes de chercheurs, que Mody appelle « instrumental communities »,4 se vouent à la construction, au développement, à l’usage, à l’achat et à la divulgation d’un instrument de mesure particulier, en incluant des acteurs provenant du monde académique et du monde industriel. De ce fait, ces communautés sont aussi engagées dans la recherche de nouvelles manières de faire ou construire eux-mêmes les instruments.
En analysant le récit des débuts du stm, on peut mettre en évidence une série de problèmes qui en font un objet ambigu, et de son histoire une aventure  beaucoup plus complexe que celle racontée par le récit standard. Dans celui-ci, en effet, la notion de nanotechnologie n’est pas celle adoptée par les laboratoires de recherche utilisant cet instrument. Cependant, elle fonctionne « instrumentalement » comme catalyseur des dynamiques institutionnelles de recherches productives. En outre, l’émergence du stm comme objet fondateur du développement actuel des nanotechnologies ne se fait pas dans la continuité, mais résulte plutôt d’une série de stratégies développées dans des situations contingentes qui, à tout moment, auraient pu prendre des voies différentes, et qui en font un objet au statut fragile. Ambiguïté et fragilité qui caractérisent forcément aussi l’usage des images qu’il produit.

4L’intention initiale de Binnig et Rohrer n’était pas de créer un nouveau microscope, mais d’améliorer localement la spectroscopie d’une surface de moins de 100 Å de diamètre. Aucun des deux n’avait une grande expérience ni en microscopie ni en physique des surfaces. Ils travaillaient chez ibm Zurich pour satisfaire une demande de collègues qui souhaitaient plus de précision dans l’étude des défauts de certains matériaux utilisés dans les couches isolantes des composants électroniques.5 Ils élaborèrent une pointe métallique très fine qui pouvait s’approcher des couches d’oxyde et localiser des défauts en balayant comme une sonde les caractéristiques électriques de la surface grâce à l’effet tunnel des électrons. L’instrument était donc capable de donner la spectrographie et la topographie de la surface, c’est-à-dire qu’il représentait un nouveau type de microscope. Le projet en cours — construction d’un ordinateur à grande vitesse — auquel participaient Binnig et Rohrer chez ibm Zurich — est cependant abandonné laissant le stm sans possibilité d’application.

5Or c’est justement la nécessité de trouver des interlocuteurs intéressés par ce nouveau type d’instrument qui a poussé les deux chercheurs à contacter des collègues en sciences des surfaces travaillant chez ibm en Suisse et aux États-Unis (Yorktown). À cette fin, Binnig et Rohrer tentent une démarche promotionnelle qu’ils relatent dans le discours de réception du prix Nobel en 1986,

« It would appear that something complicated is much easier to remember ! »6

6Pour frapper les esprits, il fallait réaliser quelque chose de vraiment compliqué. La reconstruction 7x7 de la surface de silicium (111) devint un défi idéal. L’image en résolution atomique obtenue par le stm en 1982 marqua le moment décisif qui devait entériner le succès du microscope dans la communauté des chercheurs en science des surfaces.7 Le silicium étant un matériau modèle, cet événement revêtait pour celle-ci une importance comparable au déchiffrement de la pierre de Rosette pour les historiens : la reconstruction de la surface du silicium, tentée depuis les années cinquante, constitua le véritable lancement du stm sur la scène scientifique, via le domaine de la science des surfaces vers d’autres domaines d’application.8 La preuve de l’efficacité du stm comme méthode d’exploration locale des surfaces a cependant été démontrée par une expérience plus simple de résolution atomique, c’est-à-dire la spectrographie d’une surface d’or, Au (110), permettant de mettre en place une procédure d’utilisation mieux définie.  

Convaincre et négocier : la puissance rhétorique du stm

7Le processus qui a amené le stm à devenir l’objet phare des nanotechnologies montre que son succès est plutôt le résultat d’aléas, d’une intense activité de médiation et d’une série de stratégies de commercialisation.  
Les exploits obtenus avec le silicium et l’or ont appelé l’attention du monde industriel et du monde académique aux États-Unis. Les laboratoires ibm de Yorktown et Almaden, les laboratoires Bell, Ford, Philips, les laboratoires nationaux lui manifestent de l’intérêt à partir de 1982-83. Du côté universitaire, le stm est d’abord accueilli par Cal Quate à l’université de Stanford et Paul Hansma à l’université de Californie à Santa Barbara, ainsi que par d’autres équipes au Caltech, Berkeley et Arizona State. Cette dispersion dans des communautés avec des approches et des domaines différents a contribué à faire du stm un objet polyvalent.9 Si les laboratoires industriels continuent de l’utiliser pour l’étude des surfaces au niveau atomique, les laboratoires universitaires sont en revanche attirés par la flexibilité de ce microscope qui peut servir non seulement dans l’ultravide, mais aussi dans une atmosphère normale et même du liquide, ouvrant ainsi le champ à de multiples applications de recherche. Le stm devient en outre un objet à « bricoler » : étudiants et chercheurs travaillent pour l’adapter à leurs propres usages et vont jusqu’à construire eux-mêmes directement un microscope, parfois en utilisant des matériaux qui leur tombent sous la main (pointe d’un crayon, lame d’un rasoir). De plus, ce bricolage local demande un échange continu entre les différentes équipes de recherche afin d’assurer une production crédible, lisible, et autoriser une interprétation commune des images.
Le travail de conception a été accompagné par un grand effort de consolidation des résultats du stm et de recherche d’un contexte d’usage plausible. Pour ce faire, il a fallu construire une argumentation convaincante, car cet instrument nouveau éveillait la méfiance du monde de la recherche. Les principales difficultés concernaient le statut des images obtenues, l’explication théorique de certains phénomènes et la vérification expérimentale des données.

8Concernant la première difficulté, Arne Hessenbruch10 a mis en évidence la manière dont les connaissances et les savoir-faire acquis et établis dans d’autres contextes (instrumentaux ou de recherche) pouvaient être à l’origine de la résistance des chercheurs à l’utilisation du stm. D’un point de vue épistémologique, en outre, il semblait très difficile de comprendre comment un objet macroscopique pouvait observer un objet de dimension nano sans perturber les effets quantiques le caractérisant. Binnig et Rohrer soulignent que l’idée de s’approcher des atomes au point de pouvoir les manipuler était encore contre-intuitive et presque objet de tabou. C’est probablement  la raison pour laquelle les deux chercheurs ont été accusés de fraude : selon beaucoup de collègues, les images du silicium 7x7 ne pouvaient représenter une surface de silicium pur, mais probablement de l’oxyde de silicium, dû à l’oxydation du silicium par l’air ambiant. Les présentations de résultats étaient alors souvent l’occasion de controverses, tant il était malaisé pour la plupart des chercheurs de « croire » à ces images.

9La stratégie persuasive s’est organisée sur plusieurs fronts. D’abord, le stm a été présenté comme un instrument complémentaire plutôt que concurrent d’autres microscopes, de manière à pouvoir confirmer ses résultats avec ceux produits par d’autres instruments et l’intégrer dans un contexte instrumental mieux connu. Concernant le défaut d’une justification théorique solide de l’effet tunnel des électrons, une contribution fondamentale est venue de chercheurs appartenant à d’autres laboratoires (Tersoff, Hamann et Baratoff, Garcia, Ocal et Flores), qui contribuèrent de manière essentielle à mettre au point entre 1983 et 1984 une théorie cohérente, en décrivant du point de vue quantique le type de relation qui s’instaure entre les orbitales des électrons de la pointe et les orbitales de l’échantillon d’atomes à une distance très rapprochée. Quant à la démonstration de l’efficacité, démonstration qui seule permettrait une diffusion de l’instrument et donc un possible développement industriel, un tournant fondamental a été le workshop organisé en 1984, au Mexique, à Cancun, par Cal Quate, afin de faire se rencontrer un certain nombre de représentants des équipes utilisant le stm dans des laboratoires universitaires et industriels. Rohrer, Binnig et Gerber y présentent le travail développé chez ibm Zurich. Dans la mesure où la plupart des équipes employant le stm, depuis presque deux ans désormais, n’avaient pas réussi à obtenir des images d’un atome individuel sur une surface de silicium, les résultats de cette rencontre destinée à l’échange de méthodes et à la vérification des procédures sont de la plus haute importance. Les premiers résultats n’arrivent cependant qu’un an plus tard. En 1985, au congrès de l’American Physical Society, Hansma présente des images de structures de graphite de dimension atomique. Le séminaire organisé par stm Europe en juillet confirme le succès du stm. Cal Quate le définit comme a watershed of ideas, le moment décisif où les idées se bousculent vers une direction favorable : de plus en plus de laboratoires obtiennent des images à résolution atomique.11 La consécration médiatique a lieu la même année avec un article de Binnig et Rohrer écrit en collaboration avec la rédaction de la revue Scientific American. Grâce à l’expérience des journalistes scientifiques, la stratégie communicationnelle devient à ce moment plus efficace devant le grand public : le nouveau microscope est décrit comme un instrument capable de faire voir une surface atome par atome et doté d’une grande souplesse d’usage qui lui permet d’être utilisé dans différents domaines de recherche, tels la physique, la chimie ou la biologie.12

10Désormais, la stratégie de promotion du stm résidera dans la valorisation de ses performances pour la visualisation de la résolution atomique. En 1986, dans leur discours au prix Nobel, Binnig et Roher affirment explicitement que le stm pourra être utilisé comme « une machine de Feynman » (p. 407), et cette référence au fondateur unanimement reconnu de l’idée de nanotechnologie place le stm dans la continuité du rêve d’un grand physicien : reconstruire le monde matériel pièce par pièce. La dimension de l’imaginaire se matérialise et joue un rôle essentiel dans l’appropriation et la diffusion de l’instrument. C’est la construction de cet imaginaire qui fait du stm l’« instrument du destin », la technologie du rêve.

11Il reste cependant que la vision du stm diffusée par Drexler dans Engines of Creation, celle d’un instrument capable de déplacer les atomes pour « fabriquer » des molécules, n’était pas fondée. Dans son souci de prouver la faisabilité de la manufacture moléculaire, Drexler attribue au stm un pouvoir qu’il n’a pas encore acquis. Son argument se fonde paradoxalement sur un exploit publicitaire et médiatique du stm : le logo ibm écrit par Eigler et Schweizer, chercheurs chez ibm Almaden.

ill°:The Beginning. Xenon on Nickel (110)

D. M. Eigler et E. K. Schweizer, Positioning single atoms with a scanning Tunneling Microscope, Nature 344, 524-526 (1990)http://www.almaden.ibm.com/vis/stm/atomo.html (3eme image)

12Mais entre le fait de déplacer sur une surface les atomes de xénon à une très basse température pour les rendre stables (4K) et la capacité de construire des molécules semblables à celles de la nature, comme s’il s’agissait d’assembler les composants d’un lego, grâce à un processus d’auto-assemblage, la différence est énorme. Très loin du projet drexlerien, mais très proche de l’espoir dont on investit les nanotechnologies, la réussite d’Eigler joue un rôle ambigu entre fiction, promesse et exploit technoscientifique. Du point de vue communicationnel, l’ambiguïté permet de mieux se déplacer aux frontières de la science et de la promesse, et donc d’alimenter cette dernière tout en restant dans un discours scientifique.

Images d’un nanomonde et imaginaire des nanotechnologies

13L’histoire du stm a mis en évidence le rôle fondamental et structurant de l’image et de la vision. Dans tous les documents qui décrivent le domaine des nanotechnologies, l’image joue un rôle primordial. Elle comporte un aspect à la fois documentaire (l’image scientifique obtenue par un instrument comme le stm) et médiatique (souvent publicitaire). La mise en image du nanomètre nous introduit dans une dimension inexplorée et inaccessible qui acquiert immédiatement le statut de « monde nouveau », métaphore influente, non dénuée de conceptions « métaphysiques » sous-jacentes sur le rapport entre découverte et conquête. Mais obtenir des images par le stm pose aussi la question du statut des images scientifiques : comment les obtient-on et comment les lit-on, pour quelle utilisation ? Et surtout, quand la frontière entre scientifique et imaginaire s’efface dans l’usage « artistique » ou médiatico-publicitaire, comment faire la part de la réalité et de la fiction ?

14Les microscopes à balayage obtiennent des images en effleurant la surface avec une pointe et en interaction avec les atomes qui la composent : les données recueillies sont transformées en représentations optiques grâce à des modèles informatiques de traduction et de conversion. Les images ne sont donc pas acquises par la vision directe des phénomènes observés, et il ne s’agit pas non plus de reproductions qui veulent représenter fidèlement la nature, comme dans le cas des atlas scientifiques publiés avant le xixe siècle. Elles dépendent de l’élaboration informatisée, de l’interprétation qu’en donnent les chercheurs et de la contribution technique des ingénieurs. Dans le cadre de ces processus, la nature même émerge avec et grâce à l’artefact, c’est-à-dire l’image et le processus qui lui donne corps. Il ne s’agit pas cependant de simples fictions : elles sont censées être des images « réelles ». L’utilisation des couleurs, la mise en évidence des formes, l’effort pour rendre intelligible une structure ou un mouvement résultent d’un processus qui a fait de l’image le principal médium de la connaissance et de la représentation du nanomonde. En fait, plus que de représentation il faudrait parler, comme le suggèrent Lorraine Daston et Peter Galison,13 de présentation selon un triple sens :

  • il ne s’agit pas de fournir une copie de la réalité, mais de montrer comment on peut intervenir sur cette réalité ;

  • les images sont représentées comme dans une vitrine de magasin (aspect publicitaire) ;

  • ces images s’éloignent de plus en plus de l’idée d’objectivité mécanique, garantie par des moyens de production affranchis de la partialité du dessin manuel, pour s’approcher de plus en plus du domaine de l’art.Le champ est donc ouvert à des stratégies de visualisation qui exploitent les contributions de l’imaginaire.

15L’image de la nanodimension est une image constamment en train de se faire, qui peut être constamment manipulée, modifiée, comme la matière dont elle est représentation. Daston et Galison parlent d’images haptiques (du grec hapto, le toucher), images interactives par opposition aux images virtuelles des simulations, pour souligner que pouvoir modifier l’image signifie pouvoir aussi intervenir sur la matière. En réalité, il ne s’agit pas vraiment d’une image qui reproduit, mais d’une image qui « fait ». Car dans la pratique, la succession temporelle constituée par la préparation d’un échantillon et son observation, vus comme deux moments différents, est complètement éliminée en ce qui concerne le stm : la surface est préparée, mais l’observation est en même temps intervention, modification et enregistrement d’une interaction de la pointe et des atomes de la surface. Selon Galison, cette nouvelle configuration du rapport entre matière et représentation marque le passage de la conception de l’image évidence à celle de l’image instrument. La construction des diverses galeries d’imagesélectroniques, haptiques ou virtuelles, semble prendre la place des vieux atlas scientifiques. Cependant, le changement radical réside en ce qu’elles ne montrent pas tant ce qu’elles ont trouvé, mais plutôt ce qu’elles ont aidé à construire. La finalité des nano-images n’est donc plus celle de représenter le réel selon une attitude de contemplation, caractéristique du savant qui observe la nature dans ses dimensions macroscopiques ou microscopiques, mais plutôt celle, d’inspiration baconienne, représentée par une attitude d’ingénieur, d’intervention sur le monde pour pouvoir établir ce qu’on est en mesure de connaître.14 C’est donc l’action qui produirait le savoir et c’est à travers l’usage des images que l’on confère consistance au réel.
Les galeries d’images répondent donc à la nécessité de présenter non seulement une réalité invisible, mais aussi une opérativité réelle face à un public de plus en plus hétérogène et diversifié.

16Insérer image : Quantum Corral. Iron on Copper (111), M. F. Crommie, C. P. Lutz, D. M. Eigler, Confinement of electrons to quantum corrals on a metal surface, Science 262, 218-220 (1993) [http://www.almaden.ibm.com/vis/stm/corral.html 1ère image]

17En ce sens, l’évolution des images par stm a sa propre histoire et montre comment, en l’espace d’une dizaine d’années, la « construction » de l’image s’est de plus en plus éloignée de son contexte expérimental pour acquérir un pouvoir de suggestion autonome.15 Un effort particulier a été consacré à obtenir des effets plus raffinés et intelligibles, qui ont fini par rendre les images compatibles avec les différentes visions des nanotechnologies. Si les premières publications de Binnig et Rohrer utilisaient de préférence des images « schématiques » en noir et blanc (sous forme d’illustration, comme le schéma du fonctionnement du stm), ou de diagramme (comme les diagrammes des cristaux observés au microscope), d’autres formes de représentation apparaissent qui montrent le pouvoir caractéristique du stm dans la reconstruction des surfaces nano. Le travail de Binnig et Rohrer semble s’orienter de plus en plus, au cours des années 1980, vers un design de l’image plus « lisible » et caractérisé, mais qui ne livre pas d’information concernant la mesure. L’introduction des couleurs, d’abord dans les images bidimensionnelles puis tridimensionnelles des surfaces, leur donne de plus en plus l’aspect de « paysages », rappelant parfois la forme de montagnes enneigées, de canyons ou de plaines. Bien entendu, cela ne correspond pas à l’image « réelle » de la surface, qui demande toujours à être interprétée. La réussite la plus significative, cependant, a été la capacité de représenter les atomes individuellement grâce aux différentes couleurs et à un effet tridimensionnel arrondi « à colline » : les atomes semblent « apparaître » en émergeant de la surface, grâce à la présentation dans la même image de deux mesures différentes correspondant à deux colorations différentes.16 La mesure est ainsi traduite en image selon une solution esthétique hautement efficace, adoptée par la communauté scientifique et exploitée pour améliorer la qualité des images publiées dans les revues spécialisées. S’agit-il d’une représentation fidèle à la structure de l’atome ? Hennig semble affirmer que même sur la base de mesures, la forme des atomes donnée par le stm est en réalité le résultat d’un compromis entre données expérimentales – la mesure – et attentes de l’imaginaire du monde atomique qui, dans l’iconographie classique utilisée par les manuels et les textes de diffusion, assigne à l’atome une forme sphérique. L’image des atomes obtenue au stm devient l’« image » par excellence : elle impose désormais une représentation de l’atome dans le public profane comme dans le monde des spécialistes et façonne un imaginaire des nanotechnologies. De ce point de vue, les images de synthèse de Drexler et de Merkle illustrant leurs machines moléculaires17, fruits d’une traduction visionnaire et utopique de la structure nano, selon laquelle un atome correspond à une sphère, n’est pas en contradiction avec la convention choisie pour représenter les images des atomes par stm.

18ill°: Machine moléculaire

dessinée par E. K. Drexler, Institute for Molecular Manufacturing, 1997
(www.imm.org). http://www.imm.org/research/parts/gear/

19Le stm devient ainsi l’instrument qui prétend montrer la réalité atomique, mais fournit en même temps de la matière à l’imaginaire scientifique.

20Le lien indissoluble entre nanosciences, nanotechnologies et images, entre manière de les produire et objets représentés, est à la base de la formation d’une « nano-culture » tant scientifique qu’esthétique. Les images du « nanomonde » peuvent être vues comme une chaîne continue polarisée entre la représentation schématique du graphique et la production « pop » de l’art nano. La « puissance » de représentation attribuée à certaines images (comme celles qu’Eigler a élaborées pour ibm) dans la communication au public renforce le sentiment que même dans les nanosciences on va vers un « régime des images » qui relève plus de la sociologie que de l’épistémologie : certaines images finissent par se naturaliser, par entrer dans la culture et devenir spontanément intelligibles pour un public plus large que celui des experts.
La pointe qui « lit » la surface comme si on lisait en braille n’est rien sans l’intelligibilité qui vient de l’élaboration informatique, étant donné la grande distance séparant la structure de la matière des images censées la reproduire. Ce n’est pas la science qui fournit directement les images modernes, c’est plutôt l’application de l’ingénierie et de l’informatique qui ouvre un projet autonome d’imagerie appliqué à la science. Cependant, la vocation des images à présenter plus qu’à représenter réintroduit un aspect esthétique et artistique.
Un exemple éloquent est l’exposition Blow-up. Images du nanomonde, organisée par le Centre de recherche S3 de l’infm-cnr à Modène, en Italie, le 25 février 2007. Elle se proposait de montrer des photographies réalisées à partir d’images au stm ou à l’afm utilisées en laboratoire et non créées pour être proposées au grand public. L’intention explicite était d’unir objectivité et esthétique, à travers le travail de la photographe Lucia Covi. Art, science et technologie sont, à cet effet, unis dans la présentation d’un nouveau monde que l’on est invité à explorer, à connaître certes, mais surtout à conquérir.

À la conquête du nouveau monde

21La métaphore de la découverte d’un monde nouveau grâce à la possibilité de voir la dimension nano est un topos constamment exploité. Comme d’autres chercheurs dans le domaine de la microscopie, Binnig fut fasciné par la beauté des images de la surface de silicium qu’il venait d’obtenir au stm en 1982 ; il avoue qu’il ne pouvait pas cesser de les regarder :

« C’était comme entrer dans un monde nouveau. »18

22L’exploration d’un monde inconnu oblige à la description et à la représentation : les images, tant littéraires que visuelles, constituent la matière qui bâtit ces mondes lointains dans l’espace, le temps ou la dimension. Il s’agit souvent d’images qui mélangent leur statut de témoignage, lequel se veut fidèle, et la projection d’un imaginaire qui structure, modifie, déforme et réorganise selon des règles qui lui appartiennent spécifiquement. Dans la phénoménologie de l’imaginaire que développe La poétique de l’espace, Bachelard parle longuement de la miniature comme d’une « imagination naturelle »,19 une imagination qui permet de posséder le monde dans la mesure où l’on est capable de le miniaturiser. S’immerger dans la rêverie du minuscule est sûrement aussi un processus appartenant aux structures anthropologiques de l’imaginaire et renvoyant à la dimension du caché, de la recherche, de la descente, « au régime nocturne de l’image » décrit par G. Durand.20 L’image de l’infiniment petit fait référence à la sphère de l’imagination symbolique et représente la capacité des cultures humaines à engendrer des images qui, même sans appartenir au monde physique et empirique, perceptible par les sens, ou au monde accessible par l’intuition intellective, sont cependant capables de créer une réalité médiatrice entre ces deux dimensions et partagée entre individus et société. Ce monde imaginaire est en partie représenté par le nanomonde : un monde accessible et compréhensible seuleument par la médiation de la technique, excluant presque la médiation humaine et des sens, mais puisant dans les structures d’un imaginaire partagé qui le représentent en même temps comme familier et inquiétant.      

23Il est cependant nécessaire de réaffirmer l’idée qu’accéder au nanomonde signifie en même temps en prendre possession. Aux États-Unis à partir de 1999, les nanosciences et nanotechnologies deviennent un domaine prioritaire de développement et la couverture de la brochure Shaping the World Atom by Atom est à cet égard significative des deux angles d’approche du nanomonde : voyage et conquête. Elle est composée de deux images obtenues avec des instruments différents : en fond, la Terre vue de l’espace, immergée dans un ciel d’étoiles et d’objets célestes ; au premier plan, une surface de silicium vue au stm.

ill°: Couverture de la brochure Nanotechnology. Shaping the world atom by atom,

National Science and Technology Council (nstc), 1999. http://www.wtec.org/loyola/nano/iwgn.Public.Brochure/

24Si l’idée de voyager dans les deux dimensions fait penser au désir de connaissance, lequel correspond ordinairement à la posture de la science, la conquête représente une attitude beaucoup plus « pragmatique » : il s’agit de développer une ingénierie de l’échelle nano. Les nanosciences permettent d’observer les nouvelles propriétés à l’intersection de la physique classique et quantique, mais peuvent permettre théoriquement d’agir concrètement à l’échelle nano, de manipuler la matière, et peut-être aussi, comme l’espérait Drexler dans Engins de création, de participer à la conquête de l’espace. Comme le remarque très justement Alfred Nordmann, l’image de couverture de la brochure frappe par l’absence d’une présence humaine dans ces nano- et macromondes.21 L’humain est absent, contrairement à la cosmogonie traditionnelle où, entre microcosme et macrocosme, l’être humain assure la médiation. Dès lors, le rôle et le statut de l’humain semblent redéfinis en permanence par des technologues à mesure qu’ils découvrent le potentiel de la nature. Même dans le nanomonde, l’Homo faber commence par laisser sa marque et délimiter son territoire de conquête : il n’y a pas de drapeau, mais une signature faite d’atomes. La force rhétorique du STM prend alors toute son ampleur et montre comment la capacité de voir aboutit immédiatement à celle de faire.

Faut-il croire au nanomonde ?

25Les images du nanomonde sont sorties des laboratoires scientifiques et ont fini par habituer le public à la dimension nano. En abandonnant la fonction représentative, en soulignant le pouvoir de manipulation sur les images, la frontière entre objectivité et fiction a fini par devenir de plus en plus poreuse, non seulement parce qu’il est de plus en plus difficile de définir le statut des images, mais aussi parce que leur réception est subordonnée à leur « facilité » et à leur pouvoir de susciter l’émerveillement. Les images scientifiques se soumettent de plus en plus à des critères artistiques et les images de fantaisie sont souvent utilisées pour rendre présent le nanomonde. Très répandues dans toutes sortes de publications et sur de multiples sites, ces images sont utilisées pour anticiper des nanomachines, nanodispositifs susceptibles, par exemple, d’entrer dans le corps à des fins médicales, de se répandre dans l’environnement pour le purifier ou pour créer une sorte de dimension virtuelle.22 Le statut de ces images est rarement explicité : utilisées en même temps et dans le même contexte que les images documentaires, elles transmettent un message ambigu qui ne cesse de brouiller les frontières entre pouvoir de l’imaginaire et volonté d’établir une représentation scientifique de l’échelle atomique. Ce qui pose problème dans la réception du public est la tendance à considérer les images proposées par les média — y compris les images de fantaisie ou artistiques — comme des témoignages de la réalité, comme des indices d’objets existants, même invisibles et inaccessibles à l’observation directe. Ainsi, l’éloquence des images — scientifiques et non scientifiques — est-elle à l’origine de leur puissance persuasive : en tant que représentations visuelles, elles posent de fait le problème ontologique de l’existence réelle de ce qu’elles montrent. L’ambiguïté de leur usage dans la communication au public laisse la porte ouverte à toutes sortes de présomptions de la réalité, au point que certaines images sont de purs simulacres : émancipées du réel, elles ont en elles-mêmes la force d’imposer l’existence du nanomonde imaginaire.

Notes de bas de page numériques

1  L. Daston, P. Galison, Objectivité, traduit par S. Renaut et H. Quiniou, préface de B. Latour, Dijon, Les Presses du Réel, coll. « Fabula », 2012 [NY, Zone Books, 2007], pp. 439-440.

2  R. Feynman, There Is Plenty of Room at the Bottom, 1959,
http://www.zyvex.com/nanotech/feynman.html
(« The problems of chemistry and biology can be greatly helped if our ability to see what we are doing, and to do things on an atomic level, is ultimately developed – a development which I think cannot be avoided »).

3  E. K. Drexler, Engins de création : l’avènement des nanotechnologies, trad. de M. Macé, révisée par T. Hoquet, Paris, Vuibert, 2005 [NY, Anchor Press, 1986 ;  Anchor Press/Doubleday, 1990], p. 305.

4  C. C. M. Mody, « Corporations, Universities, and Instrumental Communities. Commercializing Probe Microscopy, 1981-1996 », Technology and Culture, vol. 47, 1 janvier 2006, pp. 56-80.

5  Voir G. Binnig, H. Rohrer, « Scanning Tunneling Microscopy – From Birth to Adolescence », Nobel Lecture, 8 décembre 1986, www.nobel.se/physics/laureates/1986/binnig-lecture.pdf

6 Ibid., p. 398.

7  G. Binnig, H. Rohrer, C. Gerber, E. Weibel, « 7x7 Reconstruction On Si (111) Resolved in Real Space », in Physical Review Letters, 50, 1983, pp. 120-123.

8  C. C. M. Mody, « How Probe Microscopists Became Nanotechnologists », in D. Baird, A. Nordmann, J. Schummer (dir.), Discovering the Nanoscale, Amsterdam, IOS Press, 2004, p. 122.

9 Ibid., pp. 123-124.

10  Voir A. Hessenbruch, « Nanotechnology and the Negotiation of Novelty », in D. Baird, A. Nordmann, J. Schummer (dir.), Discovering the Nanoscale, ouvrage cité.

11  G. Binnig, H. Rohrer, « Scanning Tunneling Microscopy – From Birth to Adolescence », article cité, p. 403.

12  G. Binnig, H. Rohrer, « The Scanning Tunneling Microscope », Scientific American Magazine, 253, août 1985, pp. 50-56.

13  L. Daston, P. Galison, Objectivité, ouvrage cité.

14  Un principe qui, pour Giambattista Vico, fonde la scienza nuova et correspond à l’identité des mots latins verum (vrai) et factum (fait) : ce qui est vrai est le fait lui-même (verum ipsum factum) ;  c’est-à-dire qu’on ne peut avoir une réelle connaissance que de ce que l’on fait (G. Vico, La science nouvelle (1725), Paris, Gallimard, 1993).

15  J. Hennig, « Changes in the Design of Scanning Tunneling Microscopic Images from 1980 to 1990 », Techné, vol. 8, 2, hiver 2004, pp. 36-55.

16 Ibid., pp. 44-49.

17 http://www.imm.org./""

18  G. Binnig, H. Rohrer, « Scanning Tunneling Microscopy – From Birth to Adolescence », article cité, p. 401.

19  G. Bachelard, La poétique de l’espace, Paris, PUF, 1957, p. 141.

20  G. Durand, Les structures anthropologiques de l’imaginaire, Paris, PUF, 1963.

21  A. Nordmann, « Nanotechnology’s WorldView : New Space for Old Cosmologies », IEEE Technology and Society Magazine, 23, 2004.

22 www.foresight.org/Nanomedicine/Gallery/index.html

Pour citer cet article

Marina Maestrutti, « Rendre visible l’invisible », paru dans Alliage, n°70 - Juillet 2012, Rendre visible l’invisible, mis en ligne le 26 septembre 2012, URL : http://revel.unice.fr/alliage/index.html?id=4058.


Auteurs

Marina Maestrutti

Maître de conférences en sociologie à l’université Paris-1 Panthéon-Sorbonne, s’intéresse au rôle des imaginaires dans la représentation techno-scientifique du corps et aux relations entre les corps et les technologies contemporaines dans le domaine de la santé. Publications récentes : Imaginaires des nanotechnologies. Mythes et fictions de l’infiniment petit, Vuibert, 2011 ; « Abîmes de l’infiniment petit. L’apocalypse à l’ère des nanotechnologies. De promesses en prophéties » in R. Belot, L. Heyherger (dir.), Prométhée et son double - Craintes, peurs et réserves face à la technologie, éditions Alphil – Méridiennes, 2009.