L’imagerie est au cœur de la recherche scientifique. En laboratoire, nous passons notre temps à observer des phénomènes trop petits, trop lointains ou trop rapides pour l’œil et l’utilisation de caméras est dès lors indispensable. Quels types de capteurs utilise-t-on ? Quelles images, quelles mesures en découlent ? Cet article est une introduction à l’imagerie scientifique et aux techniques utilisées en laboratoire. Nous explorerons donc quelques types de systèmes imageurs ainsi que les problématiques liées à leur utilisation.

Images scientifiques… Quèsaco ?

Qu’est-ce qu’une image scientifique ?

Les images scientifiques sont des mesures qui enregistrent la réalité d’un phénomène à un instant précis. Elles sont utilitaires, rarement esthétiques : leur rôle est simplement d’enregistrer des données scientifiques.

Même si l’on peut croire qu’il s’agit de machines très complexes impliquant des mécanismes ultra-sophistiqués, c’est loin d’être la règle. Certaines sciences requièrent un équipement très élaboré (l’imagerie médicale, notamment), mais d’autres n’ont pas besoin de matériel spécifique. Dans la plupart des cas, l’expérience implique plusieurs caméras, mais une seule est vraiment performante.

Contrairement à nos habitudes de photographes, ce n’est ni la richesse des tons, ni la douceur du bokeh qui font la valeur d’une photo de science. Un bon cliché scientifique, c’est un cliché qui met en évidence le phénomène qui intéresse.

Ce qui fait la valeur d’une image scientifique, c’est aussi sa légende. Comment l’image a-t-elle été prise ? À quel instant ? Et que voit-on au juste ? Si l’échographie ou la radiographie produisent des images assez intuitives, d’autres techniques d’imagerie sont beaucoup plus obscures. Contrairement aux photographies habituelles, l’image scientifique n’est souvent pas directement accessible : pour comprendre ce que l’image nous montre, il faut impérativement savoir le contexte dans lequel elle a été prise.

comprendre les images scientifiquesEn 1932, Carl Anderson prouvait l’existence du positron en prenant cette photographie. La ligne horizontale est une mince plaque de plomb. La trajectoire de l’objet qui la traverse est caractéristique d’une particule de même masse que l’électron, mais de charge opposée : le positron. L’image n’est pas belle, mais elle contient la preuve !

Imagerie par émission, imagerie par transmission

En pratique, comment fait-on les images ?

Les méthodes d’imagerie sont nombreuses et variées, mais un classement rudimentaire permet de les trier en deux groupes : l’imagerie par émission et l’imagerie par transmission.

L’imagerie par émission suppose que l’objet d’étude émet un rayonnement. Peu d’objets émettent naturellement, mais les phénomènes physiques peuvent produire une radiation. C’est le cas, par exemple, de la combustion : brûler un gaz engendre une flamme qui rayonne de la chaleur et de la lumière. En braquant la caméra vers cette source, on récupère un signal qui contient de nombreuses informations très utiles pour nous – notamment la couleur de la flamme qui indique sa température. Suivant le même principe, les astronomes parviennent à déduire la composition chimique des étoiles.

Les éléments radioactifs font partie des rares matériaux à rayonner naturellement. Ils sont très utilisés en imagerie médicale, souvent pour la détection de tumeurs cancéreuses : on fait ingérer au patient des éléments faiblement radioactifs (les traceurs), ceux-ci migrent dans le corps et s’accrochent aux tumeurs. On observe ensuite leur rayonnement avec plusieurs détecteurs de rayons gamma. En notant les délais d’arrivée entre les différents capteurs, on peut localiser les traceurs, et donc les tumeurs (c’est l’imagerie par émission de positrons).

L’imagerie par transmission suppose que l’objet peut modifier la lumière. Il suffit donc d’une source de lumière et d’un capteur : on place l’échantillon entre les deux et on regarde comment l’échantillon altère la lumière. Par exemple, un verre de sirop de menthe modifie la lumière en absorbant toutes les couleurs à l'exception du vert. Analyser la teinte du sirop permet de déduire le colorant utilisé, mesurer la déviation du faisceau due à l’indice de réfraction donne accès au taux de sucre, mesurer le taux d’absorption indique la concentration en sirop… Bref, en choisissant les bonnes grandeurs à observer, on accède à un grand nombre de paramètres. Toute l’astuce consiste à bien faire le lien entre la mesure et le paramètre à mesurer, ce qui est souvent loin d’être évident. C’est dans ces moments-là qu’une légende est bienvenue.

Longueur d’onde : la clé de voûte

À différentes sciences, différents besoins. Idéalement, un seul instrument permettrait d’imager toutes les expériences. Bien évidemment, le capteur parfait n’existe pas : la zone de travail est toujours limitée en longueur d’onde, en temps de réponse, en sensibilité et en résolution. Le choix d’une caméra est donc toujours un compromis. Le chercheur doit déterminer la technique la plus simple (et la plus économique) permettant d’obtenir des images utilisables. Et contrairement à la photographie classique, la résolution n’est pas toujours – et même assez rarement – le critère principal.

Les capteurs sont spécialisés par longueur d’onde

comprendre les images scientifiques

Le premier critère essentiel, c’est la plage de longueur d’onde. Pour bien comprendre cet aspect, il faut se remémorer que la lumière regroupe un ensemble de longueurs d’ondes bien plus large que ce que peut voir notre œil. L’œil humain voit typiquement du bleu (400 nm) au rouge (800 nm) ; c’est ce qu’on appelle le spectre visible. Mais, bien sûr, la lumière peut également être ultraviolette ou infrarouge. En allant suffisamment loin dans l’infrarouge, ce qui était de la lumière finit par devenir de la chaleur – de l’autre côté, en dépassant l’ultraviolet, la lumière devient rayons X, puis gamma.

comprendre les images scientifiquesCette modeste caméra visible infrarouge est un véritable couteau suisse de laboratoire. Elle ne filme qu’en noir et blanc et ne dépasse pas les 3 Mpx, mais cela suffit largement à la majorité des applications.

En pratique, aucun capteur ne peut voir toutes ces longueurs d’ondes à la fois. Les détecteurs fonctionnent sur une plage relativement limitée, à commencer par le capteur de votre reflex en silicium qui ne voit que le visible (et potentiellement un peu d’infrarouge). C’est le matériau dont est fait le capteur qui détermine la zone de longueurs d’ondes observable par la caméra : il faut donc choisir dès le départ le bon capteur pour avoir une chance de voir quelque chose d’intéressant.

Transparence, opacité : la magie des longueurs d’ondes

La transparence et l’opacité des matériaux varient en fonction de la longueur d’onde. Une des tâches de l’expérimentateur consiste donc à choisir la longueur d’onde la plus pratique pour l’expérience. En radiologie, par exemple, les rayons X sont pertinents parce que les os les absorbent tandis que les tissus restent transparents. Dès lors, les os sont bien visibles sur les images. En échographie, on travaille dans le domaine des ultrasons : le liquide amniotique leur est transparent, mais l’onde rebondit sur les tissus, ce qui est idéal pour obtenir l’image du fœtus. En physique atomique, l’absorption des atomes intervient dans le spectre visible, on utilise donc des lasers.

Non contents d’absorber la lumière, certains matériaux savent également transformer la lumière qu’ils reçoivent. C’est le cas notamment des fluorophores qui, lorsqu’ils reçoivent un photon d’une certaine longueur d’onde, en réémettent un autre d’une longueur d’onde différente. Un exemple typique est celui du jaune lucifer, une molécule qui transforme du bleu (425 nm) en vert (528 nm). En pratique, on éclaire l’échantillon avec un laser bleu, puis on filtre la lumière d’éclairage (avec une lame dichroïque) de manière à ne regarder que le vert. Ces marqueurs sont très utilisés en biologie : on les attache chimiquement sur les objets qui intéressent (par exemple, le squelette d’actine des cellules), puis on les regarde au microscope. C’est l’imagerie par fluorescence. Les molécules fluorescentes interviennent dans d’autres technologies, en témoignent les crayons Stabilo Boss qui transforment de l’UV en lumière visible et renvoient donc plus de lumière qu’ils n’en reçoivent dans la plage visible.

Approcher les limites du faisable : le trio sensibilité-résolution-vitesse

Une fois la longueur d’onde choisie, le compromis se résume en trois critères principaux : sensibilité, résolution et vitesse. Concrètement, le capteur idéal, à la fois ultra-sensible, ultra-rapide et ultra-résolu, n’a pas encore été trouvé. À l’heure actuelle, il faut faire des choix et privilégier l’un des aspects au détriment des autres.

comprendre les images scientifiques

Priorité à la vitesse

Être ultra-rapide, c’est accepter d’être peu sensible et peu résolu. Sous ces conditions, la photodiode est un choix pertinent.

La photodiode, c’est la résolution à l’état nul. Pour faire simple, c’est une caméra qui n’a qu’un seul pixel. Quel est son rôle ? Mesurer une quantité moyenne de lumière sans se préoccuper de sa répartition dans l’espace. Et c’est très utile ! Il existe en effet un nombre incalculable de situations dans lesquelles on a besoin d’être rapide sans avoir à être résolu. Tenez, par exemple, la photodiode est le détecteur utilisé dans les flashmètres. C’est aussi ce qui permet de synchroniser les flashes entre eux. La photodiode ne nous dit pas comment est réparti l’éclairage, mais elle nous livre la quantité de lumière émise par les flashes, et c’est cette information qui nous intéresse vraiment.

comprendre les images scientifiquesUne photodiode munie d’un filtre dichroïque. Juste devant, un iris permet de gérer le flux.

Les photodiodes sont vraiment rapides. Tandis qu’un reflex permet de prendre 10, voire 15 i/s pour les meilleurs, une photodiode atteint sans trop de difficultés 10 millions de mesures par seconde. D’où vient cet écart si énorme ? C’est une différence technologique, surtout. Récupérer une image à partir d’une CCD requiert toutes sortes d’étapes lentes (transfert parallèle-série, conversion analogique-numérique). Dans une photodiode, qui est par essence un composant purement analogique, on récupère le signal qui vient directement du détecteur. On prélève ainsi l’information à la source et on évite toutes les étapes chronophages.

Priorité à la sensibilité

Il arrive qu’on ait à mesurer des petits signaux, par exemple un photon. Oui, juste un seul… Bien sûr, une photodiode standard, même amplifiée, n’est pas assez sensible. Un photon unique, c’est tout de même un signal très petit – en éclairage normal, notre œil en reçoit près de 1020 par mètre carré !

C’est ici qu’entrent en jeu les compteurs de photons. Parmi les systèmes les plus anciens, les tubes photomultiplicateurs permettent d’augmenter le signal : on obtient sans difficulté un gain 500 sans augmentation notoire du bruit – c’est l’équivalent d’un ISO 51200 par rapport à 100, le bruit en moins. L’idée est d’utiliser un phénomène découvert par Albert Einstein : l’effet photoélectrique. Lorsqu’un photon est reçu, il est transformé en électron. En progressant dans l’instrument, l’électron entraîne avec lui d’autres électrons, créant un mécanisme en chaîne qui établit finalement un courant mesurable. Cet équipement s’appelle le tube photomultiplicateur (PMT).

Mais être ultra-sensible a un prix… Si ces systèmes offrent une sensibilité optimale, ils ont cependant de nombreux inconvénients. La plupart ont besoin d’une longue période d’attente (plusieurs microsecondes) avant d’être de nouveau sensibles, et leur résolution est également mono-pixel.

Priorité à la résolution

À l’ère du numérique, les capteurs scientifiques ont progressé avec une rapidité impressionnante. Pour améliorer la résolution, plusieurs solutions technologiques existent. L’astronomie, en particulier, utilise des assemblages de capteurs permettant d’atteindre au final des surfaces sensibles de l’ordre du mètre carré. L’idée est de coller bord à bord des capteurs de petite taille jusqu’à obtenir un capteur de grande dimension. En théorie, ces systèmes sont très bons, car ils concilient pixels grands, donc sensibles, avec une très haute résolution. Mais leur taille et leur prix peuvent faire reculer plus d’un expérimentateur. Ils produisent également des quantités astronomiques de données, s’en suivent donc des problèmes de rapidité.

Dans les domaines de la chimie et de la biologie, on a régulièrement besoin d’imager des objets de très petite taille. La diffraction l’empêche parce qu’elle limite la résolution. Très récemment, des chercheurs ont réussi à vaincre cette limite, ouvrant la porte au domaine de la super-résolution. À ce jour, 3 méthodes distinctes – toutes complexes, malheureusement – permettent de faire de la super-résolution. Elles ont révolutionné nos perspectives d’imagerie dans l’infiniment petit, ce qui leur a valu le prix Nobel de chimie 2014, mais pose bien sûr des problèmes de vitesse et de sensibilité. Cependant, ces méthodes sont très lourdes, impliquent souvent de prendre des centaines d’images pour en reconstruire une seule à la fin ; elles fonctionnent, mais sont loin d’être faciles à utiliser.

Pour essayer de concilier les avantages

Depuis une vingtaine d’années, des technologies hybrides permettent de se rapprocher un peu plus du capteur idéal. C’est le cas notamment des sCMOS, EMCCD et ICCD qui combinent résolution (5 Mpx pour les meilleures), vitesse (200 i/s au mieux) et sensibilité (seuil autour de 10 photons). Il reste bien sûr un inconvénient majeur : ces technologies peuvent atteindre la centaine de milliers d’euros, de quoi faire pâlir les propriétaires d’appareils moyen format !

comprendre les images scientifiquesUne caméra EMCCD utilisée pour imager des atomes uniques.

En conclusion

L’imagerie n’est pas un domaine unifié. Il existe autant de contraintes que d’expériences. En conséquence, de nombreuses méthodes d’imagerie ont été développées pour répondre aux besoins des scientifiques. Bien sûr, la construction de capteurs plus rapides, plus sensibles, plus résolus et plus larges en bande est un sujet de recherche encore très actif.

En attendant le capteur idéal, on n’a pas d’autre choix que d’hybrider les méthodes existantes, et donc de multiplier les capteurs. De cette manière, on peut adapter la machine à chaque nouvelle mesure. C’est le cas du télescope Hubble qui embarque à lui seul 4 caméras visibles (1 très résolue, 1 très sensible, 1 très grand champ, 1 spécialement conçue pour regarder le Soleil), 1 spectrographe ultraviolet, 1 téléphoto visible-UV et 1 caméra infrarouge.

Eric Magnan
Eric Magnan

Physicien, spécialiste en optique atomique diplômé de l'Institut d'Optique et de l'ESPCI ParisTech. Il est aussi passionné de photo de mode et passe le plus clair de mon temps libre derrière mon reflex ! Ses publications