Les capteurs numériques

Lorsqu’on pense à une image numérique, on imagine le plus souvent une image à 2 dimensions en échelle de gris ou en couleurs telle que les produisent les appareils photo numériques, les webcams, les scanners, etc… Ce concept d’image matricielle est celui qui va nous occuper dans le cadre de cours car ce type d’image est celui de la grande majorité des documents photographiques qui sont utilisés dans le domaines des sciences du vivant.

Il existe deux technologies de capteurs d’images couramment utilisées dans les caméras et les appareils photo numériques: les capteurs CCD (Charge-Coupled Device) et les capteurs CMOS (Complementary Metal-Oxide-Semiconductor). Les capteurs CCD sont généralement considérés comme ayant une meilleure sensibilité à la lumière et une meilleure performance en faible luminosité par rapport aux CMOS. Cela les rend adaptés à des applications telles que l’astronomie et la microscopie en fluorescence. Les CCD sont plus complexes à fabriquer en raison de leur architecture multi-composants. Les CMOS ont historiquement eu une sensibilité à la lumière légèrement inférieure à celle des CCD, mais les avancées technologiques tendent à réduire cette différence. L’un des avantages des CMOS, outre leur coût de fabrication plus faible, est qu’ils ont des taux de lecture plus élevés que les CCD, ce qui les rend adaptés à des applications telles que la vidéo haute vitesse et l’imagerie en continu.

<strong>Capteur CCD</strong> <strong>Capteur CCD</strong>

Capteur CCD

Bien qu’ils présentent des différences en termes de conception et de fonctionnement, ces capteurs ont le même objectif principal : convertir la lumière en signaux électriques pour capturer des images numériques.

Les capteurs les plus courants sont conçus pour collecter l’information de photons émis dans la gamme visible (de ~380 nm à ~780 nm). Pourtant, les photodiodes qui composent ces capteurs sont sensibles à des longueurs d’onde qui vont bien au-delà de la gamme visible. Ainsi, les photodiodes au silicium, qui sont les plus utilisées, ont une gamme de sensibilité qui s’étend de ~200 nm à ~1100 nm, soit de l’ultra-violet (UV) au proche infra-rouge (IR). Les capteurs sont des matrices de photodiodes, chaque photodiode collectera l’information traduite in fine dans un pixel de l’image digitale.

Capteurs “RGB”

Puisque les photodiodes elles-mêmes ne peuvent distinguer les couleurs, la production d’images en couleurs est donc le plus souvent obtenue en utilisant des capteurs dits “RGB” (red, green, blue) dont les photodiodes sont surmontées d’une matrice de filtres pour chacune de ces 3 couleurs: la matrice de Bayer.

<strong>Illustration d&rsquo;une matrice de Bayer</strong>. Elle est constituée à 50
% de filtres verts, à 25 % de filtres rouges et à 25 % de filtres
bleus. <strong>Illustration d&rsquo;une matrice de Bayer</strong>. Elle est constituée à 50
% de filtres verts, à 25 % de filtres rouges et à 25 % de filtres
bleus.

Illustration d’une matrice de Bayer. Elle est constituée à 50 % de filtres verts, à 25 % de filtres rouges et à 25 % de filtres bleus.

Pour obtenir une image dans laquelle chaque pixel contient l’information des 3 couleurs de base permettant de reconstituer le visuel de l’objet capturé, une étape supplémentaire d’interpolation, appelée dématriçage, est nécessaire. Celle-ci consiste généralement à définir pour chaque pixel les valeurs de couleur manquantes par interpolation avec les données des pixels voisins. La plupart des images produites par des caméras sont donc déjà une interprétation de la réalité. De nombreux algorithmes de dématriçage existent, chacun pouvant avoir un impact différent sur la qualité de l’image produite. C’est la raison pour laquelle certaines caméras permettent de récupérer les données brutes générées par le capteur, avant toute opération de dématriçage ou autres calibrations: les fichiers contenant ces données sont appelés “Fichiers Raw”.

Caméras hyperspectrales et multispectrales

Certaines parties du spectre électromagnétique en dehors de la région du visible sont très utiles en analyse d’images. Partant du principe que les molécules qui composent la matière vivante interagissent avec la lumière de manière très variable en fonction de leur nature et des longueurs d’onde reçues (absorption, réflexion, diffraction), il est possible d’utiliser certaines bandes de longueurs d’onde pour évaluer le contenu en certains métabolites ou molécules, ou pour évaluer l’état physiologique des plantes suite à des stress biotiques ou abiotiques (voir Sarić et al. 2022 pour approfondir ce sujet). Les régions du proche (NIR) et du moyen infra-rouge (MIR ou SWIR) sont ainsi très utilisées. Ces gammes de l’IR sont utilisées pour l’analyse de la composition chimique des échantillons biologiques, tels que la quantification des niveaux de lipides, de protéines et d’hydrates de carbone dans les tissus et les cellules. Au niveau agronomique, l’analyse NIR est couramment utilisée pour évaluer la qualité des cultures, notamment le statut hydrique des plantes. Le MIR peut être utilisé pour étudier la composition des sols, des nutriments, des pesticides et des contaminants dans l’agriculture.

Gamme du spectre électromanétique utile à l&rsquo;analyse d&rsquo;images
d&rsquo;objets biologiques. NIR, near Infra-Red; SWIR, short-wave IR; LWIR,
long-wave
IR Gamme du spectre électromanétique utile à l&rsquo;analyse d&rsquo;images
d&rsquo;objets biologiques. NIR, near Infra-Red; SWIR, short-wave IR; LWIR,
long-wave
IR

Gamme du spectre électromanétique utile à l’analyse d’images d’objets biologiques. NIR, near Infra-Red; SWIR, short-wave IR; LWIR, long-wave IR

Remarque

Il est important de noter que les données issues des analyses hyperspectrales nécessitent des traitements statistiques ou l’usage des techniques modernes de machine learning et deep learning afin d’établir une corrélation entre le signal mesuré et l’élément ou le statut que l’on souhaite caractériser dans l’échantillon analysé.

Les caméras hyperspectrales utilisent souvent des capteurs CCD ou CMOS spécialement conçus pour enregistrer la lumière sur une gamme de longueurs d’onde beaucoup plus large que celle des capteurs RGB standard. Ces capteurs sont dotés de filtres dispersifs ou de prisme qui permettent de séparer la lumière incidente en différentes longueurs d’onde.

Les capteurs hyperspectraux capturent généralement une série d’images, chaque image correspondant à une bande spectrale étroite à l’intérieur de la gamme de longueurs d’onde souhaitée. Ces images spectrales sont ensuite combinées pour former un cube de données hyperspectrales (on parle d’hyper-cube), où chaque pixel contient une valeur spectrale pour chaque longueur d’onde.

Exemple d&rsquo;image hyperspectrale acquise à partir d&rsquo;une feuille. (a)
Pile de sous-images à bande étroite formant un hypercube 3D ; (b)
spectre de réflectance d&rsquo;un pixel particulier.(Source: <a href="https://doi.org/10.1016/j.biosystemseng.2017.09.009" target="_blank">Mishra et
al. (2017)</a>) Exemple d&rsquo;image hyperspectrale acquise à partir d&rsquo;une feuille. (a)
Pile de sous-images à bande étroite formant un hypercube 3D ; (b)
spectre de réflectance d&rsquo;un pixel particulier.(Source: <a href="https://doi.org/10.1016/j.biosystemseng.2017.09.009" target="_blank">Mishra et
al. (2017)</a>)

Exemple d’image hyperspectrale acquise à partir d’une feuille. (a) Pile de sous-images à bande étroite formant un hypercube 3D ; (b) spectre de réflectance d’un pixel particulier.(Source: Mishra et al. (2017))

Les caméras multispectrales disposent de capteurs qui sont équipés, quant à eux, de filtres qui permettent de capturer uniquement certaines bandes spectrales prédéfinies plutôt que l’ensemble du spectre. Ils enregistrent donc des images dans plusieurs bandes spectrales spécifiques. Chaque image représente une bande spectrale différente, généralement centrée sur des longueurs d’onde d’intérêt pour une application particulière.

Ètendre la gamme…

D’autres technologies permettent de détecter des ondes électromagnétiques dont les longueurs d’onde sont inférieures à celles de l’UV: les rayons X (~ 0.1 nm) et les rayons gamma (~ 1 pm). Cela sort du contexte de ce cours et certaines applications en imagerie médicale notamment sont bien connues (radiographie, etc…). Retenez néanmoins que des applications qui utilisent cette partie du spectre existent aussi dans d’autres domaines des sciences du vivants: il est par exemple possible d’analyser le système racinaire de plantes cultivées dans du sol par tomographie aux rayons X (Voir par exemple Teramoto et al. (2020))