Bonjour Biglou. Concernant ta question, j'avais rédigé un début de réponse
, qui, je l'espère, te sera satisfaisante.
Aniki a écrit :
J'aime bien ce genre de débat, il y a de tout dans les réponses pour expliquer la sensibilité d'un capteur ou d'un tel capteur. Et parfois des réponses très intéressantes. Du coup, je viens mettre mon grain de sel
J'ai été choqué que personne ne parle (ou alors sans le nommer) du
CAN, ou
"Convertisseur Analogique Numérique". Comme JMS l'a écrit, c'est surtout là-dedans que se fait toute la cuisine RAW, et les variations de recettes d'une marque à l'autre justifie toutes les différences de rendue. [C'est ainsi que, hors implications optiques, le capteur du Leica X1 ne produit pas les mêmes images que celui du Nikon D300... alors que c'est le même capteur.]
Comme son nom l'indique, le CAN est celui qui va aller lire l'information analogique issue des photosites du capteur, ces informations étant des charges électriques. La manière de "lire" dépend de la nature même du capteur :
- s'il s'agit d'un CCD, cette lecture est faite de manière séquentielle, ligne après ligne, colonne après colonne (c'est d'ailleurs pour ça qu'on parle de "ligne de décharge" ou de "bande de décharge"). C'est cette relative lenteur, qui oblige à tout lire dans l'ordre, qui empêche par exemple l'implémentation d'une visée LiveView sur tous les boîtiers à capteurs CCD (sauf cas d'utilisation d'un capteur secondaire et dédié).
- s'il s'agit d'un CMOS, cette lecture est faite de manière indexée, donc l'information peut être prise sur n'importe quel photosite (ce qui permet et le Liveview, et la vidéo).
Cette étape s'appelle
échantillonnage, puisque le CAN va aller piocher des "échantillons". J'en profite d'ailleurs pour corriger l'erreur commune qui est de parler d'un "échantillonnage sur 14 bits", qui est un absolu non sens, et une grave faute te vocabulaire technique. Il faut pour cela parler de "quantification sur 14 bits", n'en déplaise à la formulation erronée présente sur 95% des fiches techniques (même dans les revues sérieuses !).
On parle souvent de différence de sensibilité native entre les capteurs CMOS et les capteurs CCD. Dans l'absolu, il n'y a pas de solution plus performante que l'autre, tout dépend de l'instant
t auquel est effectuée la comparaison. Je tiens aussi à préciser que, non, le CMOS n'est pas moins performant que le CCD en ce qui concerne les rayons incidents très inclinés (contrairement à ce que raconte Leica en ce qui concerne le CCD du M8, puis du M9). Dans chaque cas, il faut voir le capteur comme un énorme sandwich accompagné de son mode d'emploi : on ne peut pas juger les performances d'un capteur sur les seuls nombre et dimensions de ses photosites. Il faut, en plus, prendre en compte le réseau de micro-lentilles, la technologie utilisée pour les lignes de décharges, le firmware du CAN, les différentes filtres (passe haut, passe bas, passe à droite, passe à gauche, passe pas les IR, tout ça tout ça), et l'usage d'une technologie exotique (type "Super CCD" chez Fujifilm).
Le CCD est historiquement plus ancien (mais ça, on s'en fout un peu). Sa particularité est d'utiliser la totalité de la surface du photosite. Le CMOS, lui, n'utilise que 75% de la surface du photosite (donc 75% de la surface du capteur, ce qui implique une perte énorme !). Or, c'est bien connu, plus la surface photosensible est grande, plus la sensibilité est élevée. Les 25% "aveugles" des CMOS est dû au fait que cette partie est utilisée comme "transistor". C'est cette partie aveugle qui, du coup, permet la lecture indexée (donc "aléatoire"), mode de lecture qui fait la force du CMOS. Le surcroît de sensibilité est donc essentiellement logiciel, à superficie et nombre de photosites égaux !
Tant que j'en suis à parler de physique su capteur, j'aimerais dire une chose : actuellement,
95% des capteurs CCD sont Full Frame, et aucun capteur CMOS n'est Full Frame. Par contre,
il existe des capteurs Full Format en CCD et en CMOS. Au même titre que ce que je disais plus haut par rapport à la confusion des termes
échantillonnage ≠ quantification, cette confusion
Full Frame ≠ Full Format ≠ Plein Cadre ≠ Plein Format provient d'une facilité "marketing", qui au-lieu d'aller chercher plus loin la signification d'une technologie, préfère comprendre ce qu'elle veut bien comprendre et lui paraît le plus vendeur. Ainsi,
un capteur Full Frame n'est pas un capteur aux dimensions égales à celles d'une image 24x36. Un capteur Full Frame est un capteur dont les pistes de décharge passent derrière le capteur, alors qu'avant elles passaient devant, entre les photosites. De fait, dans l'ancienne technologie, une partie certaine de la surface du capteur était aveugle, les pistes de décharge n'étant pas photosensibles. Avec ses pistes qui passent derrière, un CCD devient ainsi Full Frame, puisque toute sa surface est utilisée pour capteur la lumière. Un CMOS, par essence, ne peut pas être Full Frame puisque 25% de sa surface a une fonction de transistor. Ce petit coup de gueule étant passé, hop, la suite
Au niveau physique, la sensibilité peut être accrue par le réseau de micro-lentilles. Les Leicaistes que nous sommes connaissent bien cela, puisque la marque a énormément communiqué sur le nécessité et la difficulté de sa mise en place pour redresser les rayons périphériques vraiment trop inclinés (les photosites aiment l'orthogonalité). Mais en plus de la simple fonction de redressement, ces micro-lentilles servent aussi de collecteurs de lumière.
En effet, la fine paroi de silicium entre deux photosites a une épaisseur non nulle. Epaisseur non nulle qui, ramenée à la totalité du capteur, implique qu'un pourcentage constant de sa surface est aveugle : tous les rayons tombant sur ces parois ne servent à rien à l'élaboration de l'image (pire, ils peuvent en dégrader la qualité !). C'est là qu'interviennent les micro-lentilles : elles servent de collecteur, comme le dôme à la sortie de la Station St-Lazare permet d'optimiser la luminosité du "hall". Je n'y connais rien en architecture, mais je suppose qu'un dôme est plus efficace qu'un simple toit plat transparent pour collecteur la lumière (j'espère que Coignet confirmera, sinon j'ai l'air con). Ce sont ces micro-lentilles qui ont beaucoup fait parler d'elles lors de la sortie du D3s : leur amélioration a permis d'augmenter la sensibilité du bousin. La modification de leur structure (désormais il y a moins d'espace perdu entre les lentilles) a conduit à une diminution très importante du nombre de ces "rayons inutiles perdus dans la nature" (si je pouvais dessiner, ce serait vachement plus pratique).
Voici une illustration (Canon) pour donner un sens à tout ça :
© Focus NumériqueUn autre tour de passe-passe permet d'accroître encore un petit peu la sensibilité d'un capteur (en fait, on optimise plutôt la quantité de lumière que peut recevoir un capteur). Nous savons tous qu'un filtre, c'est joli, mais qu'un filtre, ça diminue de manière sensible la quantité de lumière qui parvient au final sur la surface photosensible. Le
filtre de bayer n'échappe pas à cela. Du coup, pour optimiser encore un peu le rendement lumineux, on peut
éclaircir très légèrement ce filtre, histoire de gagner un diaph (ce qui est déjà énorme). Mais on y perd en saturation des couleurs. C'est ce qui s'est passé, entre autres, lors du passage du 5D au 5D Mk II [mais Dido en parlera mieux que moi].
J'ai presque fini de faire le tour du propriétaire, et je pourrais encore vous parler de plein de choses. Par exemple, on pourrait évoquer la question du bruit, qui n'existe pas (ou pas sous la même forme) en argentique, et qui s'avère centrale, puisque c'est lorsque le bruit montre trop qu'on commence à se dire qu'on va en chier dans les hautes sensibilités. Je vais donc faire un petit rappel sur le bruit.
Le bruit, c'est le côté obscur du rapport signal/données. En photographie numérique, il y a TOUJOURS du bruit. Mais la plupart du temps il se corrige parce qu'il est connu et mesurable.
Il existe trois sortes de bruit :
- le bruit systématique, est le bruit propre à chaque capteur. A la fin de sa fabrication et de son découpage du Wafer, chaque capteur est testé, mesuré, et les aléas de la production industrielle font forcément qu'il existe des imperfections par rapport au schéma initial. Pour chaque capteur, donc, est établi une sorte de carte de performances, qui va détecter les photosites un peu plus efficaces que d'autres, ou au contraire un peu moins, et intégrer tout cela dans le CAN qui sera associé au capteur. [Chaque paire est unique et totalement indissociable !] Ces différences entre photosites sont très importants lors de la quantification.
Ah, du coup, il faut que je vous parle de quantification (et non pas d'échantillonnage). Cette étape est essentielle, et c'est d'elle dont on parle lorsqu'on se demande si son boîtier fait du 8 bits, du 12 bits, du 14 bits, du 16 bits, etc... [Et si vous avez l'âme d'un mercatique, vous direz 24 bits, 36 bits, 42 bits ou 48 bits... ce qui, en fait, en RAW, est un pur non-sens.] C'est cela qui va déterminer la manière dont votre CAN va découper l'information analogique issue des photosites.
Si votre boîtier travaille en 8 bits, il va ainsi découper les informations de chaque photosite en 256 valeurs (2^8), de la valeur 0 à la valeur 255. S'il travaille en 12 bits, ce découpage se fait en 4096 valeurs (2^12). Et s'il fait du 14 bits, bah, ça vous fait le joli nombre de 16384 valeurs... Et là, on ne parle que pour une seule couleur ! [Revoir le Filtre de Bayer un peu plus haut.] Alors, imaginez lorsque ce nombre est élevé au cube lors du dématriçage, et vous comprendrez beaucoup mieux pourquoi le M9 est plus nuancé, plus riche et plus suave que le M8. Et vous comprendrez mieux pourquoi je râle tout le temps, lorsque je vois que ce passage de 8bits à 14 bits est exclu des conversations sur Summilux, au détriment de la petite encoche sur le bord du capot (très important), et surtout au passage au "Full Format"...
La manière de quantifier est propre à chaque constructeur, et chacun fait sa sauce. Mais je n'ai qu'une remarque à faire : regardez Canon, qui fabrique ses propres capteurs ; regardez Nikon, qui fait fabriquer ses capteurs par Sony (sur des machines fournies par Nikon) ; regardez Leica qui se fournit chez Kodak... Regardez.
Cette parenthèse sur la quantification étant achevée, vous comprenez peut-être mieux les enjeux de l'évaluation et de la correction du bruit systématique. C'est un bruit issu de l'imperfection physique intrinsèque du capteur. Et comme celui-ci tient bien dans le temps (le silicium, c'est plutôt costaud), on considère que la correction à effectuer le jour de la mise en service sera toujours valable trois ans plus tard. Magique.
- le bruit d'obscurité : c'est lui qui explique l'étonnement que l'on peut avoir à la lecture de la fiche technique d'un boîtier, et l'incompréhension sur l'existence du "nombre de pixel réels" et sur celui du "nombre de pixels effectifs". Mais mon dieu, qu'est-ce donc, ce serait ton fichu de nous, en nous vendant à prix d'or des capteurs dont des pixels ne marchent pas ? Remboursez, remboursez, remboursez les invitations !
Rassurez-vous, il y a une explication à cela.
Le capteur est un dispositif électrique. Il faut donc de l'électricité pour le faire fonctionner. Le problème, c'est que c'est aussi un dispositif photosensible, qui a la capacité de convertir une information électromagnétique (la lumière) en électricité... Or, c'est cette électricité là que l'on mesure, et pas l'autre. [Cette remarque est valable pour le bruit systématique également, et je vous prie de me pardonner de ne pas l'avoir évoquée plus tôt.] Lorsque vous photographiez du noir (ce qui arrive souvent avec un M8 quand on oublie d'enlever son bouchon), il y a quand même du bruit. Et ce bruit est presque toujours le même. Les ingénieurs ont donc étudié le problème, et ont constaté que ce bruit, de manière statistique, était le même sur tous les photosites. Il suffit donc, lors de la prise de vue, d'avoir des photosites qui ne voient pas la lumière, mesurer leur niveau de bruit, en effectuer une moyenne, et soustraire ce bruit dans les photosites qui composent l'image désirée. Easy.
C'est donc ici que son passés nos fameux pixels "réels, mais pas effectifs" : si vous regardez bien un capteur, vous verrez que tout autour, il y a un masquage noir. Dessous, il y a des photosites qui ne voient jamais la lumière, mais dont le rôle est de mesurer, à chaque prise de vue, le fameux bruit d'obscurité.
- le bruit aléatoire : Si les deux bruits précédents sont faciles à corriger de par leur récurrence mesurable et "prévisible", le bruit aléatoire fait chier tout le monde. Une manière efficace de le conceptualiser est de voir un photosite comme un sceau (pour aller à la plage), et de voir les électrons comme des grains de sables. A chaque fois qu'on prend une photo, on remplit le sceau de sable , puis on le vide (c'est l'échantillonnage), puis on mesure la quantité de sable qu'il y avait dans le sceau (c'est la quantification). Le problème... c'est qu'il reste peut-être un peu de sable au fond du sceau. Et impossible de savoir si ce sable là est un résidu de cette prise de vue précise, ou d'une prise de vue précédente, ou d'une accumulation... Donc impossible de savoir à qui appartient cette charge électrique résiduelle. C'est cet aléa qui fait que, en photographiant une surface unie, on ne parvient pas à obtenir des pixels parfaitement égaux sur toute la surface.
Pour réduire le bruit aléatoire, comme partout en informatique, on peut agir à deux niveaux : au niveau hardware, et au niveau software.
Au niveau hardware, le défi est de concevoir des photosites les plus réguliers possibles, qui permettront une meilleur collecte des charges électriques. Canon dispose d'une technologie assez géniale en la matière : au fond du photosite, un petit canal de drainage est creusé, légèrement en pente, jusque dans un petit puit secondaire (même principe qu'un hygromètre en fait), dans lequel on pourra mesurer de manière plus précise la charge électrique résiduelle. C'est merveilleux. [Et en plus, on peut considérer que c'est auto-nettoyant.]
Au niveau du software... ah, au niveau du sofwtare. C'est l'étape suivante de la grande aventure de la sensibilité du capteur.
Le software, c'est tout un drame.
Entre le firmware qui contrôle le CAN, le firmware qui contrôle le DSP, le logiciel de "dérawtisation" utilisé par l'opérateur, l'ordinateur utilisé, la compatibilité, tout ça, tout ça, c'est un beau bordel. Du coup, je vais éluder totalement la question en disant que, de toute manière, à boîtier identique, les procédés et habitudes d'élaboration de l'image finale jusqu'au tirage sont tellement subtilement différents d'un individu à l'autre, qu'au final, même si les bases techniques objectives sont les mêmes, il y a trop de subjectivité là-dedans. [Par exemple, si ça se trouve, on obtiendra avec un DNG pris à 1250 ISO au M8 aujourd'hui une "texture" égalant celle des 160 ISO aujourd'hui.]
Pour ce qui est de la sensibilité pure du capteur, et c'est là que vous allez me reprocher "tout ça pour ça", on n'a pas vraiment d'autre choix que de faire confiance aux constructeurs : seule la sensibilité native compte. C'est celle du silicium, améliorée de certains nombres de technologies. Tout comme l'AgBr avait une sensibilité que venaient améliorer sa structure cristalline et les cyanines.
Ensuite, il pourrait y avoir un débat en ce qui concerne la préférabilité d'une sensibilité native haute (200 ISO pour les Nikon), basse (100 ISO pour les Canon, voire 50 ISO pour les capteurs Kodak des Blad), en racine cubique de deux (160 ISO pour Leica), etc, etc. Toutes les autres sensibilités, c'est de l'extrapolation.
Et, oui :
toutes les photos sont prises à la sensibilité native. Même les photos prises à 6400 ISO. Tout, tout, tout, vient du travail effectué sur le rapport
signal-bruit.
En fait, lorsqu'on prend une photo à une sensibilité supérieur ou inférieur à la sensibilité native du capteur, on lui indique plusieurs choses :
- On lui demande d'ajuster le couple "diaphragme - vitesse" en fonction de la sensibilité, ce qui est la base de la photographie.
- On lui demande d'indiquer dans la partie "side-car" du RAW la sensibilité à laquelle la photo a été prise.
- Cette indication va servir d'abord au CAN, qui, sur une sorte de courbe HD connue, va savoir comment lire, où aller chercher les informations, comment les interpréter, et surtout, comment les amplifier.
- Faciliter le travail du logiciel de dématriçage.
Si vous voulez, si vous avez du temps, vous pouvez vous amuser à vous mettre en manuel, à 160 ISO, prendre une photo. Puis sans toucher aux réglages, augmenter la sensibilité, reprendre une une photo. Et ainsi de suite. Puis tenter de tout développer de sorte à obtenir un rendu équivalent. Dans la théorie, c'est possible. Mais bon, pourquoi se casser le cul, alors que le firmware fait ça tellement mieux (et tellement plus vite) que nous ?
[J'espère n'avoir endormi personne, et vous remercie de m'avoir lu jusque là.
]