jmarcio a écrit :
Bon... Je me lance...
Mon calcul raccourci est correct aussi bien pour des images en couleurs que noir et blanc. C'est le raisonnement de JICi qui n'est pas exact, mais il fait bien de rappeler que ce genre de détail existe.
Il est vrai qu'il existe des détails de bas niveau que l'on peut s'intéresser, mais les fabricants font le nécessaire pour les rendre transparents de façon à ce qu'un photographe n'ait pas besoin d'avoir un doctorat en informatique plus electronique plus traitement d'image pour faire des bonnes photos.
C'est quoi un "pixel" ? Le mot vient de la contraction de "picture element" : un element de base d'une image (disons un point) auquel sont associés les composantes de couleur : rouge, vert et bleu (des représentations autres que RGB existent). Un image monochrome est un cas particulier de l'image couleur, où les trois composantes RGB ont la même valeur.
Physiquement, un capteur est constitué de "photosites", qui sont des unités spécialisés selon la couleur (R, G ou B). Il y a plusieurs façons de disposer ces photosites : une matrice triviale (trois photosites par pixel), la matrice de Bayer (la plupart des capteurs), la matrice des appareils Fuji depuis XPro-1, nid d'abeille (hexagones), ...
Si on remonte au niveau de l'appareil photo...
Prenons, p. ex., un D800 qui est ce que j'ai en numérique. Il possède 36,3 Mpixels. Que l'on prenne des photos en noir et blanc ou en couleurs, l'image fournie aura comme dimensions (7.360 × 4.912) pixels. C'est le logiciel embarqué qui s'occupe de gérer tout ça. Le nombre de photosites est, évidement, bien supérieur à 36,3 millions. De façon similaire, si dans l'interface de votre scanneur vous choisissez une définition de 2400 points par pouce, une image de 1 pouce par 1 pouce aura bien 5,76 millions de pixels. Peut importe la technologie qui est derrière ni s'il s'agit d'une image en couleurs ou noir et blanc.
Des raisonnements similaires existent pour l'affichage à l'écran ou tirage dans des imprimantes.
Les fabricants, heureusement, font le nécessaire pour rendre cela transparent pour que l'on puisse raisonner de façon homogène en termes de définition. Le métier de photographe est de faire des bonnes photos sans avoir besoin de maitriser tout ça.
Après... je parlait de "qualité de chaque pixel, et c'est un autre sujet". Et là, effectivement... La fidélité de représentation de l'image dépend d'un tas d'autres choses : taille du capteur (FF, APS-C, ...), taille du photosite, sensibilité au bruit, type de matrice, présence de filtres, optiques, ...
Si quelqu'un veut apporter des précisions...
C'est là que vous vous trompez : votre D800 comporte 36.3 Millions de photocites (éléments sensibles à la lumière)
AU TOTAL, disposés selon les principes de la matrice de Bayer. Donc votre D800 génère une vraie couche Bleue de 9.1 Mpixels, une vraie couche Rouge de 9.1 Mpixels et une couche verte de 18.2 M pixel pour arrondir à la virgule. Pourtant, au final vous aurez trois couches RVB de 36.3 Mpixel... Magie ?
Je ne sais pas, puisque vous avez l'air d'être un grand expert de l'imagerie numérique, si vous avez déjà vu des couches RVB débayerisées d'une image RAW produite par un DSLR comme le votre. C'est drôle à voir et c'est là qu'on comprend qu'un appareil numérique, quel qu'il soit invente les 2/3 de l'information présente sur la couche Bleue et la couche Rouge (sauf capteur Fovéon par exemple qui a une structure particulière, pour les capteurs Fuji, on reste dans une architecture proche de Bayer malgré la forme des photocites). Il le fait en général très bien mais il invente... Donc pour la résolution réelle et donc pour la véritable résolution, on repassera surtout à comparer avec un scanner équipé d'un capteur CCD trilinéaire, courant dans le commerce qui expose par balayage chacune des couches consécutivement puisque son capteur comporte une rangée de photocites Rouges, une de Verts et une de Bleus. Plus de matrice de Bayer, plus de trous dans les couches et d'information à rafistoler, rien que trois vrais couches qui ont le bon nombre de Pixels à partir d'une vraie information produite par un vrai photocite qui a balayé la surface de votre émulsion.
Concernant le RVB ou le Noir et Blanc, en l'occurrence je ne vois pas ce que ça change, hormis capteurs monochromes comme sur les Leica, le gris est généré à partir des 3 couches RVB... Dont je viens d'expliquer la génèse à partir d'une matrice de Bayer...
On peut avoir deux images ayant sur le papier la même définition, pour reprendre l'exemple que vous prenez 7360x4912 pixels mais avoir une résolution bien différente selon le procédé électronique qui a permis de la générer (et hors de toute considération optique).
Les fabricants font le nécessaire pour rendre cela transparent ? Ah bon ? Alors pourquoi annoncent-ils 36.3Mpixels pour votre Nikon alors qu'ils devraient donner au mieux un 18.2 Mpixels de VRAIE définition de la meilleure couche (déjà pixels est à mon sens un contresens, ils devraient parler de photocites) ?
Désolé de ne pas avoir répondu plus tôt, décalage horaire oblige...
PS : le ton condescendant dans votre réponse n'était pas nécessaire, je vous aurais tout aussi bien expliqué si vous l'aviez demandé en toute humilité.