M9, traitement d'image dans le boîtier

Biglou
    M9, traitement d'image dans le boîtier
Messages : 66
Depuis le 1 sep 2007
Bonjour,
L'un d'entre vous saurait il pour quelle raison les boitiers numériques effectuent un pré traitement de l'image alors que de toute façon elle sera transférée sur un ordinateur fait pour cela ?
Le boitier pourrait se contenter de s'occuper du réglage iso et pourquoi pas de la détection de l'objectif en laissant tout le reste à l'ordinateur et à un logiciel dédié.
Cela résoudrait peut être les problèmes de lenteur relative du M9

Merci pour vos observations et réfutations
Biglou
wceide
Avatar de l’utilisateur
Régulier
Messages : 151
Depuis le 14 août 2009
Paris
C'est le principe du format raw.

Le traitement par le boîtier concerne la production des jpeg.
JMS
Avatar de l’utilisateur
Messages : 619
Depuis le 14 nov 2006
78980 NEAUPHLETTE
Il y a beaucoup de situations en reportage pro comme en photos de vacances...où le client veut des photos tirables tout de suite sans passer par l'ordinateur; donc les appareils doivent proposer les deux options, mais sur un M9 il suffit de sélectionner DNG et rien d'autre pour n'avoir pas de JPG sur la carte, où est le problème ?
Odi
Régulier
Messages : 184
Depuis le 19 mars 2010
Aveyron
wceide a écrit :
C'est le principe du format raw.

Le traitement par le boîtier concerne la production des jpeg.



C'est vrai mais même les raw sont maintenant un peu traités (notamment pour le bruit).

ceci dit je ne connais pas l'ampleur du traitement du raw avant enregistrement sur le M9
Jmichel33
Avatar de l’utilisateur
Régulier
Messages : 144
Depuis le 8 nov 2007
Euskadi
La raison essentielle est que le signal en sortie de capteur est toujours analogique et qu'il est donc nécessaire de "numériser" l'image pour pouvoir la "développer" pour reprendre avec facilité une analogie avec l'argentique.

Ce traitement conduit, non seulement à des formats de fichiers différents (encore que le format d'Adobe DNG a l'air petit à petit de s'imposer), mais aussi à une accentuation nécessaire qui n'aboutira pas aux mêmes rendus il me semble, en fonction de la technologie de capteur employée.

Un fichier RAW est donc issu du traitement analogique/numérique propre à chaque marque et à chaque boîtier, il est inutilisable sauf à utiliser un ordinateur et grâce à des logiciels tels que Lightroom, Aperture, Camera raw, Bibble, DxO, CaptureOne.... procéder à sa "dérawtisation"

Pour le format JPEG c'est un fichier utilisable immédiatement, mais les capacités à traiter ce fichier sont plus faibles et assez destructrices.

Mais l'organe essentiel est le capteur !

Ainsi, si je mets de côté le rendu "Leica" qui me semble incomparable, et sans doute aussi, mais pour d'autres raisons celui issu du capteur Fovéon installé sur les Sigma, je trouve que Nikon gère très mal la couleur, et que Canon est sans doute trop saturé à mon goût - ceux à qui cela plaît disent que c'est "suave"....

On discute à longueur de temps de tel capteur au nombre de millions de pixels ou de telle ou telle sensibilité record (100 000 isos !) et on perd de vue ce qui ne se mesure pas autrement qu'avec les yeux.

Indubitablement le marketing est passé et continue de passer par là, mais si l'on admet qu'en argentique, le choix de la pellicule est essentiel (certes, ne mettons pas de côté le tirage....), il semble qu'en numérique cela le soit tout autant et ce d'autant qu'on y associera une optique pas nécessairement conçue pour encaisser l'extrême précision de l'image numérique.
"L'Objectif Leica 50mm Summilux est la preuve vivante que Dieu nous aime et veut notre bien"
JMS
Avatar de l’utilisateur
Messages : 619
Depuis le 14 nov 2006
78980 NEAUPHLETTE
Le format DNG couvre à peu près 3 à 4% du marché, ce n'est pas cela que l'on peut nommer "s'imposer". Le problème du DNG c'est qu'il n'est en rien universel comme un JPG, tous les logiciels ne le traitent pas de façon identique à l'ouverture, et pour retrouver les réglages de l'appareil il faut que le logiciel possède le profil de la marque, on retrouve donc un fichier quasiment "propriétaire".
Jmichel33
Avatar de l’utilisateur
Régulier
Messages : 144
Depuis le 8 nov 2007
Euskadi
JMS a écrit :
Le format DNG couvre à peu près 3 à 4% du marché, ce n'est pas cela que l'on peut nommer "s'imposer". Le problème du DNG c'est qu'il n'est en rien universel comme un JPG, tous les logiciels ne le traitent pas de façon identique à l'ouverture, et pour retrouver les réglages de l'appareil il faut que le logiciel possède le profil de la marque, on retrouve donc un fichier quasiment "propriétaire".


Certes, mais tu ne peux pas comparer un fichier compressé jpeg avec un fichier "raw" qui suivant les fabricants (.nef chez Nikon) n'est pas exploitable sauf à posséder le logiciel qui va avec, le format DNG précisément qui n'est pas attaché à une marque en particulier, DEVRAIT être considéré comme commun, à défaut d'être "universel" au même titre que .jpg. C'est d'ailleurs le choix de Leica.
Il en va, je pense, de la pérennité de ces fichiers... et surtout à terme, de pouvoir être lus.
Personnellement, je ne sauvegarde pas mes fichiers en jpeg.... mais bien en raw, soit effectivement en .dng, considérant - peut-être à tort - que le format d'Adobe est sûrement ce qui a une chance de durer un peu.... en tous les cas, mieux qu'un .nef par exemple.
"L'Objectif Leica 50mm Summilux est la preuve vivante que Dieu nous aime et veut notre bien"
Aniki
Avatar de l’utilisateur
Spécialiste
Messages : 2162
Depuis le 16 mars 2008
Montreuil
Bonjour Biglou. Concernant ta question, j'avais rédigé un début de réponse ici, qui, je l'espère, te sera satisfaisante. :content:

Et pour ne pas avoir à cliquer, je cite ma réponse :

Aniki a écrit :
J'aime bien ce genre de débat, il y a de tout dans les réponses pour expliquer la sensibilité d'un capteur ou d'un tel capteur. Et parfois des réponses très intéressantes. Du coup, je viens mettre mon grain de sel :content:

J'ai été choqué que personne ne parle (ou alors sans le nommer) du CAN, ou "Convertisseur Analogique Numérique". Comme JMS l'a écrit, c'est surtout là-dedans que se fait toute la cuisine RAW, et les variations de recettes d'une marque à l'autre justifie toutes les différences de rendue. [C'est ainsi que, hors implications optiques, le capteur du Leica X1 ne produit pas les mêmes images que celui du Nikon D300... alors que c'est le même capteur.]
Comme son nom l'indique, le CAN est celui qui va aller lire l'information analogique issue des photosites du capteur, ces informations étant des charges électriques. La manière de "lire" dépend de la nature même du capteur :
  • s'il s'agit d'un CCD, cette lecture est faite de manière séquentielle, ligne après ligne, colonne après colonne (c'est d'ailleurs pour ça qu'on parle de "ligne de décharge" ou de "bande de décharge"). C'est cette relative lenteur, qui oblige à tout lire dans l'ordre, qui empêche par exemple l'implémentation d'une visée LiveView sur tous les boîtiers à capteurs CCD (sauf cas d'utilisation d'un capteur secondaire et dédié).
  • s'il s'agit d'un CMOS, cette lecture est faite de manière indexée, donc l'information peut être prise sur n'importe quel photosite (ce qui permet et le Liveview, et la vidéo).
Cette étape s'appelle échantillonnage, puisque le CAN va aller piocher des "échantillons". J'en profite d'ailleurs pour corriger l'erreur commune qui est de parler d'un "échantillonnage sur 14 bits", qui est un absolu non sens, et une grave faute te vocabulaire technique. Il faut pour cela parler de "quantification sur 14 bits", n'en déplaise à la formulation erronée présente sur 95% des fiches techniques (même dans les revues sérieuses !).


On parle souvent de différence de sensibilité native entre les capteurs CMOS et les capteurs CCD. Dans l'absolu, il n'y a pas de solution plus performante que l'autre, tout dépend de l'instant t auquel est effectuée la comparaison. Je tiens aussi à préciser que, non, le CMOS n'est pas moins performant que le CCD en ce qui concerne les rayons incidents très inclinés (contrairement à ce que raconte Leica en ce qui concerne le CCD du M8, puis du M9). Dans chaque cas, il faut voir le capteur comme un énorme sandwich accompagné de son mode d'emploi : on ne peut pas juger les performances d'un capteur sur les seuls nombre et dimensions de ses photosites. Il faut, en plus, prendre en compte le réseau de micro-lentilles, la technologie utilisée pour les lignes de décharges, le firmware du CAN, les différentes filtres (passe haut, passe bas, passe à droite, passe à gauche, passe pas les IR, tout ça tout ça), et l'usage d'une technologie exotique (type "Super CCD" chez Fujifilm).

Le CCD est historiquement plus ancien (mais ça, on s'en fout un peu). Sa particularité est d'utiliser la totalité de la surface du photosite. Le CMOS, lui, n'utilise que 75% de la surface du photosite (donc 75% de la surface du capteur, ce qui implique une perte énorme !). Or, c'est bien connu, plus la surface photosensible est grande, plus la sensibilité est élevée. Les 25% "aveugles" des CMOS est dû au fait que cette partie est utilisée comme "transistor". C'est cette partie aveugle qui, du coup, permet la lecture indexée (donc "aléatoire"), mode de lecture qui fait la force du CMOS. Le surcroît de sensibilité est donc essentiellement logiciel, à superficie et nombre de photosites égaux !
Tant que j'en suis à parler de physique su capteur, j'aimerais dire une chose : actuellement, 95% des capteurs CCD sont Full Frame, et aucun capteur CMOS n'est Full Frame. Par contre, il existe des capteurs Full Format en CCD et en CMOS. Au même titre que ce que je disais plus haut par rapport à la confusion des termes échantillonnage ≠ quantification, cette confusion Full Frame ≠ Full Format ≠ Plein Cadre ≠ Plein Format provient d'une facilité "marketing", qui au-lieu d'aller chercher plus loin la signification d'une technologie, préfère comprendre ce qu'elle veut bien comprendre et lui paraît le plus vendeur. Ainsi, un capteur Full Frame n'est pas un capteur aux dimensions égales à celles d'une image 24x36. Un capteur Full Frame est un capteur dont les pistes de décharge passent derrière le capteur, alors qu'avant elles passaient devant, entre les photosites. De fait, dans l'ancienne technologie, une partie certaine de la surface du capteur était aveugle, les pistes de décharge n'étant pas photosensibles. Avec ses pistes qui passent derrière, un CCD devient ainsi Full Frame, puisque toute sa surface est utilisée pour capteur la lumière. Un CMOS, par essence, ne peut pas être Full Frame puisque 25% de sa surface a une fonction de transistor. Ce petit coup de gueule étant passé, hop, la suite :lol:

Au niveau physique, la sensibilité peut être accrue par le réseau de micro-lentilles. Les Leicaistes que nous sommes connaissent bien cela, puisque la marque a énormément communiqué sur le nécessité et la difficulté de sa mise en place pour redresser les rayons périphériques vraiment trop inclinés (les photosites aiment l'orthogonalité). Mais en plus de la simple fonction de redressement, ces micro-lentilles servent aussi de collecteurs de lumière.
En effet, la fine paroi de silicium entre deux photosites a une épaisseur non nulle. Epaisseur non nulle qui, ramenée à la totalité du capteur, implique qu'un pourcentage constant de sa surface est aveugle : tous les rayons tombant sur ces parois ne servent à rien à l'élaboration de l'image (pire, ils peuvent en dégrader la qualité !). C'est là qu'interviennent les micro-lentilles : elles servent de collecteur, comme le dôme à la sortie de la Station St-Lazare permet d'optimiser la luminosité du "hall". Je n'y connais rien en architecture, mais je suppose qu'un dôme est plus efficace qu'un simple toit plat transparent pour collecteur la lumière (j'espère que Coignet confirmera, sinon j'ai l'air con). Ce sont ces micro-lentilles qui ont beaucoup fait parler d'elles lors de la sortie du D3s : leur amélioration a permis d'augmenter la sensibilité du bousin. La modification de leur structure (désormais il y a moins d'espace perdu entre les lentilles) a conduit à une diminution très importante du nombre de ces "rayons inutiles perdus dans la nature" (si je pouvais dessiner, ce serait vachement plus pratique).

Voici une illustration (Canon) pour donner un sens à tout ça :

© Focus Numérique


Un autre tour de passe-passe permet d'accroître encore un petit peu la sensibilité d'un capteur (en fait, on optimise plutôt la quantité de lumière que peut recevoir un capteur). Nous savons tous qu'un filtre, c'est joli, mais qu'un filtre, ça diminue de manière sensible la quantité de lumière qui parvient au final sur la surface photosensible. Le filtre de bayer n'échappe pas à cela. Du coup, pour optimiser encore un peu le rendement lumineux, on peut éclaircir très légèrement ce filtre, histoire de gagner un diaph (ce qui est déjà énorme). Mais on y perd en saturation des couleurs. C'est ce qui s'est passé, entre autres, lors du passage du 5D au 5D Mk II [mais Dido en parlera mieux que moi].


J'ai presque fini de faire le tour du propriétaire, et je pourrais encore vous parler de plein de choses. Par exemple, on pourrait évoquer la question du bruit, qui n'existe pas (ou pas sous la même forme) en argentique, et qui s'avère centrale, puisque c'est lorsque le bruit montre trop qu'on commence à se dire qu'on va en chier dans les hautes sensibilités. Je vais donc faire un petit rappel sur le bruit.
Le bruit, c'est le côté obscur du rapport signal/données. En photographie numérique, il y a TOUJOURS du bruit. Mais la plupart du temps il se corrige parce qu'il est connu et mesurable.
Il existe trois sortes de bruit :
  • le bruit systématique, est le bruit propre à chaque capteur. A la fin de sa fabrication et de son découpage du Wafer, chaque capteur est testé, mesuré, et les aléas de la production industrielle font forcément qu'il existe des imperfections par rapport au schéma initial. Pour chaque capteur, donc, est établi une sorte de carte de performances, qui va détecter les photosites un peu plus efficaces que d'autres, ou au contraire un peu moins, et intégrer tout cela dans le CAN qui sera associé au capteur. [Chaque paire est unique et totalement indissociable !] Ces différences entre photosites sont très importants lors de la quantification.

    Ah, du coup, il faut que je vous parle de quantification (et non pas d'échantillonnage). Cette étape est essentielle, et c'est d'elle dont on parle lorsqu'on se demande si son boîtier fait du 8 bits, du 12 bits, du 14 bits, du 16 bits, etc... [Et si vous avez l'âme d'un mercatique, vous direz 24 bits, 36 bits, 42 bits ou 48 bits... ce qui, en fait, en RAW, est un pur non-sens.] C'est cela qui va déterminer la manière dont votre CAN va découper l'information analogique issue des photosites.
    Si votre boîtier travaille en 8 bits, il va ainsi découper les informations de chaque photosite en 256 valeurs (2^8), de la valeur 0 à la valeur 255. S'il travaille en 12 bits, ce découpage se fait en 4096 valeurs (2^12). Et s'il fait du 14 bits, bah, ça vous fait le joli nombre de 16384 valeurs... Et là, on ne parle que pour une seule couleur ! [Revoir le Filtre de Bayer un peu plus haut.] Alors, imaginez lorsque ce nombre est élevé au cube lors du dématriçage, et vous comprendrez beaucoup mieux pourquoi le M9 est plus nuancé, plus riche et plus suave que le M8. Et vous comprendrez mieux pourquoi je râle tout le temps, lorsque je vois que ce passage de 8bits à 14 bits est exclu des conversations sur Summilux, au détriment de la petite encoche sur le bord du capot (très important), et surtout au passage au "Full Format"... :(
    La manière de quantifier est propre à chaque constructeur, et chacun fait sa sauce. Mais je n'ai qu'une remarque à faire : regardez Canon, qui fabrique ses propres capteurs ; regardez Nikon, qui fait fabriquer ses capteurs par Sony (sur des machines fournies par Nikon) ; regardez Leica qui se fournit chez Kodak... Regardez.

    Cette parenthèse sur la quantification étant achevée, vous comprenez peut-être mieux les enjeux de l'évaluation et de la correction du bruit systématique. C'est un bruit issu de l'imperfection physique intrinsèque du capteur. Et comme celui-ci tient bien dans le temps (le silicium, c'est plutôt costaud), on considère que la correction à effectuer le jour de la mise en service sera toujours valable trois ans plus tard. Magique.


  • le bruit d'obscurité : c'est lui qui explique l'étonnement que l'on peut avoir à la lecture de la fiche technique d'un boîtier, et l'incompréhension sur l'existence du "nombre de pixel réels" et sur celui du "nombre de pixels effectifs". Mais mon dieu, qu'est-ce donc, ce serait ton fichu de nous, en nous vendant à prix d'or des capteurs dont des pixels ne marchent pas ? Remboursez, remboursez, remboursez les invitations !
    Rassurez-vous, il y a une explication à cela.
    Le capteur est un dispositif électrique. Il faut donc de l'électricité pour le faire fonctionner. Le problème, c'est que c'est aussi un dispositif photosensible, qui a la capacité de convertir une information électromagnétique (la lumière) en électricité... Or, c'est cette électricité là que l'on mesure, et pas l'autre. [Cette remarque est valable pour le bruit systématique également, et je vous prie de me pardonner de ne pas l'avoir évoquée plus tôt.] Lorsque vous photographiez du noir (ce qui arrive souvent avec un M8 quand on oublie d'enlever son bouchon), il y a quand même du bruit. Et ce bruit est presque toujours le même. Les ingénieurs ont donc étudié le problème, et ont constaté que ce bruit, de manière statistique, était le même sur tous les photosites. Il suffit donc, lors de la prise de vue, d'avoir des photosites qui ne voient pas la lumière, mesurer leur niveau de bruit, en effectuer une moyenne, et soustraire ce bruit dans les photosites qui composent l'image désirée. Easy.
    C'est donc ici que son passés nos fameux pixels "réels, mais pas effectifs" : si vous regardez bien un capteur, vous verrez que tout autour, il y a un masquage noir. Dessous, il y a des photosites qui ne voient jamais la lumière, mais dont le rôle est de mesurer, à chaque prise de vue, le fameux bruit d'obscurité.
  • le bruit aléatoire : Si les deux bruits précédents sont faciles à corriger de par leur récurrence mesurable et "prévisible", le bruit aléatoire fait chier tout le monde. Une manière efficace de le conceptualiser est de voir un photosite comme un sceau (pour aller à la plage), et de voir les électrons comme des grains de sables. A chaque fois qu'on prend une photo, on remplit le sceau de sable , puis on le vide (c'est l'échantillonnage), puis on mesure la quantité de sable qu'il y avait dans le sceau (c'est la quantification). Le problème... c'est qu'il reste peut-être un peu de sable au fond du sceau. Et impossible de savoir si ce sable là est un résidu de cette prise de vue précise, ou d'une prise de vue précédente, ou d'une accumulation... Donc impossible de savoir à qui appartient cette charge électrique résiduelle. C'est cet aléa qui fait que, en photographiant une surface unie, on ne parvient pas à obtenir des pixels parfaitement égaux sur toute la surface.
    Pour réduire le bruit aléatoire, comme partout en informatique, on peut agir à deux niveaux : au niveau hardware, et au niveau software.

    Au niveau hardware, le défi est de concevoir des photosites les plus réguliers possibles, qui permettront une meilleur collecte des charges électriques. Canon dispose d'une technologie assez géniale en la matière : au fond du photosite, un petit canal de drainage est creusé, légèrement en pente, jusque dans un petit puit secondaire (même principe qu'un hygromètre en fait), dans lequel on pourra mesurer de manière plus précise la charge électrique résiduelle. C'est merveilleux. [Et en plus, on peut considérer que c'est auto-nettoyant.]
    Au niveau du software... ah, au niveau du sofwtare. C'est l'étape suivante de la grande aventure de la sensibilité du capteur.




Le software, c'est tout un drame.
Entre le firmware qui contrôle le CAN, le firmware qui contrôle le DSP, le logiciel de "dérawtisation" utilisé par l'opérateur, l'ordinateur utilisé, la compatibilité, tout ça, tout ça, c'est un beau bordel. Du coup, je vais éluder totalement la question en disant que, de toute manière, à boîtier identique, les procédés et habitudes d'élaboration de l'image finale jusqu'au tirage sont tellement subtilement différents d'un individu à l'autre, qu'au final, même si les bases techniques objectives sont les mêmes, il y a trop de subjectivité là-dedans. [Par exemple, si ça se trouve, on obtiendra avec un DNG pris à 1250 ISO au M8 aujourd'hui une "texture" égalant celle des 160 ISO aujourd'hui.]

Pour ce qui est de la sensibilité pure du capteur, et c'est là que vous allez me reprocher "tout ça pour ça", on n'a pas vraiment d'autre choix que de faire confiance aux constructeurs : seule la sensibilité native compte. C'est celle du silicium, améliorée de certains nombres de technologies. Tout comme l'AgBr avait une sensibilité que venaient améliorer sa structure cristalline et les cyanines.
Ensuite, il pourrait y avoir un débat en ce qui concerne la préférabilité d'une sensibilité native haute (200 ISO pour les Nikon), basse (100 ISO pour les Canon, voire 50 ISO pour les capteurs Kodak des Blad), en racine cubique de deux (160 ISO pour Leica), etc, etc. Toutes les autres sensibilités, c'est de l'extrapolation.

Et, oui : toutes les photos sont prises à la sensibilité native. Même les photos prises à 6400 ISO. Tout, tout, tout, vient du travail effectué sur le rapport signal-bruit.
En fait, lorsqu'on prend une photo à une sensibilité supérieur ou inférieur à la sensibilité native du capteur, on lui indique plusieurs choses :
  • On lui demande d'ajuster le couple "diaphragme - vitesse" en fonction de la sensibilité, ce qui est la base de la photographie.
  • On lui demande d'indiquer dans la partie "side-car" du RAW la sensibilité à laquelle la photo a été prise.
  • Cette indication va servir d'abord au CAN, qui, sur une sorte de courbe HD connue, va savoir comment lire, où aller chercher les informations, comment les interpréter, et surtout, comment les amplifier.
  • Faciliter le travail du logiciel de dématriçage.


Si vous voulez, si vous avez du temps, vous pouvez vous amuser à vous mettre en manuel, à 160 ISO, prendre une photo. Puis sans toucher aux réglages, augmenter la sensibilité, reprendre une une photo. Et ainsi de suite. Puis tenter de tout développer de sorte à obtenir un rendu équivalent. Dans la théorie, c'est possible. Mais bon, pourquoi se casser le cul, alors que le firmware fait ça tellement mieux (et tellement plus vite) que nous ?



[J'espère n'avoir endormi personne, et vous remercie de m'avoir lu jusque là. :oops:]
La photo c'est bon.
Mangez-en.
Pour suivre les tribulations de mon livre photo consacré à Tokyo
Pour participer à la campagne de financement de Mizuwari, mon premier livre photo.

Site : BrunoLabarbere.com !
regish
Avatar de l’utilisateur
Membre des Amis
Messages : 2319
Depuis le 6 déc 2004
Porto-Vecchio
:applaudir:

Merci.
Jmichel33
Avatar de l’utilisateur
Régulier
Messages : 144
Depuis le 8 nov 2007
Euskadi
@Aniki
Merci et j'ai, grâce à toi, complètement compris la différence entre un capteur CMOS et un capteur CCD !

J'ai, quoiqu'il en soit, plusieurs sujets d'étonnement.

Le premier est la sensibilité ISO où 25, 50, 64 et même 100 isos sont des valeurs inconnues ou presque, alors que cela constituait 80% des sensibilités des pellicules que j'utilisais, la luminosité des scènes photographiées n'a pas changé pour autant, et quitte à choisir, je préfèrerais qu'un capteur ait une sensibilité nominale plus faible que ce qu'elle est sur un M8 (160 iso), plutôt que d'aller vers des sensibilités extrêmes, encore que cela constitue aussi et tout de même un sérieux avantage !

Le second, avec une sensibilité ISO en mode auto, plus la notion d'exposition "correcte" n' a de sens en numérique, sachant qu'on choisit un couple diaph/vitesse - base de la photographie, et ce quelque soit la luminosité !

Le troisième est qu'une image "brut de capteur" est absolument "pâle", "molle" et que l'accentuation est un passage obligé.

Je me rends compte également que l'ordre des séquences suivant lequel on traite ce fichier ne procure pas les mêmes résultats.

Mais bon, le numérique oblige à revoir de fond en comble le peu que je savais... je tâtonne... et j'apprends énormément ici.

D'ailleurs, j'ai une suggestion à faire concernant la publication des photos numériques c'est de joindre autant que faire se peut le fichier original. Qu'en pensez-vous ?
"L'Objectif Leica 50mm Summilux est la preuve vivante que Dieu nous aime et veut notre bien"
yanidel
Régulier
Messages : 264
Depuis le 15 sep 2008
Rosario, Argentine
Jmichel33 a écrit :
Le second, avec une sensibilité ISO en mode auto, plus la notion d'exposition "correcte" n' a de sens en numérique, sachant qu'on choisit un couple diaph/vitesse - base de la photographie, et ce quelque soit la luminosité !

Cela dit, faire une série entière avec des images en ISO160, ISO800 ou ISO1600 ne garantit pas une belle homogénéité des rendus. Mieux vaut donc rester sur un ISO fixe le plus souvent possible.
J'utilisais le M8/9 en mode auto mais je me suis mis à la cellule avec mesure incidente, depuis mes expositions sont bien meilleures après une difficile période d'adaptation.
JMS
Avatar de l’utilisateur
Messages : 619
Depuis le 14 nov 2006
78980 NEAUPHLETTE
Les discusssions entre NEF et DNG sont un peu gratuites...car tant que Nikon fait 35% du marché tous les logiciels Adobe ouvriront ces fichiers...en plus de tas d'autres programmes...par contre je me demande combien de temps des appareils confidentiels comme les Samsung reflex auront des modules DNG qui savent lire les réglages de l'appareil...l'intérpet d'un RAW ou DNG dédié c'est que le logiciel sache interpréter toutes les préférences que le photographe a intégré dans ses réglages, la colorimétrie particulière de l'appareil donné...

...si tout logiciel DNG savait lire exactement tous les DNG, pourquoi donc avions nous besoin d'une nouvelle version LR 2.6 corrigée pour exploiter les fichiers du M9 ? LR1 aurait parfaitement fait l'affaire si les DNG étaient vraiment universels.
Jmichel33
Avatar de l’utilisateur
Régulier
Messages : 144
Depuis le 8 nov 2007
Euskadi
Je suis bien d'accord avec toi, mais les fabricants ne l'entendent pas ainsi malheureusement, sans d'ailleurs réussir à apporter une meilleure solution. C'est un peu pour cela, que n'étant pas fabricant, la position d'Adobe est - a priori - neutre.
"L'Objectif Leica 50mm Summilux est la preuve vivante que Dieu nous aime et veut notre bien"
JMS
Avatar de l’utilisateur
Messages : 619
Depuis le 14 nov 2006
78980 NEAUPHLETTE
La position d'Adobe n'est pas neutre: Adobe donne une licence gratuite dès lors que le constructeur adopte les specs d'Adobe, et à le pouvoir de retirer sa licence sans préavis si le constructeur trouvait un truc pour améliorer les fichiers qui ne soit pas dans la charte DNG. On comprend pourquoi presque aucun constructeur n'a adhéré au concept.
Clic
Avatar de l’utilisateur
Spécialiste
Messages : 2177
Depuis le 25 juil 2003
Besançon
Le professeur Aniki mérite bien son nouvel emploi au Leica Store.

:applaudir: :content:
Suivante

Retourner vers Leica M : boîtiers

Qui est en ligne

Utilisateurs parcourant cette section : Aucun utilisateur enregistré et 45 invités