M8/M9 Quelle est leur sensibilité réelle ?

Jean-Claude
Avatar de l’utilisateur
Spécialiste
Messages : 1074
Depuis le 20 avr 2007
Suisse Romande
Ailleurs sur ce forum, il est question de la mise à jour du firmware du M8.
Peut-être que dans celle-ci, on trouvera quelques réponses, pour aller un peu plus loin dans l'exploitation des sensibilités.
Je trouve que le M8 donne un grain des plus intéressant pour faire des N+B très proches des certaines pelloches poussées au développement, mais en couleurs, au delà de 640, (320 dans certaines circonstances) il ne régate pas dans la même catégorie que le D700 dont on causait plus haut.
Quitte à se mettre le doigt dans l’œil, autant que se soit avec des couverts.
Coignet
Avatar de l’utilisateur
agent technique
Messages : 14852
Depuis le 5 nov 2003
75001
JMS a écrit :
Enfin un désaccord à celui qui écrit : "Corriger séparément des zones par type de couleur me paraît aberrant. Je préfère de loin trouver le bon équilibre pour une photo complète…" On se demande s'il a déjà tiré un noir et blanc en masquant par zone...ou bien s'il s'est demandé comment un tirage d'expo de Salgado arrivait à une telle richesse de valeurs entre les ombres et les lumières ?

Soyons clairs : "il" n'a jamais vu grand chose, et la couleur, il n'y connaît rien.
Toutefois, il a de longues années de labo derrière lui, et il adorait découper de petits cartons pour jouer d'expositions différentes, allait jusqu'à tremper ses mains dans le bac à rélélateur pour frotter avec les doigts et monter des densités (oui, ça marche).

Il me semble que la sélection par U-points de Capture-NX2 de Nikon procède par sélection automatique de zones ; c'est ce que j'ai cru comprendre en l'utilisant pendant ma période d'essai (CD livré avec le D700). Je n'ai pas du tout aimé cette manière de faire. Je préfère de très loin faire mes sélections et détourages de zones "à la main" avec Photoshop, et jouer tant de transparences de calques que de réglages de dureté plus ou moins grande de transition de ces zones sélectionnées, pour travailler ces valeurs localement.

Ainsi, lorsque j'écris "Corriger séparément des zones par type de couleur me paraît aberrant. Je préfère de loin trouver le bon équilibre pour une photo complète…", je parle de ce que je pense de l'usage d'un logiciel d'ouverture de RAW : je lui demande de me permettre de caler parfaitement ma balance afin d'obtenir le fichier TIFF le plus proche de ce qui me paraît être la meilleure base que l'on puisse obtenir avec ce que le capteur a enregistré. Je considère ainsi que je crée l'équivalent du film révélé, et c'est avec Capture One que j'ai trouvé l'outil qui me convient le mieux. Ensuite, ayant enregistré un fichier TIFF en 16 bits, je fais le travail que je considère comme étant le travail de tirage : masquages, etc.
ma signature
Icarex 35
Avatar de l’utilisateur
Spécialiste
Messages : 2146
Depuis le 6 avr 2008
Lyon
JMS a écrit :
Quant à la sensibilité réelle c'est celle de base du capteur, corrigée de la préférence d'exposition de l'appareil (certains exposent un peu à droite, d'autres un peu à gauche), ensuite il y a deux façon de la booster: analogique (jusqu'à 6400 pour un D700) puis numérique (modification des valeurs jusqu'à 25600 sur le même). Visiblement il n'y a que le premier mode sur les M8/M9.



C'est précisément le but de mes interrogations. Pourquoi le logiciel "dérawtiseur" ne permettrait-il pas d'effectuer ce traitement numérique ? Et pourquoi ne le ferait-il pas au moins aussi bien que celui interne aux boitiers concurrents ?
Cedric92
Avatar de l’utilisateur
Spécialiste
Messages : 1224
Depuis le 9 juil 2008
Suresnes (92)
Avec des optiques Zeiss, le D700 se rapproche énormément du M8 :wink: Cela dit, il reste le détail qui tue (en fait les deux détails) à l'avantage du Leica :

1. Pas de filtre AA donc une image ultra-fine et une accutance maximale, là où le Nikon fournit de facto une image forcément un poil "molle" (terme excessif dans le cas présent) sans accentuation

2. Capteur CCD donc une richesse de nuances que l'on ne retrouve pas sur le D700 qui a tendance à avoir des dominantes (jaune) et une sorte de lissage de la chromie
La photographie, c'est essentiellement de la marche à pied.
Coignet
Avatar de l’utilisateur
agent technique
Messages : 14852
Depuis le 5 nov 2003
75001
Je crois que JMS a clairement expliqué que le D700 par exemple obtient cette haute sensibilité non de manière logicielle mais par la qualité de son capteur (gros photosites).

Il suffit d'essayer l'interpolation logicielle du D700 jusqu'à 25600 à laquelle il fait allusion pour comprendre qu'il vaut mieux que ce soit le capteur qui soit capable de fournir un signal "propre". Au-delà de sa capacité à le faire, c'est de la bouillie !
:wink:

Le M8 ne peut pas faire mieux certainement pour des raisons physiques (plus petits photosites). Il est probable qu'on fera à l'avenir des progrès.
Il me semble qu'il n'y a pas là matière à être scandalisé : un film 1600 couleur n'est pas très très bon non plus comparé au capteur du D700.
ma signature
pascal_meheut
Vieux briscard
Messages : 3623
Depuis le 9 fév 2005
Paris
Icarex 35 a écrit :
C'est précisément le but de mes interrogations. Pourquoi le logiciel "dérawtiseur" ne permettrait-il pas d'effectuer ce traitement numérique ? Et pourquoi ne le ferait-il pas au moins aussi bien que celui interne aux boitiers concurrents ?


Parce que les CMOS Canon/Nikon ne donnent pas cette absence de bruit uniquement par traitement logiciel mais parce que leur bruit de base est soustrait dans l'appareil.

C'est toute l'astuce qui a permis la course à la sensibilité et qui ne marche pas avec les CCD.

Après, il y a éventuellement du traitement logiciel ou pas suivant les boitiers, en RAW notamment (cf les sites d'Astrophoto qui s'en plaignent chez Nikon).

Et effectivement, ce traitement peut être fait sur un PC/Mac et améliorer les images sorties du M9. C'est d'ailleurs ce que font en partie les derawtiseurs.

Mais outre le fait qu'ils ne pourront pas compenser la différence CMOS vs CCD, ils n'ont pas vocation à faire le même travail que le soft embarqué que Canon et Nikon développent pour se battre sur le terrain des hauts ISOs.


Pour les anglophones, voici un article qui remonte à la sortie du Canon D30, le 1er reflex avec un CMOS et qui explique le développement de la technologie :

http://www.dpreview.com/news/0005/00051 ... etimes.asp
Coignet
Avatar de l’utilisateur
agent technique
Messages : 14852
Depuis le 5 nov 2003
75001
pascal_meheut a écrit :
cf les sites d'Astrophoto qui s'en plaignent chez Nikon

C'est vrai, j'ai lu ça. J'aimerais bien qu'il soit possible de neutraliser cet action du firmware… Et éventuellement d'autres, pour pouvoir choisir soi-même la sortie finale.
ma signature
JMS
Avatar de l’utilisateur
Messages : 619
Depuis le 14 nov 2006
78980 NEAUPHLETTE
Je pense que ces traitements avancés ne sont pas toujours modifiables par firmware, un filtrage analogique c'est du hard. Mais tout çà est assez couvert par le secret industriel...et rien ne prouve que le M9 ne fasse pas un peu de lissage: les notes de piqué "brut" avec la même optique et logiciel entre M8 et M9 montrent que les fichiers du M9 sont un poil plus doux. Filtre IR interne très légèrement floutant (très très peu en réalité j'en suis persuadé) ou amélioration électronique quelque part dans l'appareil ?
pascal_meheut
Vieux briscard
Messages : 3623
Depuis le 9 fév 2005
Paris
JMS a écrit :
les notes de piqué "brut" avec la même optique et logiciel entre M8 et M9 montrent que les fichiers du M9 sont un poil plus doux. Filtre IR interne très légèrement floutant (très très peu en réalité j'en suis persuadé) ou amélioration électronique quelque part dans l'appareil ?


Est ce que ca ne peut pas être du à l'augmentation de la résolution ?

Il n'y avait pas eu ce genre de phénomène chez Nikon où avec un changement de génération, les fichiers donnaient l'impression d'être moins "au rasoir" ?
tuscland
Messages : 14
Depuis le 15 jan 2010
Paris
Bonjour,

Coignet a écrit :
Je considère ainsi que je crée l'équivalent du film révélé, et c'est avec Capture One que j'ai trouvé l'outil qui me convient le mieux. Ensuite, ayant enregistré un fichier TIFF en 16 bits, je fais le travail que je considère comme étant le travail de tirage : masquages, etc.


Adobe Camera Raw et le tout nouveau Aperture 3 permettent des masquages d'ajustement non-destructif. Je crois que Capture One aussi, mais je ne connais pas suffisamment.

Comme le travail est non-destructif, l'étape d'enregistrement en TIFF est rendue inutile.


Cordialement,
Camille
JMS
Avatar de l’utilisateur
Messages : 619
Depuis le 14 nov 2006
78980 NEAUPHLETTE
On ne vas pas dériver sur NX2, mais le masquage est possible par Upoints (délicats, il faut souvent créer des contre Upoints pour délimiter la zone) mais aussi par zone sélectionnée au pinceau, comme sur d'autres produits. Nikon vend son affaire comme un produit complet, car ces réglages fonctionnent aussi en TIFF ou JPG...par exemple sur un TIFF sorti de C1 d'après un DNG de M 9 :oops:
Aniki
Avatar de l’utilisateur
Spécialiste
Messages : 2162
Depuis le 16 mars 2008
Montreuil
J'aime bien ce genre de débat, il y a de tout dans les réponses pour expliquer la sensibilité d'un capteur ou d'un tel capteur. Et parfois des réponses très intéressantes. Du coup, je viens mettre mon grain de sel :content:

J'ai été choqué que personne ne parle (ou alors sans le nommer) du CAN, ou "Convertisseur Analogique Numérique". Comme JMS l'a écrit, c'est surtout là-dedans que se fait toute la cuisine RAW, et les variations de recettes d'une marque à l'autre justifie toutes les différences de rendue. [C'est ainsi que, hors implications optiques, le capteur du Leica X1 ne produit pas les mêmes images que celui du Nikon D300... alors que c'est le même capteur.]
Comme son nom l'indique, le CAN est celui qui va aller lire l'information analogique issue des photosites du capteur, ces informations étant des charges électriques. La manière de "lire" dépend de la nature même du capteur :
  • s'il s'agit d'un CCD, cette lecture est faite de manière séquentielle, ligne après ligne, colonne après colonne (c'est d'ailleurs pour ça qu'on parle de "ligne de décharge" ou de "bande de décharge"). C'est cette relative lenteur, qui oblige à tout lire dans l'ordre, qui empêche par exemple l'implémentation d'une visée LiveView sur tous les boîtiers à capteurs CCD (sauf cas d'utilisation d'un capteur secondaire et dédié).
  • s'il s'agit d'un CMOS, cette lecture est faite de manière indexée, donc l'information peut être prise sur n'importe quel photosite (ce qui permet et le Liveview, et la vidéo).
Cette étape s'appelle échantillonnage, puisque le CAN va aller piocher des "échantillons". J'en profite d'ailleurs pour corriger l'erreur commune qui est de parler d'un "échantillonnage sur 14 bits", qui est un absolu non sens, et une grave faute te vocabulaire technique. Il faut pour cela parler de "quantification sur 14 bits", n'en déplaise à la formulation erronée présente sur 95% des fiches techniques (même dans les revues sérieuses !).


On parle souvent de différence de sensibilité native entre les capteurs CMOS et les capteurs CCD. Dans l'absolu, il n'y a pas de solution plus performante que l'autre, tout dépend de l'instant t auquel est effectuée la comparaison. Je tiens aussi à préciser que, non, le CMOS n'est pas moins performant que le CCD en ce qui concerne les rayons incidents très inclinés (contrairement à ce que raconte Leica en ce qui concerne le CCD du M8, puis du M9). Dans chaque cas, il faut voir le capteur comme un énorme sandwich accompagné de son mode d'emploi : on ne peut pas juger les performances d'un capteur sur les seuls nombre et dimensions de ses photosites. Il faut, en plus, prendre en compte le réseau de micro-lentilles, la technologie utilisée pour les lignes de décharges, le firmware du CAN, les différentes filtres (passe haut, passe bas, passe à droite, passe à gauche, passe pas les IR, tout ça tout ça), et l'usage d'une technologie exotique (type "Super CCD" chez Fujifilm).

Le CCD est historiquement plus ancien (mais ça, on s'en fout un peu). Sa particularité est d'utiliser la totalité de la surface du photosite. Le CMOS, lui, n'utilise que 75% de la surface du photosite (donc 75% de la surface du capteur, ce qui implique une perte énorme !). Or, c'est bien connu, plus la surface photosensible est grande, plus la sensibilité est élevée. Les 25% "aveugles" des CMOS est dû au fait que cette partie est utilisée comme "transistor". C'est cette partie aveugle qui, du coup, permet la lecture indexée (donc "aléatoire"), mode de lecture qui fait la force du CMOS. Le surcroît de sensibilité est donc essentiellement logiciel, à superficie et nombre de photosites égaux !
Tant que j'en suis à parler de physique su capteur, j'aimerais dire une chose : actuellement, 95% des capteurs CCD sont Full Frame, et aucun capteur CMOS n'est Full Frame. Par contre, il existe des capteurs Full Format en CCD et en CMOS. Au même titre que ce que je disais plus haut par rapport à la confusion des termes échantillonnage ≠ quantification, cette confusion Full Frame ≠ Full Format ≠ Plein Cadre ≠ Plein Format provient d'une facilité "marketing", qui au-lieu d'aller chercher plus loin la signification d'une technologie, préfère comprendre ce qu'elle veut bien comprendre et lui paraît le plus vendeur. Ainsi, un capteur Full Frame n'est pas un capteur aux dimensions égales à celles d'une image 24x36. Un capteur Full Frame est un capteur dont les pistes de décharge passent derrière le capteur, alors qu'avant elles passaient devant, entre les photosites. De fait, dans l'ancienne technologie, une partie certaine de la surface du capteur était aveugle, les pistes de décharge n'étant pas photosensibles. Avec ses pistes qui passent derrière, un CCD devient ainsi Full Frame, puisque toute sa surface est utilisée pour capteur la lumière. Un CMOS, par essence, ne peut pas être Full Frame puisque 25% de sa surface a une fonction de transistor. Ce petit coup de gueule étant passé, hop, la suite :lol:

Au niveau physique, la sensibilité peut être accrue par le réseau de micro-lentilles. Les Leicaistes que nous sommes connaissent bien cela, puisque la marque a énormément communiqué sur le nécessité et la difficulté de sa mise en place pour redresser les rayons périphériques vraiment trop inclinés (les photosites aiment l'orthogonalité). Mais en plus de la simple fonction de redressement, ces micro-lentilles servent aussi de collecteurs de lumière.
En effet, la fine paroi de silicium entre deux photosites a une épaisseur non nulle. Epaisseur non nulle qui, ramenée à la totalité du capteur, implique qu'un pourcentage constant de sa surface est aveugle : tous les rayons tombant sur ces parois ne servent à rien à l'élaboration de l'image (pire, ils peuvent en dégrader la qualité !). C'est là qu'interviennent les micro-lentilles : elles servent de collecteur, comme le dôme à la sortie de la Station St-Lazare permet d'optimiser la luminosité du "hall". Je n'y connais rien en architecture, mais je suppose qu'un dôme est plus efficace qu'un simple toit plat transparent pour collecteur la lumière (j'espère que Coignet confirmera, sinon j'ai l'air con). Ce sont ces micro-lentilles qui ont beaucoup fait parler d'elles lors de la sortie du D3s : leur amélioration a permis d'augmenter la sensibilité du bousin. La modification de leur structure (désormais il y a moins d'espace perdu entre les lentilles) a conduit à une diminution très importante du nombre de ces "rayons inutiles perdus dans la nature" (si je pouvais dessiner, ce serait vachement plus pratique).

Voici une illustration (Canon) pour donner un sens à tout ça :

© Focus Numérique


Un autre tour de passe-passe permet d'accroître encore un petit peu la sensibilité d'un capteur (en fait, on optimise plutôt la quantité de lumière que peut recevoir un capteur). Nous savons tous qu'un filtre, c'est joli, mais qu'un filtre, ça diminue de manière sensible la quantité de lumière qui parvient au final sur la surface photosensible. Le filtre de bayer n'échappe pas à cela. Du coup, pour optimiser encore un peu le rendement lumineux, on peut éclaircir très légèrement ce filtre, histoire de gagner un diaph (ce qui est déjà énorme). Mais on y perd en saturation des couleurs. C'est ce qui s'est passé, entre autres, lors du passage du 5D au 5D Mk II [mais Dido en parlera mieux que moi].


J'ai presque fini de faire le tour du propriétaire, et je pourrais encore vous parler de plein de choses. Par exemple, on pourrait évoquer la question du bruit, qui n'existe pas (ou pas sous la même forme) en argentique, et qui s'avère centrale, puisque c'est lorsque le bruit montre trop qu'on commence à se dire qu'on va en chier dans les hautes sensibilités. Je vais donc faire un petit rappel sur le bruit.
Le bruit, c'est le côté obscur du rapport signal/données. En photographie numérique, il y a TOUJOURS du bruit. Mais la plupart du temps il se corrige parce qu'il est connu et mesurable.
Il existe trois sortes de bruit :
  • le bruit systématique, est le bruit propre à chaque capteur. A la fin de sa fabrication et de son découpage du Wafer, chaque capteur est testé, mesuré, et les aléas de la production industrielle font forcément qu'il existe des imperfections par rapport au schéma initial. Pour chaque capteur, donc, est établi une sorte de carte de performances, qui va détecter les photosites un peu plus efficaces que d'autres, ou au contraire un peu moins, et intégrer tout cela dans le CAN qui sera associé au capteur. [Chaque paire est unique et totalement indissociable !] Ces différences entre photosites sont très importants lors de la quantification.

    Ah, du coup, il faut que je vous parle de quantification (et non pas d'échantillonnage). Cette étape est essentielle, et c'est d'elle dont on parle lorsqu'on se demande si son boîtier fait du 8 bits, du 12 bits, du 14 bits, du 16 bits, etc... [Et si vous avez l'âme d'un mercatique, vous direz 24 bits, 36 bits, 42 bits ou 48 bits... ce qui, en fait, en RAW, est un pur non-sens.] C'est cela qui va déterminer la manière dont votre CAN va découper l'information analogique issue des photosites.
    Si votre boîtier travaille en 8 bits, il va ainsi découper les informations de chaque photosite en 256 valeurs (2^8), de la valeur 0 à la valeur 255. S'il travaille en 12 bits, ce découpage se fait en 4096 valeurs (2^12). Et s'il fait du 14 bits, bah, ça vous fait le joli nombre de 16384 valeurs... Et là, on ne parle que pour une seule couleur ! [Revoir le Filtre de Bayer un peu plus haut.] Alors, imaginez lorsque ce nombre est élevé au cube lors du dématriçage, et vous comprendrez beaucoup mieux pourquoi le M9 est plus nuancé, plus riche et plus suave que le M8. Et vous comprendrez mieux pourquoi je râle tout le temps, lorsque je vois que ce passage de 8bits à 14 bits est exclu des conversations sur Summilux, au détriment de la petite encoche sur le bord du capot (très important), et surtout au passage au "Full Format"... :(
    La manière de quantifier est propre à chaque constructeur, et chacun fait sa sauce. Mais je n'ai qu'une remarque à faire : regardez Canon, qui fabrique ses propres capteurs ; regardez Nikon, qui fait fabriquer ses capteurs par Sony (sur des machines fournies par Nikon) ; regardez Leica qui se fournit chez Kodak... Regardez.

    Cette parenthèse sur la quantification étant achevée, vous comprenez peut-être mieux les enjeux de l'évaluation et de la correction du bruit systématique. C'est un bruit issu de l'imperfection physique intrinsèque du capteur. Et comme celui-ci tient bien dans le temps (le silicium, c'est plutôt costaud), on considère que la correction à effectuer le jour de la mise en service sera toujours valable trois ans plus tard. Magique.


  • le bruit d'obscurité : c'est lui qui explique l'étonnement que l'on peut avoir à la lecture de la fiche technique d'un boîtier, et l'incompréhension sur l'existence du "nombre de pixel réels" et sur celui du "nombre de pixels effectifs". Mais mon dieu, qu'est-ce donc, ce serait ton fichu de nous, en nous vendant à prix d'or des capteurs dont des pixels ne marchent pas ? Remboursez, remboursez, remboursez les invitations !
    Rassurez-vous, il y a une explication à cela.
    Le capteur est un dispositif électrique. Il faut donc de l'électricité pour le faire fonctionner. Le problème, c'est que c'est aussi un dispositif photosensible, qui a la capacité de convertir une information électromagnétique (la lumière) en électricité... Or, c'est cette électricité là que l'on mesure, et pas l'autre. [Cette remarque est valable pour le bruit systématique également, et je vous prie de me pardonner de ne pas l'avoir évoquée plus tôt.] Lorsque vous photographiez du noir (ce qui arrive souvent avec un M8 quand on oublie d'enlever son bouchon), il y a quand même du bruit. Et ce bruit est presque toujours le même. Les ingénieurs ont donc étudié le problème, et ont constaté que ce bruit, de manière statistique, était le même sur tous les photosites. Il suffit donc, lors de la prise de vue, d'avoir des photosites qui ne voient pas la lumière, mesurer leur niveau de bruit, en effectuer une moyenne, et soustraire ce bruit dans les photosites qui composent l'image désirée. Easy.
    C'est donc ici que son passés nos fameux pixels "réels, mais pas effectifs" : si vous regardez bien un capteur, vous verrez que tout autour, il y a un masquage noir. Dessous, il y a des photosites qui ne voient jamais la lumière, mais dont le rôle est de mesurer, à chaque prise de vue, le fameux bruit d'obscurité.
  • le bruit aléatoire : Si les deux bruits précédents sont faciles à corriger de par leur récurrence mesurable et "prévisible", le bruit aléatoire fait chier tout le monde. Une manière efficace de le conceptualiser est de voir un photosite comme un sceau (pour aller à la plage), et de voir les électrons comme des grains de sables. A chaque fois qu'on prend une photo, on remplit le sceau de sable , puis on le vide (c'est l'échantillonnage), puis on mesure la quantité de sable qu'il y avait dans le sceau (c'est la quantification). Le problème... c'est qu'il reste peut-être un peu de sable au fond du sceau. Et impossible de savoir si ce sable là est un résidu de cette prise de vue précise, ou d'une prise de vue précédente, ou d'une accumulation... Donc impossible de savoir à qui appartient cette charge électrique résiduelle. C'est cet aléa qui fait que, en photographiant une surface unie, on ne parvient pas à obtenir des pixels parfaitement égaux sur toute la surface.
    Pour réduire le bruit aléatoire, comme partout en informatique, on peut agir à deux niveaux : au niveau hardware, et au niveau software.

    Au niveau hardware, le défi est de concevoir des photosites les plus réguliers possibles, qui permettront une meilleur collecte des charges électriques. Canon dispose d'une technologie assez géniale en la matière : au fond du photosite, un petit canal de drainage est creusé, légèrement en pente, jusque dans un petit puit secondaire (même principe qu'un hygromètre en fait), dans lequel on pourra mesurer de manière plus précise la charge électrique résiduelle. C'est merveilleux. [Et en plus, on peut considérer que c'est auto-nettoyant.]
    Au niveau du software... ah, au niveau du sofwtare. C'est l'étape suivante de la grande aventure de la sensibilité du capteur.




Le software, c'est tout un drame.
Entre le firmware qui contrôle le CAN, le firmware qui contrôle le DSP, le logiciel de "dérawtisation" utilisé par l'opérateur, l'ordinateur utilisé, la compatibilité, tout ça, tout ça, c'est un beau bordel. Du coup, je vais éluder totalement la question en disant que, de toute manière, à boîtier identique, les procédés et habitudes d'élaboration de l'image finale jusqu'au tirage sont tellement subtilement différents d'un individu à l'autre, qu'au final, même si les bases techniques objectives sont les mêmes, il y a trop de subjectivité là-dedans. [Par exemple, si ça se trouve, on obtiendra avec un DNG pris à 1250 ISO au M8 aujourd'hui une "texture" égalant celle des 160 ISO aujourd'hui.]

Pour ce qui est de la sensibilité pure du capteur, et c'est là que vous allez me reprocher "tout ça pour ça", on n'a pas vraiment d'autre choix que de faire confiance aux constructeurs : seule la sensibilité native compte. C'est celle du silicium, améliorée de certains nombres de technologies. Tout comme l'AgBr avait une sensibilité que venaient améliorer sa structure cristalline et les cyanines.
Ensuite, il pourrait y avoir un débat en ce qui concerne la préférabilité d'une sensibilité native haute (200 ISO pour les Nikon), basse (100 ISO pour les Canon, voire 50 ISO pour les capteurs Kodak des Blad), en racine cubique de deux (160 ISO pour Leica), etc, etc. Toutes les autres sensibilités, c'est de l'extrapolation.

Et, oui : toutes les photos sont prises à la sensibilité native. Même les photos prises à 6400 ISO. Tout, tout, tout, vient du travail effectué sur le rapport signal-bruit.
En fait, lorsqu'on prend une photo à une sensibilité supérieur ou inférieur à la sensibilité native du capteur, on lui indique plusieurs choses :
  • On lui demande d'ajuster le couple "diaphragme - vitesse" en fonction de la sensibilité, ce qui est la base de la photographie.
  • On lui demande d'indiquer dans la partie "side-car" du RAW la sensibilité à laquelle la photo a été prise.
  • Cette indication va servir d'abord au CAN, qui, sur une sorte de courbe HD connue, va savoir comment lire, où aller chercher les informations, comment les interpréter, et surtout, comment les amplifier.
  • Faciliter le travail du logiciel de dématriçage.



Si vous voulez, si vous avez du temps, vous pouvez vous amuser à vous mettre en manuel, à 160 ISO, prendre une photo. Puis sans toucher aux réglages, augmenter la sensibilité, reprendre une une photo. Et ainsi de suite. Puis tenter de tout développer de sorte à obtenir un rendu équivalent. Dans la théorie, c'est possible. Mais bon, pourquoi se casser le cul, alors que le firmware fait ça tellement mieux (et tellement plus vite) que nous ?



[J'espère n'avoir endormi personne, et vous remercie de m'avoir lu jusque là. :oops:]
La photo c'est bon.
Mangez-en.
Pour suivre les tribulations de mon livre photo consacré à Tokyo
Pour participer à la campagne de financement de Mizuwari, mon premier livre photo.

Site : BrunoLabarbere.com !
Icarex 35
Avatar de l’utilisateur
Spécialiste
Messages : 2146
Depuis le 6 avr 2008
Lyon
Un article intéressant:

http://www.louis-armand-mulhouse.eu/bts ... /image.pdf
danyves
Avatar de l’utilisateur
Vieux briscard
Messages : 4810
Depuis le 23 juil 2007
Normandie
Merci à tout les deux.
Cedric92
Avatar de l’utilisateur
Spécialiste
Messages : 1224
Depuis le 9 juil 2008
Suresnes (92)
Un résumé passionnant Aniki, merci :wink:
La photographie, c'est essentiellement de la marche à pied.
PrécédenteSuivante

Retourner vers Leica M : boîtiers

Qui est en ligne

Utilisateurs parcourant cette section : Aucun utilisateur enregistré et 26 invités