Jean-Claude |
|
Spécialiste Messages : 1074Depuis le 20 avr 2007 Suisse Romande |
Ailleurs sur ce forum, il est question de la mise à jour du firmware du M8.
Peut-être que dans celle-ci, on trouvera quelques réponses, pour aller un peu plus loin dans l'exploitation des sensibilités. Je trouve que le M8 donne un grain des plus intéressant pour faire des N+B très proches des certaines pelloches poussées au développement, mais en couleurs, au delà de 640, (320 dans certaines circonstances) il ne régate pas dans la même catégorie que le D700 dont on causait plus haut. Quitte à se mettre le doigt dans l’œil, autant que se soit avec des couverts. |
Coignet |
|
agent technique Messages : 14852Depuis le 5 nov 2003 75001 |
JMS a écrit : Enfin un désaccord à celui qui écrit : "Corriger séparément des zones par type de couleur me paraît aberrant. Je préfère de loin trouver le bon équilibre pour une photo complète…" On se demande s'il a déjà tiré un noir et blanc en masquant par zone...ou bien s'il s'est demandé comment un tirage d'expo de Salgado arrivait à une telle richesse de valeurs entre les ombres et les lumières ?Soyons clairs : "il" n'a jamais vu grand chose, et la couleur, il n'y connaît rien. Toutefois, il a de longues années de labo derrière lui, et il adorait découper de petits cartons pour jouer d'expositions différentes, allait jusqu'à tremper ses mains dans le bac à rélélateur pour frotter avec les doigts et monter des densités (oui, ça marche). Il me semble que la sélection par U-points de Capture-NX2 de Nikon procède par sélection automatique de zones ; c'est ce que j'ai cru comprendre en l'utilisant pendant ma période d'essai (CD livré avec le D700). Je n'ai pas du tout aimé cette manière de faire. Je préfère de très loin faire mes sélections et détourages de zones "à la main" avec Photoshop, et jouer tant de transparences de calques que de réglages de dureté plus ou moins grande de transition de ces zones sélectionnées, pour travailler ces valeurs localement. Ainsi, lorsque j'écris "Corriger séparément des zones par type de couleur me paraît aberrant. Je préfère de loin trouver le bon équilibre pour une photo complète…", je parle de ce que je pense de l'usage d'un logiciel d'ouverture de RAW : je lui demande de me permettre de caler parfaitement ma balance afin d'obtenir le fichier TIFF le plus proche de ce qui me paraît être la meilleure base que l'on puisse obtenir avec ce que le capteur a enregistré. Je considère ainsi que je crée l'équivalent du film révélé, et c'est avec Capture One que j'ai trouvé l'outil qui me convient le mieux. Ensuite, ayant enregistré un fichier TIFF en 16 bits, je fais le travail que je considère comme étant le travail de tirage : masquages, etc. ma signature |
Icarex 35 |
|
Spécialiste Messages : 2146Depuis le 6 avr 2008 Lyon |
JMS a écrit : Quant à la sensibilité réelle c'est celle de base du capteur, corrigée de la préférence d'exposition de l'appareil (certains exposent un peu à droite, d'autres un peu à gauche), ensuite il y a deux façon de la booster: analogique (jusqu'à 6400 pour un D700) puis numérique (modification des valeurs jusqu'à 25600 sur le même). Visiblement il n'y a que le premier mode sur les M8/M9.C'est précisément le but de mes interrogations. Pourquoi le logiciel "dérawtiseur" ne permettrait-il pas d'effectuer ce traitement numérique ? Et pourquoi ne le ferait-il pas au moins aussi bien que celui interne aux boitiers concurrents ? |
Cedric92 |
|
Spécialiste Messages : 1224Depuis le 9 juil 2008 Suresnes (92) |
Avec des optiques Zeiss, le D700 se rapproche énormément du M8 Cela dit, il reste le détail qui tue (en fait les deux détails) à l'avantage du Leica :
1. Pas de filtre AA donc une image ultra-fine et une accutance maximale, là où le Nikon fournit de facto une image forcément un poil "molle" (terme excessif dans le cas présent) sans accentuation 2. Capteur CCD donc une richesse de nuances que l'on ne retrouve pas sur le D700 qui a tendance à avoir des dominantes (jaune) et une sorte de lissage de la chromie La photographie, c'est essentiellement de la marche à pied. |
Coignet |
|
agent technique Messages : 14852Depuis le 5 nov 2003 75001 |
Je crois que JMS a clairement expliqué que le D700 par exemple obtient cette haute sensibilité non de manière logicielle mais par la qualité de son capteur (gros photosites).
Il suffit d'essayer l'interpolation logicielle du D700 jusqu'à 25600 à laquelle il fait allusion pour comprendre qu'il vaut mieux que ce soit le capteur qui soit capable de fournir un signal "propre". Au-delà de sa capacité à le faire, c'est de la bouillie ! Le M8 ne peut pas faire mieux certainement pour des raisons physiques (plus petits photosites). Il est probable qu'on fera à l'avenir des progrès. Il me semble qu'il n'y a pas là matière à être scandalisé : un film 1600 couleur n'est pas très très bon non plus comparé au capteur du D700. ma signature |
pascal_meheut |
|
Vieux briscard Messages : 3623Depuis le 9 fév 2005 Paris |
Icarex 35 a écrit : C'est précisément le but de mes interrogations. Pourquoi le logiciel "dérawtiseur" ne permettrait-il pas d'effectuer ce traitement numérique ? Et pourquoi ne le ferait-il pas au moins aussi bien que celui interne aux boitiers concurrents ?Parce que les CMOS Canon/Nikon ne donnent pas cette absence de bruit uniquement par traitement logiciel mais parce que leur bruit de base est soustrait dans l'appareil. C'est toute l'astuce qui a permis la course à la sensibilité et qui ne marche pas avec les CCD. Après, il y a éventuellement du traitement logiciel ou pas suivant les boitiers, en RAW notamment (cf les sites d'Astrophoto qui s'en plaignent chez Nikon). Et effectivement, ce traitement peut être fait sur un PC/Mac et améliorer les images sorties du M9. C'est d'ailleurs ce que font en partie les derawtiseurs. Mais outre le fait qu'ils ne pourront pas compenser la différence CMOS vs CCD, ils n'ont pas vocation à faire le même travail que le soft embarqué que Canon et Nikon développent pour se battre sur le terrain des hauts ISOs. Pour les anglophones, voici un article qui remonte à la sortie du Canon D30, le 1er reflex avec un CMOS et qui explique le développement de la technologie : http://www.dpreview.com/news/0005/00051 ... etimes.asp |
Coignet |
|
agent technique Messages : 14852Depuis le 5 nov 2003 75001 |
pascal_meheut a écrit : cf les sites d'Astrophoto qui s'en plaignent chez NikonC'est vrai, j'ai lu ça. J'aimerais bien qu'il soit possible de neutraliser cet action du firmware… Et éventuellement d'autres, pour pouvoir choisir soi-même la sortie finale. ma signature |
JMS |
|
✝ Messages : 619Depuis le 14 nov 2006 78980 NEAUPHLETTE |
Je pense que ces traitements avancés ne sont pas toujours modifiables par firmware, un filtrage analogique c'est du hard. Mais tout çà est assez couvert par le secret industriel...et rien ne prouve que le M9 ne fasse pas un peu de lissage: les notes de piqué "brut" avec la même optique et logiciel entre M8 et M9 montrent que les fichiers du M9 sont un poil plus doux. Filtre IR interne très légèrement floutant (très très peu en réalité j'en suis persuadé) ou amélioration électronique quelque part dans l'appareil ? |
pascal_meheut |
|
Vieux briscard Messages : 3623Depuis le 9 fév 2005 Paris |
JMS a écrit : les notes de piqué "brut" avec la même optique et logiciel entre M8 et M9 montrent que les fichiers du M9 sont un poil plus doux. Filtre IR interne très légèrement floutant (très très peu en réalité j'en suis persuadé) ou amélioration électronique quelque part dans l'appareil ?Est ce que ca ne peut pas être du à l'augmentation de la résolution ? Il n'y avait pas eu ce genre de phénomène chez Nikon où avec un changement de génération, les fichiers donnaient l'impression d'être moins "au rasoir" ? |
tuscland |
|
Messages : 14 Depuis le 15 jan 2010 Paris |
Bonjour,
Coignet a écrit : Je considère ainsi que je crée l'équivalent du film révélé, et c'est avec Capture One que j'ai trouvé l'outil qui me convient le mieux. Ensuite, ayant enregistré un fichier TIFF en 16 bits, je fais le travail que je considère comme étant le travail de tirage : masquages, etc.Adobe Camera Raw et le tout nouveau Aperture 3 permettent des masquages d'ajustement non-destructif. Je crois que Capture One aussi, mais je ne connais pas suffisamment. Comme le travail est non-destructif, l'étape d'enregistrement en TIFF est rendue inutile. Cordialement, Camille |
JMS |
|
✝ Messages : 619Depuis le 14 nov 2006 78980 NEAUPHLETTE |
On ne vas pas dériver sur NX2, mais le masquage est possible par Upoints (délicats, il faut souvent créer des contre Upoints pour délimiter la zone) mais aussi par zone sélectionnée au pinceau, comme sur d'autres produits. Nikon vend son affaire comme un produit complet, car ces réglages fonctionnent aussi en TIFF ou JPG...par exemple sur un TIFF sorti de C1 d'après un DNG de M 9 |
Aniki |
|
Spécialiste Messages : 2162Depuis le 16 mars 2008 Montreuil |
J'aime bien ce genre de débat, il y a de tout dans les réponses pour expliquer la sensibilité d'un capteur ou d'un tel capteur. Et parfois des réponses très intéressantes. Du coup, je viens mettre mon grain de sel
J'ai été choqué que personne ne parle (ou alors sans le nommer) du CAN, ou "Convertisseur Analogique Numérique". Comme JMS l'a écrit, c'est surtout là-dedans que se fait toute la cuisine RAW, et les variations de recettes d'une marque à l'autre justifie toutes les différences de rendue. [C'est ainsi que, hors implications optiques, le capteur du Leica X1 ne produit pas les mêmes images que celui du Nikon D300... alors que c'est le même capteur.] Comme son nom l'indique, le CAN est celui qui va aller lire l'information analogique issue des photosites du capteur, ces informations étant des charges électriques. La manière de "lire" dépend de la nature même du capteur :
On parle souvent de différence de sensibilité native entre les capteurs CMOS et les capteurs CCD. Dans l'absolu, il n'y a pas de solution plus performante que l'autre, tout dépend de l'instant t auquel est effectuée la comparaison. Je tiens aussi à préciser que, non, le CMOS n'est pas moins performant que le CCD en ce qui concerne les rayons incidents très inclinés (contrairement à ce que raconte Leica en ce qui concerne le CCD du M8, puis du M9). Dans chaque cas, il faut voir le capteur comme un énorme sandwich accompagné de son mode d'emploi : on ne peut pas juger les performances d'un capteur sur les seuls nombre et dimensions de ses photosites. Il faut, en plus, prendre en compte le réseau de micro-lentilles, la technologie utilisée pour les lignes de décharges, le firmware du CAN, les différentes filtres (passe haut, passe bas, passe à droite, passe à gauche, passe pas les IR, tout ça tout ça), et l'usage d'une technologie exotique (type "Super CCD" chez Fujifilm). Le CCD est historiquement plus ancien (mais ça, on s'en fout un peu). Sa particularité est d'utiliser la totalité de la surface du photosite. Le CMOS, lui, n'utilise que 75% de la surface du photosite (donc 75% de la surface du capteur, ce qui implique une perte énorme !). Or, c'est bien connu, plus la surface photosensible est grande, plus la sensibilité est élevée. Les 25% "aveugles" des CMOS est dû au fait que cette partie est utilisée comme "transistor". C'est cette partie aveugle qui, du coup, permet la lecture indexée (donc "aléatoire"), mode de lecture qui fait la force du CMOS. Le surcroît de sensibilité est donc essentiellement logiciel, à superficie et nombre de photosites égaux ! Tant que j'en suis à parler de physique su capteur, j'aimerais dire une chose : actuellement, 95% des capteurs CCD sont Full Frame, et aucun capteur CMOS n'est Full Frame. Par contre, il existe des capteurs Full Format en CCD et en CMOS. Au même titre que ce que je disais plus haut par rapport à la confusion des termes échantillonnage ≠ quantification, cette confusion Full Frame ≠ Full Format ≠ Plein Cadre ≠ Plein Format provient d'une facilité "marketing", qui au-lieu d'aller chercher plus loin la signification d'une technologie, préfère comprendre ce qu'elle veut bien comprendre et lui paraît le plus vendeur. Ainsi, un capteur Full Frame n'est pas un capteur aux dimensions égales à celles d'une image 24x36. Un capteur Full Frame est un capteur dont les pistes de décharge passent derrière le capteur, alors qu'avant elles passaient devant, entre les photosites. De fait, dans l'ancienne technologie, une partie certaine de la surface du capteur était aveugle, les pistes de décharge n'étant pas photosensibles. Avec ses pistes qui passent derrière, un CCD devient ainsi Full Frame, puisque toute sa surface est utilisée pour capteur la lumière. Un CMOS, par essence, ne peut pas être Full Frame puisque 25% de sa surface a une fonction de transistor. Ce petit coup de gueule étant passé, hop, la suite Au niveau physique, la sensibilité peut être accrue par le réseau de micro-lentilles. Les Leicaistes que nous sommes connaissent bien cela, puisque la marque a énormément communiqué sur le nécessité et la difficulté de sa mise en place pour redresser les rayons périphériques vraiment trop inclinés (les photosites aiment l'orthogonalité). Mais en plus de la simple fonction de redressement, ces micro-lentilles servent aussi de collecteurs de lumière. En effet, la fine paroi de silicium entre deux photosites a une épaisseur non nulle. Epaisseur non nulle qui, ramenée à la totalité du capteur, implique qu'un pourcentage constant de sa surface est aveugle : tous les rayons tombant sur ces parois ne servent à rien à l'élaboration de l'image (pire, ils peuvent en dégrader la qualité !). C'est là qu'interviennent les micro-lentilles : elles servent de collecteur, comme le dôme à la sortie de la Station St-Lazare permet d'optimiser la luminosité du "hall". Je n'y connais rien en architecture, mais je suppose qu'un dôme est plus efficace qu'un simple toit plat transparent pour collecteur la lumière (j'espère que Coignet confirmera, sinon j'ai l'air con). Ce sont ces micro-lentilles qui ont beaucoup fait parler d'elles lors de la sortie du D3s : leur amélioration a permis d'augmenter la sensibilité du bousin. La modification de leur structure (désormais il y a moins d'espace perdu entre les lentilles) a conduit à une diminution très importante du nombre de ces "rayons inutiles perdus dans la nature" (si je pouvais dessiner, ce serait vachement plus pratique). Voici une illustration (Canon) pour donner un sens à tout ça : © Focus Numérique Un autre tour de passe-passe permet d'accroître encore un petit peu la sensibilité d'un capteur (en fait, on optimise plutôt la quantité de lumière que peut recevoir un capteur). Nous savons tous qu'un filtre, c'est joli, mais qu'un filtre, ça diminue de manière sensible la quantité de lumière qui parvient au final sur la surface photosensible. Le filtre de bayer n'échappe pas à cela. Du coup, pour optimiser encore un peu le rendement lumineux, on peut éclaircir très légèrement ce filtre, histoire de gagner un diaph (ce qui est déjà énorme). Mais on y perd en saturation des couleurs. C'est ce qui s'est passé, entre autres, lors du passage du 5D au 5D Mk II [mais Dido en parlera mieux que moi]. J'ai presque fini de faire le tour du propriétaire, et je pourrais encore vous parler de plein de choses. Par exemple, on pourrait évoquer la question du bruit, qui n'existe pas (ou pas sous la même forme) en argentique, et qui s'avère centrale, puisque c'est lorsque le bruit montre trop qu'on commence à se dire qu'on va en chier dans les hautes sensibilités. Je vais donc faire un petit rappel sur le bruit. Le bruit, c'est le côté obscur du rapport signal/données. En photographie numérique, il y a TOUJOURS du bruit. Mais la plupart du temps il se corrige parce qu'il est connu et mesurable. Il existe trois sortes de bruit :
Le software, c'est tout un drame. Entre le firmware qui contrôle le CAN, le firmware qui contrôle le DSP, le logiciel de "dérawtisation" utilisé par l'opérateur, l'ordinateur utilisé, la compatibilité, tout ça, tout ça, c'est un beau bordel. Du coup, je vais éluder totalement la question en disant que, de toute manière, à boîtier identique, les procédés et habitudes d'élaboration de l'image finale jusqu'au tirage sont tellement subtilement différents d'un individu à l'autre, qu'au final, même si les bases techniques objectives sont les mêmes, il y a trop de subjectivité là-dedans. [Par exemple, si ça se trouve, on obtiendra avec un DNG pris à 1250 ISO au M8 aujourd'hui une "texture" égalant celle des 160 ISO aujourd'hui.] Pour ce qui est de la sensibilité pure du capteur, et c'est là que vous allez me reprocher "tout ça pour ça", on n'a pas vraiment d'autre choix que de faire confiance aux constructeurs : seule la sensibilité native compte. C'est celle du silicium, améliorée de certains nombres de technologies. Tout comme l'AgBr avait une sensibilité que venaient améliorer sa structure cristalline et les cyanines. Ensuite, il pourrait y avoir un débat en ce qui concerne la préférabilité d'une sensibilité native haute (200 ISO pour les Nikon), basse (100 ISO pour les Canon, voire 50 ISO pour les capteurs Kodak des Blad), en racine cubique de deux (160 ISO pour Leica), etc, etc. Toutes les autres sensibilités, c'est de l'extrapolation. Et, oui : toutes les photos sont prises à la sensibilité native. Même les photos prises à 6400 ISO. Tout, tout, tout, vient du travail effectué sur le rapport signal-bruit. En fait, lorsqu'on prend une photo à une sensibilité supérieur ou inférieur à la sensibilité native du capteur, on lui indique plusieurs choses :
Si vous voulez, si vous avez du temps, vous pouvez vous amuser à vous mettre en manuel, à 160 ISO, prendre une photo. Puis sans toucher aux réglages, augmenter la sensibilité, reprendre une une photo. Et ainsi de suite. Puis tenter de tout développer de sorte à obtenir un rendu équivalent. Dans la théorie, c'est possible. Mais bon, pourquoi se casser le cul, alors que le firmware fait ça tellement mieux (et tellement plus vite) que nous ? [J'espère n'avoir endormi personne, et vous remercie de m'avoir lu jusque là. ] La photo c'est bon. Mangez-en. Pour suivre les tribulations de mon livre photo consacré à Tokyo Pour participer à la campagne de financement de Mizuwari, mon premier livre photo. Site : BrunoLabarbere.com ! |
Dernière édition par Aniki le mercredi 10 février 2010 - 14:57, édité 1 fois. | |
Icarex 35 |
|
Spécialiste Messages : 2146Depuis le 6 avr 2008 Lyon |
Un article intéressant:
http://www.louis-armand-mulhouse.eu/bts ... /image.pdf |
danyves |
|
Vieux briscard Messages : 4810Depuis le 23 juil 2007 Normandie |
Merci à tout les deux. |
Cedric92 |
|
Spécialiste Messages : 1224Depuis le 9 juil 2008 Suresnes (92) |
Un résumé passionnant Aniki, merci La photographie, c'est essentiellement de la marche à pied. |
Retourner vers Leica M : boîtiers
Utilisateurs parcourant cette section : Aucun utilisateur enregistré et 26 invités