Un peu de technique niveau écrans...

Geraud
    Un peu de technique niveau écrans...
Avatar de l’utilisateur
Vieux briscard
Messages : 3542
Depuis le 21 avr 2005
742 Evergreen Terrace, Springfield
Allez, la c'est du geek pur et dur donc inutile de rester tout lire si vous ne vous interessez pas a ca. ;-)

Mais recemment j'ai vu sur Luminous Landscape une critique d'un ecran Eizo titrant "les ecrans 10-bit enfin la". La j'ai tilte vu que je pensais que la plupart des ecrans haut de gamme etaient deja en 14 ou 16 bits.

Mais en fait il parlait de l'interface carte graphique <-> ecran. Et c'est la que le bat blesse. En effet l'interface numerique standard, DVI donc, ne supporte pas 10 bits, seulement 8! En pratique il faut donc utiliser une nouvelle interface, dont le connecteur ressemble a l'HDMI, qui se nomme DisplayPort.

Donc avis a ceux qui veulent s'equiper sur le long terme en haut de gamme... il faut une carte graphique qui supporte cela, avec le connecteur idoine. Il existe ce type de carte a la fois chez NVIDIA et chez AMD (ATI). Attention toutefois, sur les cartes NVIDIA, cela depend du "fabriquant" de la carte pour un modele donne! (eVGA, MSI, etc etc)

Donc voila, si un jour vous voulez tirer pleinement parti de votre bel ecran Eizo ou autre... il faut penser a utiliser le connecteur approprie, donc la carte qui va bien...
gautier
Avatar de l’utilisateur
Administrateur
Messages : 15105
Depuis le 21 mai 2003
Toulouse
Ou un Mac récent, ils sont équipés de ports DisplayPort (connecteur Mini DisplayPort).
MarcF44
Avatar de l’utilisateur
Vieux briscard
Messages : 3308
Depuis le 23 mars 2010
Nantes
J'ignorais que le DVI ou HDMI était limité à 8 bits... soit 256 nuances en N&B
:shock: :shock: :shock:

très intéressant.
Le matériel j'en ai plein le dos ! Plus c'est léger mieux c'est.
Geraud
Avatar de l’utilisateur
Vieux briscard
Messages : 3542
Depuis le 21 avr 2005
742 Evergreen Terrace, Springfield
Gautier c'est bon a savoir, mais il faut que la carte graphique le supporte egalement.

D'apres ce que le gars dit, c'est seulement le cas pour AMD. (j'ai une 5870 en pret au boulot effectivement elle a la sortie, par contre aucun moyen de tester si elle sort du 10-bit... ;-) )
gautier
Avatar de l’utilisateur
Administrateur
Messages : 15105
Depuis le 21 mai 2003
Toulouse
Geraud a écrit :
mais il faut que la carte graphique le supporte egalement
En effet, je ne sais pas ce qu'il en est pour les cartes équipant les Mac. Le mien est équipé d'un modèle NVIDIA.
Fenoll
    cartes mac
Avatar de l’utilisateur
Régulier
Messages : 290
Depuis le 25 mai 2008
Kervalet
les mac pro récents (intel et G5), sont en Nvidia Gforce. 120 pour les nehalem quad, par exemple
gautier
Avatar de l’utilisateur
Administrateur
Messages : 15105
Depuis le 21 mai 2003
Toulouse
Oui, mais on peut aussi choisir des cartes ATI ou EVGA (ou d'autres modèles NVIDIA). Et rien n'indique que ces cartes sortent du 10 bits. Je suppose que non, le vendeur l'indiquerai si c'était le cas.
Geraud
Avatar de l’utilisateur
Vieux briscard
Messages : 3542
Depuis le 21 avr 2005
742 Evergreen Terrace, Springfield
Hop j'ai trouve la reponse sur wikipedia (c'est magique).

Donc en fait chez AMD il semble que toutes les cartes haut de gamme (pour joueur comme la 5870, ou bien les cartes pro comme les FirePro V8800) supportent une sortie en 10 bits par canal.

Chez NVIDIA c'est le cas pour les cartes pro, aka les cartes Quadro. Voir le tableau page 4 sur ce pdf

Par contre ca fait cher apres, etant donne que les Quadro ne sont pas exactement donnees ;-) En tout cas j'essaierai de trouver une machine sous Windows demain au boulot avec une 5800 pour vous expliquer un peu mieux comment on regle ca (aucun moyen de verifier sur un ecran helas... on les utilise pour du calcul ;-) )

ps: si certains veulent casser la tirelire, une Quadro 5800 c'est dans les 2000 euros, une AMD 5870 dans les 500. Certes la Quadro a 4Go de memoire graphique. Mais est-ce vraiment necessaire pour de la photo...
pascal_meheut
Vieux briscard
Messages : 3623
Depuis le 9 fév 2005
Paris
D'après l'article de luminous-landscape, ca marche sur Mac avec une ATI Radeon HD 4870.
MarcF44
Avatar de l’utilisateur
Vieux briscard
Messages : 3308
Depuis le 23 mars 2010
Nantes
En tous cas je suis atterré parceque bêtement pendant un moment je cherchais des écrans capables d'afficher plus de 256 nuances de gris...alors que le cordon qui m'aurait permis de m'y relié ne pourra jamais en produire plus !
Le matériel j'en ai plein le dos ! Plus c'est léger mieux c'est.
gautier
Avatar de l’utilisateur
Administrateur
Messages : 15105
Depuis le 21 mai 2003
Toulouse
pascal_meheut a écrit :
D'après l'article de luminous-landscape, ca marche sur Mac avec une ATI Radeon HD 4870.
Carte proposée en option sur les Mac Pro actuels. L'iMac 27" (équipé d'un port Mini DisplayPort) a droit au modèle HD 4850 qui semble gérer également cette profondeur (voir les spécifications). Mais je n'ai peut-être pas tout compris : AMD écrit "supports 18-, 24-, and 30-bit digital displays" pour un port DVI et "supports 24- and 30-bit displays" pour un port DisplayPort.
Geraud
Avatar de l’utilisateur
Vieux briscard
Messages : 3542
Depuis le 21 avr 2005
742 Evergreen Terrace, Springfield
Bah c'est super tout ca! maintenant reste a trouver un avis ici sur la qualite d'affichage entre un ecran photo avec entree 10-bit et un ecran entree 8-bit?

Pour repondre a Marc, les ecrans peuvent produire plus que cela puisque la plupart sont capables d'afficher du 14 ou 16-bit dans la gamme photo. Par contre les infos de couleurs ne viennent pas de la carte graphique. Je presume donc qu'il y a une interpolation qui est faite?

Si quelqu'un a des infos sur ce que fait en pratique un ecran 16-bit qui recoit un message 8-bit... je suis preneur ;-)

Retourner vers Labo numérique

Qui est en ligne

Utilisateurs parcourant cette section : Aucun utilisateur enregistré et 3 invités