Page 1 sur 1

Un peu de technique niveau écrans...

MessagePosté: jeudi 15 juillet 2010 - 20:09
par Geraud
Allez, la c'est du geek pur et dur donc inutile de rester tout lire si vous ne vous interessez pas a ca. ;-)

Mais recemment j'ai vu sur Luminous Landscape une critique d'un ecran Eizo titrant "les ecrans 10-bit enfin la". La j'ai tilte vu que je pensais que la plupart des ecrans haut de gamme etaient deja en 14 ou 16 bits.

Mais en fait il parlait de l'interface carte graphique <-> ecran. Et c'est la que le bat blesse. En effet l'interface numerique standard, DVI donc, ne supporte pas 10 bits, seulement 8! En pratique il faut donc utiliser une nouvelle interface, dont le connecteur ressemble a l'HDMI, qui se nomme DisplayPort.

Donc avis a ceux qui veulent s'equiper sur le long terme en haut de gamme... il faut une carte graphique qui supporte cela, avec le connecteur idoine. Il existe ce type de carte a la fois chez NVIDIA et chez AMD (ATI). Attention toutefois, sur les cartes NVIDIA, cela depend du "fabriquant" de la carte pour un modele donne! (eVGA, MSI, etc etc)

Donc voila, si un jour vous voulez tirer pleinement parti de votre bel ecran Eizo ou autre... il faut penser a utiliser le connecteur approprie, donc la carte qui va bien...

MessagePosté: jeudi 15 juillet 2010 - 20:34
par gautier
Ou un Mac récent, ils sont équipés de ports DisplayPort (connecteur Mini DisplayPort).

MessagePosté: jeudi 15 juillet 2010 - 20:39
par MarcF44
J'ignorais que le DVI ou HDMI était limité à 8 bits... soit 256 nuances en N&B
:shock: :shock: :shock:

très intéressant.

MessagePosté: jeudi 15 juillet 2010 - 22:14
par Geraud
Gautier c'est bon a savoir, mais il faut que la carte graphique le supporte egalement.

D'apres ce que le gars dit, c'est seulement le cas pour AMD. (j'ai une 5870 en pret au boulot effectivement elle a la sortie, par contre aucun moyen de tester si elle sort du 10-bit... ;-) )

MessagePosté: vendredi 16 juillet 2010 - 5:57
par gautier
Geraud a écrit :
mais il faut que la carte graphique le supporte egalement
En effet, je ne sais pas ce qu'il en est pour les cartes équipant les Mac. Le mien est équipé d'un modèle NVIDIA.

cartes mac

MessagePosté: vendredi 16 juillet 2010 - 6:03
par Fenoll
les mac pro récents (intel et G5), sont en Nvidia Gforce. 120 pour les nehalem quad, par exemple

MessagePosté: vendredi 16 juillet 2010 - 6:08
par gautier
Oui, mais on peut aussi choisir des cartes ATI ou EVGA (ou d'autres modèles NVIDIA). Et rien n'indique que ces cartes sortent du 10 bits. Je suppose que non, le vendeur l'indiquerai si c'était le cas.

MessagePosté: vendredi 16 juillet 2010 - 6:53
par Geraud
Hop j'ai trouve la reponse sur wikipedia (c'est magique).

Donc en fait chez AMD il semble que toutes les cartes haut de gamme (pour joueur comme la 5870, ou bien les cartes pro comme les FirePro V8800) supportent une sortie en 10 bits par canal.

Chez NVIDIA c'est le cas pour les cartes pro, aka les cartes Quadro. Voir le tableau page 4 sur ce pdf

Par contre ca fait cher apres, etant donne que les Quadro ne sont pas exactement donnees ;-) En tout cas j'essaierai de trouver une machine sous Windows demain au boulot avec une 5800 pour vous expliquer un peu mieux comment on regle ca (aucun moyen de verifier sur un ecran helas... on les utilise pour du calcul ;-) )

ps: si certains veulent casser la tirelire, une Quadro 5800 c'est dans les 2000 euros, une AMD 5870 dans les 500. Certes la Quadro a 4Go de memoire graphique. Mais est-ce vraiment necessaire pour de la photo...

MessagePosté: vendredi 16 juillet 2010 - 7:11
par pascal_meheut
D'après l'article de luminous-landscape, ca marche sur Mac avec une ATI Radeon HD 4870.

MessagePosté: vendredi 16 juillet 2010 - 8:41
par MarcF44
En tous cas je suis atterré parceque bêtement pendant un moment je cherchais des écrans capables d'afficher plus de 256 nuances de gris...alors que le cordon qui m'aurait permis de m'y relié ne pourra jamais en produire plus !

MessagePosté: vendredi 16 juillet 2010 - 18:22
par gautier
pascal_meheut a écrit :
D'après l'article de luminous-landscape, ca marche sur Mac avec une ATI Radeon HD 4870.
Carte proposée en option sur les Mac Pro actuels. L'iMac 27" (équipé d'un port Mini DisplayPort) a droit au modèle HD 4850 qui semble gérer également cette profondeur (voir les spécifications). Mais je n'ai peut-être pas tout compris : AMD écrit "supports 18-, 24-, and 30-bit digital displays" pour un port DVI et "supports 24- and 30-bit displays" pour un port DisplayPort.

MessagePosté: vendredi 16 juillet 2010 - 20:25
par Geraud
Bah c'est super tout ca! maintenant reste a trouver un avis ici sur la qualite d'affichage entre un ecran photo avec entree 10-bit et un ecran entree 8-bit?

Pour repondre a Marc, les ecrans peuvent produire plus que cela puisque la plupart sont capables d'afficher du 14 ou 16-bit dans la gamme photo. Par contre les infos de couleurs ne viennent pas de la carte graphique. Je presume donc qu'il y a une interpolation qui est faite?

Si quelqu'un a des infos sur ce que fait en pratique un ecran 16-bit qui recoit un message 8-bit... je suis preneur ;-)