IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La VESA annonce une nouvelle spécification : le DisplayHDR
Pour donner une indication sur les capacités HDR des écrans d'ordinateur

Le , par LittleWhite

37PARTAGES

10  0 
Après les télévisions, ce sont aux écrans d'ordinateur d'adopter l'affichage d'images HDR (High Dynamic Range, soit, des images ayant plus de 8 bits de couleurs par composante).
Pour suivre cette évolution, mais aussi pour mieux encadrer les constructeurs et ainsi aider les acheteurs, le Video Electronics Standards Association (VESA) annonce une nouvelle spécification : DisplayHDR. Celle-ci définit trois catégories DisplayHDR 400, DisplayHDR 600 et DisplayHDR 1000 ainsi qu'une méthodologie destinée aux constructeurs pour tester leurs matériels. D'ailleurs, l'utilisateur final pourra aussi tester son écran grâce à un outil qui sera mis à disposition par VESA (début 2018).

Voici les catégories de la spécification :


(Cliquez sur l'image pour l'agrandir)

Dans le futur, VESA souhaite ajouter d'autres catégories et aussi prendre en compte les écrans OLED. On remarquera que la certification est indépendante des aspects comme la résolution et le ratio (contrairement à ce qui a été fait pour les télévisions). Les logos/catégories peuvent aussi être utilisés par les constructeurs de télévisions.

Votre opinion

Trouvez-vous cette nouvelle spécification utile ? Que pensez-vous des catégories ?
Êtes-vous intéressé par un écran HDR pour ordinateurs ?

Voir aussi

Qu'est-ce que le High Dynamic Range (HDR) ?

Source

Site officiel

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 15/12/2017 à 22:35
Citation Envoyé par foetus Voir le message
L'idée du HDR (du moins ce que j'ai compris), c'est de pouvoir modifier la luminosité d'un pixel avec des valeurs allant jusqu'à 1000 (actuellement c'est à peine 300-400).
Ce que je ne comprends pas, dans toutes ces histoires (mis à part que ça doit surtout être de l'enfumage de marketeux), c'est à quoi ça servirait des valeurs de 0 à 1000 quand l'œil n'est pas capable de détecter une variation de 1 point sur cette (bientôt vieille, à les écouter) échelle de 0 à 255.

Citation Envoyé par foetus Voir le message
Afin d'avoir des noirs de plus profond à plus brillant (comme au cinéma)
Euh, noir c'est noir (RIP) et point barre.
Bon, faut dire que ça fait longtemps que je ne suis pas allé au cinoche, mais pour moi, s'il y a deux noirs et qu'on voit la différence, c'est que l'un des deux n'est pas vraiment noir, et si c'est sur un écran d'ordi, un coup de color picker lèvera le lièvre : si on mesure un patch à 3 fois 0 et l'autre à 3 fois 5, ben ce dernier n'est pas noir, c'est tout.
Et en dessous, on ne verra pas la différence.
3  0 
Avatar de LittleWhite
Responsable 2D/3D/Jeux https://www.developpez.com
Le 17/12/2017 à 14:23
Bonjour,

On prend 3 images à des temps d'exposition différents
Ça, c'est pour les photos HDR, que vous pouvez faire vous même avec votre téléphone intelligent. Toutefois, cette technique n'ait vraie que pour les appareils photo, prenant des photos en 8 bits par composante.
Par contre, cela n'est pas sensé être vrai pour les films, ni les jeux :
  • pour les films, la caméra filmant la scène permet de capturer cette dernière avec plus de 8 bits par composante, mais jusqu'alors, bah le film était distribué qu'en 8 bits par composante (ça économise de la place et de toute façon, le spectateur ne pouvait pas le voir). En voici une explication graphique :
    ;
  • pour les films (2), il peut y avoir une étape de post-process (enfin, il peut -> c'est pour tous les films), durant laquelle les couleurs sont recalibrées et ont ajoutent les effets spéciaux, qui eux, peuvent aussi utiliser plus de 8 bits par composante ;
  • pour les jeux, avec le matériel graphique adéquat (et le code), on peut produire des images ayant plus de 8 bits par composante, ce n'est pas si compliqué que cela.


Pour l'histoire du noir, plus noir que noir, il faut se rappeler que la dalle de la télévision, lorsqu'elle doit afficher une image claire/partiellement claire, elle va utiliser toutes les tonalités des 8 bits disponibles pour la zone claire (disont, la sortie d'un tunnel avec vue sur l'extérieur). Du coup, pour la partie sombre (les gravats dans le tunnel), bah il y aura moins de marge (donc moins de nuance, donc les gravats moins visibles). Avec 10 bits, on pourra avoir de la précision (des nuances) pour l'extérieur, et aussi des nuances (plus qu'avec 8 bits) pour l'intérieur. Du coup, ça fait une image moins fade (sur certaines zones), c'est-à-dire ayant plus de nuances, donc plus détaillées.
Comme nos écrans actuels, sont en 8 bits, c'est de la triche, toutefois, cette image explique ce que je viens de détailler :
2  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 16/12/2017 à 8:47
Vit' vit' parce qu'après on va dire que je trolle, mais :
Citation Envoyé par foetus Voir le message
[...] D'ailleurs pour les téléviseurs (plus pour regarder des films qu'un moniteur ), les téléviseurs plasma étaient très prisés pour cette raison : "les écrans plasma génèrent un spectre de couleurs plus large, un gamut plus étendu, et bénéficient d'un meilleur contraste, notamment grâce à la qualité des noirs" (d'après l'ami Wiki)
L'ami Wiki s'est fait enfumer et reproduit le message marketing.
Je ne vois pas comment un noir pourrait être plus noir qu'un autre. À l'époque des tubes cathodiques, le noir c'était les trois canons éteints, et je ne vois pas comment ils pourraient être plus éteints que déjà éteints...
Une porte peut-elle être plus fermée que fermée ?
Tiens, on dirait du Coluche et le blanc plus blanc que blanc.

Générer un spectre de couleurs plus large, admettons, c'est du bête hardware mais comme l'œil n'est pas capable de voir la différence, ça ne sert à rien.

Ou alors ils trafiquent les images, ils travestissent la réalité, quoi, et tout le monde trouve ça génial sinon on passe pour un ringard.
Lecture récente ici.
1  0 
Avatar de Chatanga
Membre averti https://www.developpez.com
Le 16/12/2017 à 14:55
Citation Envoyé par Jipété Voir le message
L'ami Wiki s'est fait enfumer et reproduit le message marketing.
Je ne vois pas comment un noir pourrait être plus noir qu'un autre. À l'époque des tubes cathodiques, le noir c'était les trois canons éteints, et je ne vois pas comment ils pourraient être plus éteints que déjà éteints...
Une porte peut-elle être plus fermée que fermée ?
Tiens, on dirait du Coluche et le blanc plus blanc que blanc.

Générer un spectre de couleurs plus large, admettons, c'est du bête hardware mais comme l'œil n'est pas capable de voir la différence, ça ne sert à rien.

Ou alors ils trafiquent les images, ils travestissent la réalité, quoi, et tout le monde trouve ça génial sinon on passe pour un ringard.
Un code RGB est limité et n'est pas une description absolue ni suffisamment fine de la perception chromatique. Un « noir » est effectivement obscur sur un cathodique, mais l'est nettement moins sur un LCD où le rétro-éclairage n'est jamais obturé à 100%. Sur l'un ou l'autre, un « blanc » ne sera jamais qu'un gris plus ou moins marqué. Au passage, c'est Coluche qui se plante : le plus blanc que blanc existe ou, plus précisément, est perceptible. Ça consiste à ajouter de l'azuréen dans les lessives pour rendre les textiles plus brillants* et donc visiblement « plus blancs » (jette donc un œil à un paysage enneigé pour découvrir de la neige plus blanche que blanche). La plage de rendu de la luminosité par un écran est donc limitée. Même si l’œil humain a aussi une plage limité (et c'est pourquoi il fonctionne comme un appareil photo capable de limiter l'exposition de sa rétine), sa plage reste plus étendue et un écran HDR garde un sens. Évidemment, une publicité pour le HDR sur un écran classique est vouée à relever de la manipulation (tout comme vanter le 100 Hz ou la 3D sur un écran 60 Hz affichant de la 2D).

De manière peut-être plus simple et évocatrice : attache 2 écrans LCD côte à côte et règle la luminosité de l'un au minimum et celle de l'autre au maximum. Tu obtiens ainsi un écran HDR (un peu merdique il est vrai) et comprend bien au passage la nécessité de coder les couleurs avec une plage de valeurs plus grande (au moins un bit dans notre cas, histoire de distinguer entre la luminosité du premier écran et celle du second)

* C'est d'ailleurs pourquoi les militaires doivent utiliser des lessives sans azuréens sous peine de passer pour des sapins de Noël en vision de nuit.
1  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 16/12/2017 à 16:18
Citation Envoyé par Chatanga Voir le message
(jette donc un œil à un paysage enneigé pour découvrir de la neige plus blanche que blanche).
Je ne vais pas m'appesantir, je dirai simplement que plus blanc que blanc ne peut pas exister pour la bonne et simple raison qu'en l'état actuel des technologies, il n'y a rien au-delà de 255,255,255 (et si c'était sur 10 bits, la limite serait à 1023, hardwarement figée par construction, par design), et qu'on peut blablater tout ce qu'on veut, il n'y a rien au-delà de la limite.

Ton paysage enneigé avec des blancs plus blancs que blanc, c'est juste qu'il y a juste beaucoup plus de blanc que sous les Tropiques, mais le blanc c'est du blanc.
255 255 255 c'est du blanc, 254 254 254 c'est un gris extrêmement clair mais ça n'est déjà plus du blanc.

Et je ne vois () pas ce qu'il y a à redire à çà.
1  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 17/12/2017 à 14:37
Cette image prouve parfaitement bien ce que je m'évertue à répéter depuis le début :



en regardant cette scène dans la vraie vie, on serait ébloui par le soleil en face, l'iris se fermerait, et le rocher lumineux au premier plan ne serait pas vu comme ça, tout comme l'herbe brillament verte juste devant, ainsi que les versants en contre-jour des montagnes dans le lointain qui devraient être sombres de chez sombre.

Donc quel intérêt de travestir la réalité en enrobant ça de mots pompeux, ronflants et bling-bling pour faire croire que c'est ça ou la loose, si ce n'est pour faire du bizness ?
1  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 17/12/2017 à 23:15
Je ne comprends pas ce que vous voulez démontrer...

Citation Envoyé par foetus Voir le message
Est-ce que tu sais à quoi correspond le 400, 600, 1000 ?

Lorsque tu vas te prendre une luminosité entre 400 et 1000 cd/mm² dans la tronche, tu vas courir chercher tes lunettes de soleil (ou balancer ton écran HDR)
Là on dirait à te lire que si je regarde l'image HDR je vais être ébloui. Et donc ? Mon iris va se fermer histoire de supporter cette forte lumière, résultat des courses les ombres vont se noircir et les détails sombres vont s'y noyer. Bilan de l'opération : l'image HDR va se retrouver en mode Normal Range dans mes yeux.

Alors à quoi ça sert ? (à part à enrichir les marketing' men ?)

LW me demande comment j'ai trouvé les images HDR, mais j'ai déjà répondu : je les trouve artificielles, traficotées1, ne représentant pas la réalité, donc aucun intérêt artistique.
Et encore une fois, les seuls à y voir un intérêt, financier !, c'est les marketeux déjà cités. Ils reviennent bien souvent dans le débat, je trouve.

1 : et ce n'est pas moi qui le dis, c'est dans la propagande officielle : on prend trois images à des expositions différentes et on choisit le meilleur de chacune pour en composer une quatrième, qui représente donc quelque chose qui n'existe pas !
On se croirait à l'époque de Staline quand quelqu'un de gênant était supprimé des photos officielles. Ben là c'est pareil : on supprime l'absence de détails. Elle est où la différence ?
1  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 18/12/2017 à 9:46
Citation Envoyé par LittleWhite Voir le message
D'ailleurs, d'après ce que vous dites, vous pensez que la sélection est réalisée à la main ("on prend la meilleur", ce qui n'est pas vrai.
Effectivement ce n'est pas vrai, puisque ce n'est pas ce que j'ai dit, qui est, très exactement,
on choisit le meilleur de chacune
Et quant au fait que la sélection soit faite à la main par un bonhomme ou automatiquement par un logiciel, ça ne fait pas une grosse différence (si, peut-être, esthétiquement : le bonhomme avec ses yeux, son goût, sa culture, etc., sera probablement moins stupide que l'algorithme du logiciel), surtout qu'il a fallu des bonshommes pour le pondre, ce logiciel...

Bon bref, on aura compris que je préfère les vraies images d'une vraie nature, plutôt que des machins traficotés pour que des pinpins pas rasés de 3 jours puissent se payer des gros suv...
1  0 
Avatar de foetus
Expert éminent sénior https://www.developpez.com
Le 15/12/2017 à 20:55
Ayant acheté un moniteur en novembre 2017 et j'ai failli prendre un LG 32UD99 qui a une dalle IPS avec HDR justement. (je me suis rabattu sur le petit frère LG 32UD59 avec une dalle VA)

Et j'ai l'impression que cette norme n'est faite que pour patienter parce qu'on ne sait pas faire du HDR 1000 pixel par pixel; qui arrivera en 2019.
Et justement sur le HDR, il y a la norme HDR 10 mais qu'aucun écran HDR ne l'implémente à 100% : donc c'est bien avant tout un truc commercial et que cette norme permet au moins de proposer une clarté d'achat.
Enfin, actuellement c'est du HDR région par région et les constructeurs gardent plus ou moins secret comment ils implémentent leur HDR

Il y a le ROG Swift PG27UQ qui sera [peut être] un HDR 1000, mais il a été repoussé à 2018 et ce n'est qu'un 27 pouces (pour de la 4K)

L'idée du HDR (du moins ce que j'ai compris), c'est de pouvoir modifier la luminosité d'un pixel avec des valeurs allant jusqu'à 1000 (actuellement c'est à peine 300-400).
Afin d'avoir des noirs de plus profond à plus brillant (comme au cinéma)
0  0 
Avatar de foetus
Expert éminent sénior https://www.developpez.com
Le 16/12/2017 à 2:58
Citation Envoyé par Jipété Voir le message
Ce que je ne comprends pas, dans toutes ces histoires (mis à part que ça doit surtout être de l'enfumage de marketeux), c'est à quoi ça servirait des valeurs de 0 à 1000 quand l'œil n'est pas capable de détecter une variation de 1 point sur cette (bientôt vieille, à les écouter) échelle de 0 à 255.
Regarde les images test/ marketing : il y a une réelle différence. Cela permet de rendre certaines zones plus brillantes et d'autres plus sombres (<- mais effectivement c'est plus pour les films)
Et là on joue sur la luminosité (si je ne dis pas de bêtises) : essaye de monter la luminosité de ton écran (il doit être actuellement entre 200 et 250 cd/m², peut être moins) et tu verras bien

D'ailleurs, cette information sera directement stockée dans l'image et la vidéo dite HDR.

Édit : Le premier truc grand public HDR c'est l'extension/ démo du jeu Half-Life 2 : Lost Coast. (<- lien youtube)

Citation Envoyé par Jipété Voir le message
Euh, noir c'est noir (RIP) et point barre.
Je ne suis pas spécialiste mais tout le monde dit que les dalles IPS ont des couleurs fadasses par rapport aux dalles VA. Donc oui, il y a bien différents rendus des couleurs.
D'ailleurs pour les téléviseurs (plus pour regarder des films qu'un moniteur ), les téléviseurs plasma étaient très prisés pour cette raison : "les écrans plasma génèrent un spectre de couleurs plus large, un gamut plus étendu, et bénéficient d'un meilleur contraste, notamment grâce à la qualité des noirs" (d'après l'ami Wiki)
0  0