Bienvenue dans ce guide dédié à l'élaboration d'une pipeline HDR/SDR, fruit d’une démarche expérimentale et ancrée dans les réalités de 334production.

Ce document n’a pas la prétention de proposer "la meilleure méthode de production HDR", mais vise à partager une approche pratique, accessible et reproductible conçue pour répondre aux problématiques courantes liées à la production de contenus HDR pour le web.

L’objectif est de montrer qu’il est possible de produire un contenu HDR de qualité tout en adoptant une démarche reproductible et financièrement abordable, loin des investissements élévé souvent associés aux productions HDR "standards".

Que vous soyez un créateur novice ou un professionnel cherchant des solutions alternatives à vos productions pour le web, ce guide vous permettra d'inscrire vos créations dans une démarche durable et éfficace.


Avant de commencer, clarifions la notion d'espace colorimétrique et son lien avec la reproduction SDR/HDR, afin de mieux comprendre les motivations de cette démarche et les enjeux pour le spectateur.


Pour simplifier le processus d'une pipeline de production vidéo :

  1. La première étape consiste à transformer une scène réelle en une représentation numérique, en utilisant un codec d'acquisition (ProRes RAW, ProRes HQ, DNxHR...) pour compresser les données vidéo. Ce flux est ensuite encapsulé dans un conteneur de fichier (MOV, EXR) pour faciliter son stockage et sa manipulation.

  2. Nous affinons ensuite l'image en effectuant un étalonnage colorimétrique minutieux. Cela consiste à ajuster des paramètres comme la température de couleur (pour rendre les images plus chaudes ou plus froides), la saturation (pour intensifier ou atténuer les couleurs), le contraste et l'acutance (pour renforcer les détails). Nous corrigeons également les éventuels défauts comme le bruit numérique (le grain) et les halos. Ces réglages permettent d'obtenir une image à la fois esthétique et fidèle à l'intention artistique du projet.

  3. Afin de garantir une diffusion optimale sur le support choisi (plateforme de streaming, DVD, etc.), nous procédons à un processus de mastering. Cette étape consiste à adapter le fichier vidéo aux caractéristiques techniques spécifiques du support, tout en préservant la qualité visuelle et sonore définie en amont.


Pour vulgariser ce processus, comparons ce procédé à l'extraction d'une pierre précieuse.

  1. Tout commence par l'extraction (l'acquisition) : d'une pierre brute, équivalente à une source "RAW". Cette pierre brute offre une grande flexibilité pour façonner notre point de départ (étape de dématriçage vers un espace colorimétrique de départ). A cette étape on peut également partir d’une pierre déjà taillée et exploitable en l’état mais avec ces limitations, ce qui correspond à un enregistrement avec un profil d’image prédéfini (ex. : Sgamut3, HLG). —- L’essentiel est de partir avec le plus de matière possible pour garantir une latitude maximale dans nos choix créatifs ultérieurs, le compromis se situant entre ce surplus de matière et notre capacité d'emport (stockage).

  2. Vient ensuite l’étape de l’affinage (l'étalonnage) : où nous façonnons et taillons la pierre pour révéler son éclat, ce qui correspond au processus d’étalonnage, d’ajout d'effets spéciaux ou d’autres décisions artistiques qui définissent le style et l’esthétique de notre projet.

  3. Enfin, nous fixons notre création (le mastering) : À l’image d’un joyau poli et serti pour révéler tout son éclat, une fois satisfaits du résultat, nous le figeons en le conformant dans notre cas à l’espace colorimétrique de diffusion et nous veillons à ce que notre travail reste intact, sans altérations susceptibles de dénaturer le savoir-faire qu’il reflète. (export non conforme)


Dans notre analogie, si la pierre brute représente une grande quantité de matière à sculpter, dans le monde numérique, c'est l'information que nous exploitons. Cette information, c'est la capacité de notre capteur à capturer et à encoder (en bits) les nuances de lumière, de couleur et de contraste présentes dans la scène. Le capteur, étant le véritable pont entre le monde réel et le numérique, il convertit les signaux lumineux analogiques en données numériques que notre ordinateur pourra traiter.

source: https://icn-isn-boissy.yj.fr/wp/2020/02/27/codage-de-limage-et-capteur-photo/?upm_export=print


Pour être plus précis, cette information numérique est constituée de valeurs de luminance (qui déterminent la luminosité d'un pixel) et de valeurs chromatiques (qui définissent sa couleur). Ces valeurs sont enregistrées dans un espace colorimétrique spécifique, comme le Rec.709, Rec.2020, SGamut, AP1...

Imaginez un triangle où chaque sommet représente une couleur primaire : rouge, vert et bleu. L'intérieur de ce triangle représente toutes les couleurs que l'on peut obtenir en mélangeant ces trois couleurs primaires dans différentes proportions. L'étendue de ce triangle définit les limites des couleurs reproductibles par un espace colorimétrique donné. Plus le triangle est grand, plus l'espace colorimétrique est large et plus il peut représenter de couleurs.

source: https://www.sony.fr/electronics/support/articles/00145905


Numériquement, les couleurs sont représentées de manière additive : les trois couleurs primaires, le Rouge, le Vert et le Bleu (RVB, ou RGB en anglais), sont combinées à différents niveaux d'intensité pour produire une large gamme de teintes.

source: https://go-hard.tistory.com/58


Lorsque 100 % des trois valeurs sont combinées (quelle que soit l'étendue de l'espace colorimétrique choisi), le résultat est un blanc pur.

source: https://ko.wikipedia.org/wiki/RGB


Il est important de noter que les espaces colorimétriques définissent l'étendue des valeurs absolues qu'ils peuvent représenter.

En d'autres termes, ils correspondent à la distance entre les sommets d'un triangle dont chaque coin représente les couleurs maximales de Rouge, Vert et Bleu.

Plus cette étendue est large, plus large est la gamme de couleurs représentables par cet espace de couleur, ce qui implique plus de nuances et des dégradés plus précis.
C'est conceptuellement similaire à une augmentation de résolution mais pour la couleur.

source: https://www.moviecollection.jp/news/18404/


Chaque capteur dispose d'une capacité définie pour enregistrer une gamme de ces informations, d'où la notion de plage dynamique, qui désigne l'étendue entre les zones d'ombre (faible lumière) et les zones de lumière intense que le capteur peut encoder, c'est-à-dire l'écart entre le noir absolu et le blanc absolu.

source: https://blacklistfilms.org/2013/06/29/comprendre-le-raw-au-debut-etait-la-courbe-de-gamma/reddragondr-650x298/


Cela amène à une deuxième notion (lié) : la quantification de cette information.
Lors de l'acquisition, l'information lumineuse (et colorée) doit être encodée numériquement. C’est ici que la profondeur de bit entre en jeu (par exemple 8, 10, 12 bits) : plus la profondeur de bits est élevée, plus le capteur peut enregistrer de nuances et de détails dans les zones sombres et claires de l'image. Cela permet de réduire la perte d’information lorsque les images sont manipulées, comme lors de l'étalonnage.

source: https://www.dpreview.com/forums/post/63716836


source: http://www.huevaluechroma.com/index.php


L'acquisition sera (en pratique) toujours supérieure à nos moyens de reproduction (écrans de monitoring, télévisions).


Historiquement, les espaces colorimétriques utilisés pour la reproduction des images ont été plus restreints que ceux employés lors de l'acquisition et du traitement, en raison des limitations technologiques des dalles d'écran.

  • Le Rec. 709, adopté dans les années 1990 pour les téléviseurs HDTV, reste largement utilisé aujourd'hui pour les écrans de télévision et les moniteurs d'ordinateur (notamment dans l'espace sRGB, quasi identique au Rec.709).

  • Le P3, adopté plus récemment, est principalement utilisé par les écrans HDR grand public (smartphones, ordinateurs portables XDR, etc.) et dans les salles de cinéma. Il offre une gamme de couleurs plus étendue et une meilleure gestion de la luminosité par rapport au Rec. 709.

  • Le Rec. 2020, qui surpasse le P3 en tous points, a été développé pour exploiter pleinement le potentiel du HDR. Bien qu'adopté dès 2012 dans le cadre de la norme UHDTV, il ne se démocratise réellement qu'en 2024, grâce à la baisse des coûts de production et à l'engagement croissant des fabricants.


Les espaces d'acquisition et de travail (comme le S-Gamut3 ou l'ACES AP1) sont bien plus larges que ceux utilisés pour la diffusion.


Cet écart entre l'acquisition et la reproduction d'une image peut être comparé à un entonnoir. Le flux d'information, semblable à un courant d'eau, est progressivement réduit et simplifié au fur et à mesure qu'il traverse les étapes de traitement, de compression et d'affichage. La quantité d'information initiale, captée par le capteur, est ainsi progressivement réduite. Cette perte d'information se traduit par une diminution des détails, notamment dans les zones de très hautes et basses lumières, et une tendance à compresser les couleurs les plus en périphérie.

Globalement on peut parler de "perte d'information colorimétrique": Les couleurs qui ne sont pas présentes dans le nouvel espace seront approximées par les couleurs les plus proches, entraînant une perte de précision.

  • Saturation des couleurs: Les couleurs saturées (très vives) risquent d'être "écrasées" vers le centre de l'espace colorimétrique, perdant ainsi de leur intensité.

  • Décalage des couleurs: Les couleurs peuvent apparaître légèrement différentes de l'original, notamment dans les zones de transition entre les couleurs. (déviation des primaires)


Le défi, dans la production cinématographique et vidéo, réside donc dans la gestion de cette réduction d'information pour conserver la meilleure qualité possible, tout en tenant compte des contraintes des systèmes de reproduction.

Le scénario à éviter est de créer un goulot d'étranglement dans la pipeline, par exemple en convertissant le signal en Rec. 709 (par commodité, pour appliquer une LUT) avant de livrer en Rec. 2020.

Bien que le fichier final puisse être étiqueté en Rec. 2020, il s'agirait en réalité d'un signal limité par l'espace de couleurs Rec. 709, entraînant une perte irrémédiable d'informations de couleur et de dynamique.


Le SDR (Standard Dynamic Range) et le HDR (High Dynamic Range) sont deux formats vidéo qui se distinguent par leur plage dynamique, c'est-à-dire l'écart entre les zones les plus claires et les plus sombres d'une image. Cette différence implique des variations significatives en termes de luminosité, de contraste et de gamme de couleurs.

  • Le SDR, plus ancien, est limité à une plage dynamique restreinte, généralement exprimée en nits (unité de mesure de la luminance). Cela se traduit par des noirs moins profonds, des blancs moins lumineux et une gamme de couleurs plus étroite, principalement contenue dans des espaces colorimétriques comme le Rec. 709 (ou sRGB pour les écrans d'ordinateur).

  • En revanche, le HDR offre une plage dynamique beaucoup plus étendue, permettant de représenter des détails dans les zones très claires et très sombres, tout en offrant une gamme de couleurs plus large. Les espaces colorimétriques HDR, tels que le Rec. 2020, sont conçus pour tirer pleinement parti de cette plage dynamique accrue ce qui se traduit par des noirs plus profonds, des blancs plus lumineux et une gamme de couleurs plus étendue, créant ainsi une expérience visuelle plus immersive et réaliste..

Il est essentiel de comprendre que la plage dynamique et l'espace colorimétrique sont deux concepts distincts mais étroitement liés.

source: youtube.com/YDI8oSu4Tyg?si=xbQiqdLBLAyQYpgN (VIDEO DESIGN FORMATION)


Le HDR repose sur des normes spécifiques qui permettent une interprétation correcte par les écrans. Chaque norme HDR définit la manière dont la plage dynamique étendue doit être rendue visuellement et inclut souvent des métadonnées qui servent d'instructions de lecture pour les écrans. Ces normes incluent :

  • PQ (Perceptual Quantizer) : Ce dernier est spécifiquement conçu pour le HDR et est la norme utilisée dans les formats comme le Dolby Vision et le HDR10+. Il permet une plage dynamique étendue et une gradation plus précise des niveaux de luminance en s'inspirant des capacités perceptuelles de l'œil humain. Cependant, il nécessite des métadonnées dynamiques, ce qui le rend plus complexe à implémenter, notamment pour les productions en direct.

  • Le HLG (Hybrid Log-Gamma) : Contrairement au PQ le HLG est une solution simplifiée qui ne nécessite pas de métadonnées. Il utilise une courbe gamma hybride qui permet d'être interprétée par les écrans SDR et HDR. Bien que le HLG soit moins large dans ses extrêmes de plage dynamique (luminosité et contraste), il facilite la diffusion, car il permet de diffuser un signal HDR qui peut être automatiquement adapté aux téléviseurs SDR sans perte de qualité visuelle significative. De part son coût de production plus faible en raison de sa simplicité de mise en œuvre et de son absence de métadonnées dynamiques, le HLG est souvent perçu comme un format moins coûteux à produire, tant du point de vue de la production que de la distribution. Cela le rend attractif pour les diffuseurs de contenu qui cherchent à adopter le HDR tout en maintenant des coûts de production modérés.


Face à la multitude d'écrans utilisés pour consommer du contenu (OLED, LCD, SDR, HDR), il est primordial d'optimiser la production vidéo pour garantir une qualité d'image optimale et une expérience utilisateur cohérente, quel que soit le dispositif utilisé.

En maximisant l’adaptabilité de chaque projet, nous nous assurons que l’expérience utilisateur reste optimale, indépendamment des limitations spécifiques de chaque support.


Ce projet se concentre ainsi sur :

  1. Améliorer la constance visuelle pour que le spectateur retrouve un rendu cohérent avec ce à quoi il est habitué, malgré les "défauts" ou les limites de son propre équipement.

  2. Répondre aux exigences des plateformes de diffusion pour livrer un média optimisé.


Objectifs

  • Notre objectif est de produire des vidéos qui exploitent le plus fidèlement possible le matériau d'origine, tout en offrant un livrable optimisé pour un large éventail de supports de reproduction. Nous visons à tirer pleinement parti des technologies d’affichage disponibles et des possibilités offertes par les plateformes de diffusion, tout en inscrivant cette démarche dans une pipeline linéaire et efficiente.

  • Enregistrer un signal logarithmique et sans dérive, que ce soit en enregistrement interne ou via un enregistrement externe.

  • Exploiter au maximum la profondeur de l’image et la richesse des données d'origine.
    En partant d'une source de haute qualité et en l’intégrant dans un espace colorimétrique étendu, notre objectif est de préserver une gamme de détails plus large, garantissant ainsi la conservation optimale des nuances et des contrastes.

  • Optimiser le rendu HDR pour un affichage SDR sans perte significative de qualité.
    En utilisant le signal intermédiaire HLG (Hybrid Log-Gamma) pour la distribution, nous assurons une transition fluide entre les écrans HDR et SDR, tout en minimisant les compressions et les artefacts visuels. Le HLG permet une compatibilité native avec les formats HDR tout en offrant un rendu SDR équilibré, sans nécessiter l’ajout d’une couche d’interprétation spécifique (métadonnées de tone-mapping) pour garantir une reproduction fidèle sur les différents écrans.

  • Utiliser une approche ACES pour une gestion colorimétrique unifiée.
    Le pipeline ACES (Academy Color Encoding System) garantit un contrôle rigoureux de l’espace colorimétrique, notamment grâce à sa capacité à conformer les espaces colorimétriques des différentes sources d'acquisition. Cela nous permet d’assurer une continuité visuelle entre les écrans aux gammes colorimétriques variées, qu’il s’agisse de Rec.709, Rec.2020 ou des capacités d'affichage P3 des écrans mobiles.


Matériel :

  • Sony A7s3 (Acquisition)

  • Atomos Ninja V (Acquisition et monitoring)

  • Asus ProArt Display PA328CGV (monitoring)

  • Asus ProArt Z790 (DisplayPort / PCIe)Nvidia Gtx 4080 (DisplayPort)

  • Blackmagic Design DeckLink Mini Monitor 4K (Hdmi)


OS :

  • Windows 11 Pro


Logiciels :

  • DaVinci Resolve

Expérimentation et process d'acquisition HDR :

Étant donné que la fréquence d'enregistrement peut nous contraindre à utiliser certains codecs internes de la caméra, et qu'il est essentiel dans notre pipeline d'obtenir des séquences sans dérives colorimétriques, nous allons consolider le début de la chaîne de production à l'étape de l'acquisition. Cela nous permettra de garantir une arborescence linéaire et fluide, réduisant les étapes de correction superflues et préservant ainsi la qualité des images tout au long du processus de post-production. L'enregistrement en interne ou en externe d'un signal logarithmique peut souvent engendrer des conflits lors de l'interprétation par les logiciels de montage, notamment entre les formats de signal "full range" (plage complète) et "limited range" (plage vidéo). Ces différences, bien que subtiles, influencent directement l'affichage de la dynamique des couleurs et des contrastes, ce qui peut provoquer des écarts dans la perception visuelle des séquences enregistrées.

Pour introduire ces concepts et leurs implications, nous allons d'abord définir précisément ce qu'ils signifient :

  • Full range : Ce mode d'encodage exploite toute la plage de valeurs possibles dans un fichier numérique, allant de 0 (noir absolu) à 255 (blanc pur) en 8 bits, ou de 0 à 1023 en 10 bits. Cela offre une meilleure latitude dans les nuances, mais peut entraîner des incompatibilités ou des ajustements supplémentaires dans les flux de post-production.

  • Video range : Cette plage, plus restreinte (généralement de 16 à 235 en 8 bits), est souvent utilisée dans les formats de diffusion télévisuelle. Bien qu'elle soit standardisée pour les flux vidéo, elle limite l'information dans les hautes lumières et les basses ombres, pouvant ainsi réduire légèrement la latitude d'étalonnage.

source: https://oknowimage.com/how-to-deal-with-data-levels/


Afin de mieux comprendre les impacts concrets de ces paramètres sur notre flux de travail, nous allons réaliser une expérience comparative.


Cette dernière consistera à acquérir une séquence identique dans des conditions strictement contrôlées : même exposition, ouverture, ISO, vitesse d'obturation, emplacement, et cadrage. Ensuite, nous encapsulerons cette séquence sous différents codecs d'enregistrement, en combinant des paramètres variés tels que :

  1. Enregistrement interne vs. externe : en utilisant à la fois les codecs internes de la caméra et ceux d'un moniteur/enregistreur externe (ProRes HQ).

  2. Optimisation de l'enregistreur externe : en le testant dans différentes configurations.

  3. Plages dynamiques : en configurant les sorties en full range et Video range (Davinci Resolve) et en les comparants.


Cette approche expérimentale permettra :

  • D'identifier les éventuels écarts colorimétriques ou de contraste entre les enregistrements.

  • Comprendre les implications pratiques des choix de codecs et de plages dynamiques sur la post-production.

  • Optimiser nos choix techniques pour réduire les étapes de correction et maximiser la fidélité des couleurs dans le pipeline.


Ces résultats seront documentés et analysés afin d'établir des recommandations claires sur les configurations idéales pour notre pipeline HDR.

Caméra : Sony A7S3
Gamma : S-Log3 / Gamu : t S-Gamut3 (PP9)
Logiciel : Davinci Resolve ACES (AP1) vers Rec2020 HLG 1000nits


Composition de la scène de référence :


Exposition (scène) :

Instruction du moniteur externe pour l'étape d'exposition (afin de pouvoir utiliser les outils comme l'EL zone :


Profil d'image d'acquisition :


Pipeline de traitement de l'image :

Paramètres de monitoring :



Séquence interne (mode S&Q) :

XAVC HS 4K (200M 4:2:2 10bits)
Test 1 :
Davinci Resolve :



XAVC S HD (50M 4:2:2 10bits)
Test 2 :
Davinci Resolve :



* Séquences externes

Codec : ProRes HQ (4:2:2 10bits)

Test 1 :
Log/HDR - OFF
Legalize - (N/A)
HDR auto - OFF
Davinci Resolve :



Test 2 :
Log/HDR - ON
Legalize - (N/A)
HDR auto - OFF
Native
Davinci Resolve :



Test 3 :
Log/HDR - OFF
Legalize - ON
HDR auto - OFF
Davinci Resolve :



Test 4 :
Log/HDR - OFF
Legalize - ON
HDR auto - ON
Davinci Resolve :



Test 5 :
Log/HDR - OFF
Legalize - OFF
HDR auto - ON
Davinci Resolve :



En conclusion, les codecs internes de la caméra sont nativements encodés en "video range".
En ce qui concerne le moniteur/enregistreur externe, l'encodage dépend des instructions sélectionnées. Une fois les fichiers conformés (conversion de Full Range vers Video Range), les plans obtenus sont identiques aux enregistrements internes de la caméra.

À l'exception du dernier cas de figure (Test 5), qui automatise le traitement HDR en le déléguant entièrement à l’enregistreur externe, cette méthode ne convient pas à notre pipeline pour des raisons de flexibilité et de contrôle colorimétrique.

La solution la plus adaptée, au vu des résultats obtenus, est le deuxième cas de figure (Test 2). Bien que cette option fournisse un signal natif en "Full Range", nécessitant une interprétation en "Video Range" dans DaVinci Resolve, elle présente des avantages significatifs :



Elle permet d’exploiter pleinement les outils de monitoring avancés de l’enregistreur externe, tels que :

  • Le système EL Zone (fausses couleurs pour une gestion précise de l'exposition)

  • Les scopes et autres outils essentiels pour le contrôle en temps réel

  • Cette approche reste cohérente avec notre pipeline, puisque l'export final sera réalisé en Video range


Pour éviter des conversions inutiles et minimiser les étapes superflues, nous privilégierons cette approche.


De plus, il est toujours possible d’inclure une LUT corrective directement dans l’enregistreur externe. Cette LUT permet de réajuster le signal en "Video Range" en temps réel, offrant ainsi un aperçu précis du rendu final après conversion de range.

Schéma récapitulatif du processus d'acquisition :




Pipeline de Production HDR (par défaut)

Assurer une calibration rigoureuse des moniteurs afin d'obtenir un référencement visuel fiable.

  • Ecran 1 (principal-SDR) :

Paramètre Sortie DisplayPort 2.1


Paramètre écran:





Ecran 2
(secondaire-HDR):

Signal vidéo de sortie HDMI :


Signal de sortie vidéo Davinci Resolve (timeline):


Espace colorimétrique de la timeline

ll est important de préciser l'output color space de sortie à cette étape afin de pouvoir utiliser les outils d'étalonnage correctement (vector scope, waveform...)



Paramétrer les scopes dans Davinci Resolve

Waveform

  • Mise à l'échelle : sélectionner "HDR (ST.2084/HLG)"

  • Définir la plage du scope et améliorer le confort de lecture

  • Résultat :


VectorScope

  • Personnaliser l'outil pour améliorer la lisibilité : sélectionner le mode simplifié. Étant donné que nous travaillons dans un espace hybride (HDR/SDR), nous fixons nos cibles de couleur maximale à 75% et 100% afin de prendre en compte les limitations de l'espace SDR et de conserver une marge d'expérimentation.

  • Définir la plage du scope et améliorer le confort de lecture : le mode "x2" peut être utilisé pour surveiller le signal avec plus de précision. Cependant, il faut garder à l'esprit que les cibles conservent la même échelle, ce qui les rend incorrectes dans ce contexte.

  • Résultat :


CIE Chromaticity

  • Ajouter l'espace d'acquisition : Afin de conserver une idée de la direction des primaires d'origines.

  • Résultat :


Signal d'entrée Atomos Ninja V (moniteur externe) :

LOG/HDR : ON | REC2020 | BT.2020 | Native



  1. Ingestion, interprétation et conversion des fichiers source :
    Cette première étape correspond à la normalisation de nos sources vidéos.


Source en Full Range 10bits (0-1023)

  • Une source Full Range (source moniteur externe), doit être assignée dans davinci resolve en "Video Range" pour être intégrer dans la pipeline de production.

Source en 8 bits en Full Range (0-255) ou Video Range (16-235)

  • Les fichiers sources en 8 bits (indépendamment de leur amplitude) nécessitent une conversion. Étant donné la limitation de bits (8 bits par canal), l'option la plus courante est de procéder à un upscale (suréchantillonnage) via un processus de dithering (ajout de bruit) pour compenser la perte de nuances de couleurs et améliorer la qualité d'image tout en respectant la plage de couleurs du Full Range pour réintrepreter ce dernier dans la plage 10bits souhaitée.

Source en Video Range 10bits (64-940)

  • Lorsqu'une source est en Video Range (64-940) elle peut être intégrée directement dans la pipeline de production.


  1. Montage (agencement des séquences), composition (fx, animation..), pour aboutir à la phase d'étalonnage..

  • Pool (Séquences) : étape d''importation et de gestion des fichiers sources (vidéo, audio, etc.) du projet. Les séquences sont ajoutées à une "pool" où elles peuvent être organisées et récupérées lors des étapes suivantes.

  • L'édition : une fois les séquences importées, elles sont agencées (montées) dans la timeline. Le montage peut inclure la découpe, l'assemblage des prises, la gestion des transitions, ainsi que l'ajout d'effets spéciaux de base (comme les fondus et les titres).

  • Après le montage, des effets plus complexes peuvent être appliqués dans la phase de Fusion. C’est ici que l’on ajoute des effets visuels (FX), des animations ou des compositions plus avancées. Cette étape permet d'ajuster des éléments visuels comme les incrustations, les effets spéciaux, ou même l'animation des éléments graphiques et des textes.

  • Enfin, une fois que les séquences ont été montées et que les effets visuels ont été appliqués, la phase d'étalonnage peut commencer, mais avant de procéder il est essentiel de grouper nos séquences.


  1. Etalonnage (conversion colorimétrique, primaires, contraste..)

Dans DaVinci Resolve, nous utilisons un système nodal pour l’étalonnage. Cela signifie que nous créons des nœuds (nodes) qui ont une influence sur le nœud suivant, formant ainsi une arborescence. Ces nœuds sont organisés en quatre groupes distincts : PRECLIP, CLIP, POST CLIP et Timeline.

  • PRECLIP : Ce groupe contient un nœud ACES Transform (qui correspond à notre InputDeviceTransform), où nous spécifions l'espace colorimétrique de la source en entrée. Le signal en sortie est converti en ACEScct-CSC, ce qui permet d'intégrer l'espace de couleur de la source dans l'espace ACES AP1. Cette étape est essentielle pour s'assurer que la couleur de la source est correctement interprétée dans le cadre de la pipeline ACES.

  • CLIP et POST CLIP : Ces deux groupes sont dédiés à l'ajustement des couleurs et à l'application des intentions créatives sur le clip. Le CLIP est principalement utilisé pour les ajustements globaux du clip, tandis que le POST CLIP est dédié aux corrections plus détaillées, en fonction de l'effet ou de l’intention créative souhaitée (ex : grade général, stylisation, etc.).

  • Timeline : Le dernier groupe, Timeline, est dédié à l'exportation et à la conversion du signal à la sortie. Ce groupe contient le OutputDeviceTransform, où un module ACES Transform est placé. Cette fois-ci, l'entrée est le signal ACEScct-CSC, et la sortie est convertie dans l'espace colorimétrique de diffusion, qui dans ce cas est le Rec.2020 HLG (High Dynamic Range avec 1000 nits), ce qui garantit que le signal est optimisé pour l'affichage HDR sur les écrans compatibles.

Lexique :

ACES (Academy Color Encoding System) est un standard ouvert conçu pour assurer la gestion des couleurs tout au long de la chaîne de production et de postproduction.

ACEScct est une variante de l'ACES primé, plus adaptée aux corrections de couleurs, avec une courbe de transfert qui permet une gestion plus souple des tons.

CS fait référence à un espace colorimétrique intermédiaire, souvent utilisé pour faciliter les conversions entre différents espaces de couleur.

Rec.2020 HLG est un espace colorimétrique destiné à la diffusion vidéo HDR (High Dynamic Range) avec une plage de luminosité étendue (1000 nits).


  1. Préparation à l'export :

Une fois que l’étalonnage et que la gestion colorimétrique est terminée, l’étape finale de la pipeline consiste à exporter le projet dans un format adapté à la diffusion HDR.

Pour cela, on choisi le format QuickTime (.mov) avec le codec H.265 Main 10.
Ce codec est idéal pour la compression car il est encodé en 10bits (prérequis pour du HDR) ce qui nous permet d’obtenir un résultat avec des nuances et des dégradés de couleurs plus précis sans artefacts.

L’export inclut également les métadonnées HDR Vivid, ce qui permet d’intégrer des informations essentielles sur la gamme dynamique et la luminosité de l’image, garantissant que le contenu sera lu correctement sur des appareils HDR compatibles. (non-nécessaire pour que Youtube reconnaisse les caractéristiques HDR du livrable)

En ce qui concerne les tags du fichier, on assigne en colorspace le tag BT.2020 (BT = BroadcastTransmission // REC = RECommandation), et on assigne le Gamma tag REC.2100 HLG cette étape permet la bonne interprétation de notre fichier par les supports de reproduction.

Il convient de noter qu'il peut être tentant d'utiliser le Gamma Tag : ARIB STD-B67 HLG (principalement utilisé pour la diffusion HLG au Japon). Cependant, ce standard est désormais considéré comme obsolète puisqu'il est déjà inclus dans le Rec.2100 (qui fait partie des normes de l'UIT-R). Par conséquent, il n'existe pas de raison pertinente de l'utiliser pour des plateformes en ligne.


Enfin, les autres paramètres d’export, comme l’échantillonnage, doivent être ajustés au cas par cas selon les besoins spécifiques du projet. L’échantillonnage est particulièrement crucial, car il détermine directement la qualité perçue du fichier (en influençant notamment le niveau de compression).


  1. Distribution sur la plateforme de distribution ciblé

Il est important de noter qu’indépendamment du moment de mise en ligne sur YouTube, le traitement de la fonction HDR par la plateforme peut prendre un temps variable (allant de quelques heures à plusieurs jours).


Il est également important de noter que YouTube ne prend pas en charge toutes les résolutions en HDR. Par exemple, en Full HD (1920x1080p50), notre fichier n'a pas été reconnu comme HDR. En revanche, en 4K (3840x2160p50), YouTube l'a bien interprété comme tel, comme en témoigne l'apparition de la mention "La qualité des vidéos en HDR peut être dégradée à la suite du floutage" dans l'onglet Montage. Cette indication est, à ce jour, le seul moyen de confirmer la reconnaissance HDR d'un fichier lors de son importation sur YouTube.

  • Résultat :

(-Novembre 2024), il n’existe aucun moyen de connaître précisément le statut du traitement HDR.

Nous recommandons de planifier la mise en ligne de la vidéo à une date située au moins une semaine après son upload. Cela permettra à YouTube d’avoir suffisamment de temps pour traiter le HDR, garantissant ainsi que la vidéo soit disponible dès son lancement dans sa qualité optimale.

Dans le cas où la mise en ligne de la vidéo ne peut être anticipée (événement, tendance, etc.), il sera nécessaire de faire une concession. Vous devrez choisir entre rendre la vidéo publique immédiatement, sans la fonctionnalité HDR disponible dès le départ (elle sera tout de même visionnable en SDR dans une version temporaire, qui peut être légèrement moins qualitative qu’un traitement SDR natif).


Conclusion

Cette démarche et cette pipeline nous permettent de produire des contenus audiovisuels tirant pleinement parti des moyens mis à notre disposition par les plateformes de diffusion web. Grâce à un pipeline HDR compatible ACES et HLG, nous assurons une qualité visuelle élevée, tout en respectant l'intégrité des moyens de consommation du public, qu'il dispose d'équipements modestes ou haut de gamme.

Cette approche garantit également une rétrocompatibilité optimale, offrant une expérience enrichie en HDR pour les utilisateurs équipés, sans négliger ceux qui visionnent les contenus en SDR.

Parallèlement, nos processus de création demeurent fluides et efficaces, nous permettant de répondre aux exigences de chaque plateforme tout en offrant une expérience visuelle cohérente et immersive à tous les spectateurs.

L'utilisation de DaVinci Resolve nous permet également de gérer simultanément les flux SDR et HDR de manière native, sans avoir à dupliquer les "timelines" et la charge de travail associée.

Cette approche offre une solution puissante et adaptée à la production de contenus HDR sur internet, en conjuguant optimisation, flexibilité et maîtrise des coûts.

En l'état, nous répondons parfaitement aux besoins des spectateurs et aux exigences des plateformes de diffusion visées.


Merci pour votre lecture !


Nous espérons que ce guide vous a apporté une meilleure compréhension de la pertinence d’adopter une pipeline HDR hybride, ainsi que des implications techniques et esthétiques qu’elle entraîne.


Si vous avez des questions, des retours, ou simplement l’envie d’échanger sur vos projets, n'hésitez pas à nous contacter.


Votre engagement et vos choix font avancer le monde créatif. Nous sommes ravi d'y contribuer, même modestement, à cette dynamique en partageant notre documentation interne. Ce document est le fruit d’un cheminement autodidacte et d’une volonté inital de résoudre des contraintes rencontrées chez 334production.


Continuez d'apprendre, de partager et de créer.


Crédits


Rédigé par :

Frédéric Karim NAUCHE

Fondateur de 334production


© 2025 - 334Production. Tous droits réservés.
La reproduction, la diffusion ou l'utilisation de tout ou partie de ce contenu, sous quelque forme que ce soit, est interdite sans autorisation préalable.

Contact : contact@334production.com

Pour consulter nos mentions légales, veuillez visiter www.334production.com/mentions-legales

Pipeline HDR Hybride

Hdr - Sdr - Web