Camerimage 2018
Retour sur l’atelier FilmLight
Par Thierry Beaumel pour l’AFCAndreas Minuth va nous rappeler le workflow de traitement d’image dans un soft d’étalonnage et nous montrer les effets sur l’images des différents "process" et des différents défauts générés par de mauvaises pratiques. Tout d’abord il y a, en entrée du soft d’étalonnage, un module par caméra (Input Color Transform chez FilmLight ou IDT en ACES). En prenant exemple sur le même garçon filmé en RED, Alexa et F55, il montre qu’en prenant la bonne entrée, puis en égalisant la densité et les couleurs, on obtient des résultats très proches. Ensuite il montre que le choix d’espace couleur et gamma choisit à la prise de vues, s’il est respecté à l’étalonnage, n’influe pas sur le look des images avant étalonnage (en comparant la même image en Slog, Slog2 et Slog3).
Puis explication des différents espaces couleur de travail. Illustration des différents espaces sur une roue chromatique montrant les couleurs privilégiées par chaque solution (Kodak 83, ACES, Arri, RED, FilmLight). Le choix du rendu d’un espace couleur permet d’obtenir une palette de couleurs favorisant par exemple les teintes chair, la diversité des nuances vertes, la blancheur des peaux, la saturation de certaines couleurs mais aussi la capacité à gérer les très hautes ou basses lumières. Le choix de l’espace couleur de travail et de rendu va influer sur le comportement des outils de l’étalonneur pour lui donner plus de flexibilité et de finesse dans la direction artistique choisie avec le chef opérateur.
Une erreur de choix d’entrée va fortement dégrader le rendu des couleurs. Elle peut aussi dégrader la qualité des images, les conversions du fichier caméra en RVB (4:4:4) vers des formats en 4:2:2 ou pire 4:2:0. Le format RAW en entrée apportant toujours le maximum de latitude. De même le "color subsampling" (réduction en 8 ou 10 bits d’un signal caméra en 12, 14 ou 16 bits) va réduire le nombre de couleurs utilisables en étalonnage. Une trop faible quantification va créer du "Banding" dans les dégradés. Le fait d’utiliser un signal log en entrée sans utiliser de courbe adaptée va avoir tendance à brûler les hautes lumières ou perdre des détails dans les basses. Un défaut devenant récurant concerne les "fausses couleurs", qui sont des couleurs pour lesquelles le capteur réagit de manière "non naturelle" et va provoquer des à-plats violets dans l’image, souvent dus à des sources LED dans le champ. FilmLight propose un outil dédié pour régler ce défaut.
Une autre démonstration nous a permis de visualiser les défauts apportés par des LUT sur l’image (sorte de "postérisation") qui n’existent pas lors d’utilisation de Shader GPU à la place de LUT. En effet les LUTs ont une finesse d’action limitée et on en voit aujourd’hui parfois les limites.
Enfin ne jamais oublier qu’un étalonnage fait ne sera reproduit correctement et fidèlement que sur le même type de "display" (moniteur, projecteur, espace couleur), toute autre version devra à minima nécessiter une adaptation en étalonnage.
Deuxième partie centrée sur la texture
Un démonstration autour du MTF mettant en évidence qu’une image affichée est la somme de tous les MTF de la chaîne de traitement depuis l’optique de la caméra jusqu’à l’afficheur utilisé (projecteur ou types de moniteur). Le flouttage en postproduction d’une image réduit le contraste dans les hautes fréquences principalement, à l’inverse le "sharpen" va augmenter le contraste dans les hautes fréquences. FilmLight travaille sur un outil permettant de choisir quelle gamme de fréquences va être amplifiée ou diminuée (MTF Equalizer) afin de réduire le contraste dans les basses lumière pour diminuer le bruit, ou de perdre du détail dans les reflets disgracieux sur la peau.
Andreas va ensuite nous montrer des défauts de "demosaicing" (débayer en langage courant !). Une très bonne qualité implique un gros travail pour le processeur de l’ordinateur (ou le GPU) et n’est pas possible dans la caméra ou complique le temps réel sur la station d’étalonnage, c’est pourquoi il y a différents algorithmes. Le plus rapide n’est jamais le meilleur ! Les différences se voient principalement dans les endroits de très fort contraste d’un pixel à l’autre, un debayer de moyenne qualité peut sembler plus piqué sur un petit display par exemple ou apporter du moirage. Il faut aussi faire très attention aux défauts apportés par les algorithmes de redimensionnement de l’image et par ceux d’augmentation de la définition. Il ne faut théoriquement les utiliser qu’une seule fois lors du processus de postproduction.
Daniele Sirugusano prend la parole pour faire un exposé plus scientifique sur l’apparence des couleurs pour l’œil humain, le métamérisme. La nécessité, pour ce faire, de travailler sur l’analyse spectrale de la lumière. On ne pourra reporter de cette partie sans l’appui des visuels présentés ! Les caméras actuelles peuvent produire des couleurs comportant trop de lumière par rapport à leur saturation pour que les systèmes d’affichage RGB actuels arrivent à les afficher. Il faut donc développer de nouveaux outils pour gérer de manière plus facilement créative ces enjeux.
Pour terminer l’atelier, Rolf Coulanges, BVK, nous livrera un résumé de son travail sur l’histoire de la couleur dans la peinture en regard des images numériques.