La lumière le bruit et les détecteurs

Voici quelques informations qui peuvent être utile aux personnes qui s’intéressent au fonctionnement d’un appareil photo, sur la lumière, le bruit et les équivalence. Avant tout j’aimerais préciser que tout ce qui est décrit ci-dessous n’a rien a voir avec la “photographie”, la photo est avant tout un art valorisé part la narration et l’émotion exprimées par la composition, la lumières, les mouvements, bref les choix artistiques du photographe et son investissement. Dans les critères de qualité d’une photo, en tout cas celle que j’aime, la qualité plastique de l’image (bruit, piqué, etc...) arrive loin derrières les critères artistiques. Mais comme je suis aussi scientifique et spécialiste en mesure de la lumière, rien ne m’empêche de comprendre comment ça marche, meme si ça n’améliorera en rien (ou infiniment peu) mes photos. Donc très peu d’éléments aideront un photographe à prendre des photos, une connaissance fonctionnelle de son appareil photo est toujours plus nécessaire que de comprendre la physique qui s’y cache. Encore heureux. Mais la bonne nouvelle c’est que de comprendre n’empêche en rien la création artistique ....

Dans la suite j’explique brièvement comment fonctionne un détecteur, d’où vient le bruit sur un pixel et ensuite sur une image, quel est l’influence de la taille des détecteurs sur le bruit. J’appuis cette discussions sur des mesures et des test simple que chacun peut réaliser. Je pars du principe que le lecteur a des connaissances de base sur le sujet.

Court description du fonctionnement d’un pixel.

La clef pour comprendre le fonctionnement d’un détecteur c’est de connaître comment la lumière se propage. Malgré la complexité et l’impossibilité de se représenter mentalement ce qu’est vraiment la lumière et la physique quantique en général, il existe quelque simplifications utiles à notre cerveau pour expliquer certains phénomènes. Pour comprendre le fonctionnement d’un pixel de détecteur il nous suffit de comprendre que la lumières est transporté par quanta, par des particules nommées photon. Une des caractéristiques importante de ces photons et leur longueur d’onde qui donnera la couleur à la lumière. Pour expliquer d’autres phénomènes de la lumière il sera parfois plus utile de la représenter comme une onde. Si vous voulez vous affranchir de ces simplifications changeantes et pas très satisfaisantes mentalement il vous faudra maîtriser la physique quantique, ce que peu de gens arrivent à faire dans le monde. Mais on s'écarte du sujet l'important pour comprendre comment fonctione un pixel c'est que la lumière est transporté par des particules.

Trés succinctement, lorsque un photon frappe un pixel (photosite) d’un CMOS il peut créer un et un seul électron dans le substrat (effet photo électrique). Pendant l’exposition ces électrons sont stockés dans le pixel jusqu’à une certaine capacité (appelé ‘full well’ en anglais). Après exposition le pixel est lu, les électrons créent un courant qui est de suite transformé en tension. Cette tension est amplifiée puis ensuite 'numérisée' et stockée en mémoire. L’amplification c’est ce qui va changer lorsque vous modifiez l’iso de votre appareil. Mais la relation entre iso et le taux d’amplification est propre aux caractéristiques du pixel: sa taille et son efficacité à convertir les photons en électrons, également il dépend aussi, mais plus subtilement, du système iso utilisé variable d’un constructeur à l’autre. Par la suite lorsque je parles de nombre d’électrons vous pouvez le traduire par nombre de photons captés, ils sont équivalents. Le rapport entre le nombre de photons captés (ou d’électrons donc) et le nombre de photons qui touches la surface du détecteur, c’est l’efficacité quantique (ou QE, quentum efficiency en anglais).

Ce que l’on récupère sur une image raw (non-démosaiquée) c’est une valeur codée sur un certain nombre de bits pour chaque pixel, l’unité du fichier raw est appelée ADU (pour Analog to Digital Unit) ou parfois DN (Digital Number). Pour 14 bits par exemple un pixel peut mesurer jusqu’à \(2^{14} = 16384\) niveaux d’intensité différent, de 0 jusqu’à 16383 ADU. La relation entre l’ADU (en fin de la chêne de détection) et le nombre d’électrons (en début de la chêne) s’appelle le gain. Il est exprimé en e-/ADU (électrons par ADU, décroît lorsque l’amplification augmente) ou parfois l’inverse en ADU/e- (croit avec l’amplification). Le raw s’appelle ainsi car la valeur de tension digitalisée pour chaque pixel (sur 14bits, par exemple) correspond à la valeur qui est enregistrée en mémoire (14 bits). Pour d'autre format, en jpeg par exemple, en plus de la compression, l'information est réduite à 8 bits (par couleur) et une 'courbe' de conversion est utilisé pour transformer l'information contenue dans les 14 bits (16384 niveaux) dans 8 bits (256 niveaux). Aussi vous l'aurez remarqué quelque chose qui manque dans ma description est la couleur, elle est réalisée en mettant des filtres devant chaque pixel avec un motif répété. Le pixel coloré qui en résulte est en fait un pixel fictif construit numériquement par la combinaison de plusieurs (en général 1 rouge, 2 verts et 1 bleue, pour imiter la sensibilité de l’œil humain deux fois plus sensible dans le vert en vision diurne). Mais la complexité derrière le 'dématriçage' n'est pas nécessaire à la compréhension des éléments de physique exposé dans cet article, on peut la laisser de coté dans un premier temps et considérer un détecteur monochrome.

Pour connaître la quantité de lumière réelle capté par le pixel il faut donc connaître le gain, l’iso ne suffit pas car la relation iso/gain change d’un détecteur à l’autre (change avec le QE et la taille du pixel). Malheureusement en photos nous n’avons pas accès à la valeur du gain. Aucun constructeur ne l’inscrit dans les exif des fichiers car c'est inutile au photographe et aussi certainement parce que beaucoup d'information de performance est contenue dans cette valeur. Heureusement ce gain est mesurable par des méthodes simples (voir pour les courageux ‘Photon Transfert Curve’). Il existe un site web bien utile ou les gain d’une multitude d’appareils photo sont référencés ici ainsi que beaucoup d’autre caractéristiques des détecteurs.

L’iso dit 'de base' correspond au gain pour lequel la capacité du converteur analogique/numérique (les 14 bits dans l’exemple ci-dessus) vont saturer en même temps que la capacité en électron du pixel. C’est à dire que si le pixel est remplit en électron à 18% de sa capacité, à iso de base, cela va correspondre à environs 18% de la mémoire raw autorisée par les 14 digits. Dans le cas d’un 14 bits: 18% de 16383 = 2949 ADU.

Pour un Nikon D750 par example le gain à iso 100 (constructeur) est de ~5 e-/ADU (voir D750 gain chart) c’est à dire que pour un niveau de gris mesuré à 18% = 2949 ADU ceci correspond à 2949 * 5 = 14745 electrons, autrement dit 14745 photons captés pendant l’exposition par le pixel. À 100% de niveaux de gris , la valeur max de 16383 ADU correspond à 163835 = 81915 e-, ce qui correspond à peu près à la capacité maximale du pixel en électrons (le fameux full well, voir D750 charac ). Au dessus le pixel sature, la 'mémoire', les 14 btis aussi. Lorsque on augmente l’iso on va changer le facteur de conversion (le gain). A iso 400 par exemple, toujours pour le D750 on sera à ~1.25 e-/ADU. C’est à dire que pour obtenir le même niveau de gris (18%) on aura besoin de 2949 1.25 = 3686 e-. Quatre fois moins de photons/électrons que pour iso 100. Il est facile de noter alors que pour des iso supérieurs à celui dit de base le pixel ne saturera jamais car la capacité de la mémoire saturera avant.

Schématiquement, pour une exposition constante sur le D750 pour lequel le pixel capterait 20000 électrons et pour un iso (=gain) variable:

Pixel. (Nombre de photons-> électrons captés)
        [=====_______________] ~25%  20000 e- (capacité du D750 ~81000 e-)
                                                
                                                
iso 100  |  gain 5 e-/ADU   <-> 0.2 ADU/e-
    RAW (ADU)
        [=====_______________] ~25% 4000 ADU.   —> iso de base 25% d’e- = 25% de niveaux de gris (14bits)
iso 200 | gain 2.5 e-/ADU <-> 0.4 ADU/e-
    RAW (ADU)
        [==========__________] ~50%   8000 ADU 
iso 400 |  gain 1.25 e-/ADU <-> 0.8 ADU/e-
    RAW (ADU)
        [====================] ~100 %.  16000 ADU (saturation)

En prenant le problème dans l’autre sens, on a un niveau de gris à 80% et ont s’intéresse à combien de photon/electrons ont été captés suivant le réglage en iso. Ci dessous, j’introduis un autre détecteur, celui du D850 qui à des pixels plus petits donc une relation gain/iso différente:

RAW (ADU)
    [===============_____] 80%  13106 ADU  (80% de niveau de gris sur 14bits)
    
iso 100
    Pixel
        D750 | gain 5 e-/ADU 
            [================____] 80% 65530 e- (iso de base pour le D750)
        D850 | gain 2.33 e-/ADU 
            [=======________] 50%  30536 e- (pas iso de base pour le D850)
iso 200
    Pixel
        D750 | gain 2.5 e-/ADU
            [========____________] ~40%  32765 e-
        D850 | gain 1.129 e-/ADU 
            [====___________] ~25% 14796 e-
iso 400
     Pixel
         D750 | gain 1.25 e-/ADU 
             [====________________] 20%  16382 e-
         D850 | gain 0.58 e-/ADU 
             [===____________] 12.5% 7601 e-
etc ...

On voit bien que l’iso d’un appareil à un autre ne garanti pas la quantité de lumière capté pour un pixel il garanti seulement un certain niveau de gris (ou niveau de bleu, rouge ou vert si le pixel est derrière un filtre de couleur), pour un éclairage. Par exemple en prenant comme ci-dessus, le D750 et le D850: le D850, à la louche, à deux fois plus de pixel que le D750 si bien que chaque pixel sont deux fois plus petits en surface (ce sont tous les deux des pleins format). Pour un même iso l’amplification appliqué sur le D850 est donc à peut près deux fois plus importante que celle appliquée sur un D750, car les pixels du D850 captent deux fois moins de lumière pour un niveau de gris qui doit être le même. C’est bien vérifiable ici 2.3 e-/ADU pour le D850, ~5 e-/ADU pour le D750 à iso 100 constructeur (l’inverse est 0.45 ADU/e- et 0.2 ADU/e-).

Mais par contre, comme nous allons le voir par la suite, s’intéresser seulement au pixel du détecteur (photosite) a peu d'intérêt en photographie. A moins de toujours regarder ses photos en zoomant à 100%, la tête devant l'ordinateur (la situation pour laquelle un pixel du détecteur est égal à un pixel de l'écran) en général une photo finale est une combinaison de plusieurs pixels du détecteurs. Si on combine deux à deux les pixels du D850 en faisant la moyenne des ADU de chaque pixel, on retrouvera une surface, une quantité de lumière et un gain à peu près similaire au pixel (2 fois plus gros) du D750: 4.6 e-/ADU pour les pixels combinés du D850. Autrement dit les deux détecteurs ont une sensibilité de surface à peut près semblable.

Le bruit

Je penses que toute la conception du système “appareil photo” repose sur la compréhension de d’où vient le bruit sur une image. Pas que pour les appareils photos d’ailleurs mais pour tout les systèmes de détection photonique, les télescopes, les antennes paraboliques, etc ....

La notion de “bruit” est assez embigue, il y a une différence entre l’utilisation dans le langage courant et la mesure scientifique. En physique le bruit est une variation aléatoire d’un signal. Dans le langage courant il peut être aussi associé a un signal parasite comme par exemple le bruit d’une voiture ou Florent Pagny à la radio. Mais en physique ou pour l’œil l'important n'est pas le bruit (variation aléatoire) en lui même mais comment il se compare avec la 'force' du signal. Lorsque on perçoit a l’œil du “bruit”, en langage courant, sur une photo on perçoit en fait, en langage scientifique, du 'rapport signal sur bruit' ou SNR en anglais. L’orque on dit "ta photo est bruité", en langage scientifique ça se traduit par "le SNR de ta photo est faible".
Par exemple vous avez une chaîne hi-fi avec du souffle (le bruit, variation aléatoire), que l'on entend bien avec le volume à fond. L’important est de savoir si ce souffle s’entend et si il est gênant lorsque vous mettez de la musique par dessus (le signal) à un volume ‘écoutable’. Si le souffle ne s’entend plus, le SNR est élevé, si il s’entend bien le SNR est faible. Pour la photo c’est la même chose. Souvent les mots bruits et SNR sont intervertis ce qui rajoute un peut de confusion. Dans la suite j'essaye d'enlever cette ambiguïté au détriment de rendre le texte plus fluide.

Pour illustrer cela, imaginez vous êtes scientifique et vous voulez faire des mesures de deux signaux différents (par exemple la lumière venant de deux pixels). Si vous avez toutes l’après midi vous pouvez faire beaucoup de mesures et déterminer la valeur des deux signaux avec précision, l'un est à 10 l'autre à 9 (électrons, par exemple), valeurs séparé de ~10%. Mais par contre si vous faite la mesure dans un laps de temps beaucoup plus court, en une seconde, vous allez avoir moins de précision sur la mesure, d'une mesure à l'autre il y aura beaucoup de variation aléatoire (de bruit). Voici ce que ça donne pour un 'bon SNR', chaque point représente une mesure:

La figure de droite montre l’histogramme pour 500 mesures. On peut y voir que les deux signaux sont bien distincts à chaque mesure. Avec le SNR de 100 vous êtes capable de distinguer les deux signaux séparés de 10% sans problèmes en une seule mesure. Et voici la même figure mais pour un SNR médiocre:

Il y a des variations plus grandes qui vont faire que pour une mesure il peut arriver par exemple que le signal 1 est plus bas que le signal 2 alors que en moyenne c'est le contraire. Avec le SNR de 10 Vous allez avoir du mal a distinguer cette séparation de 10% en une courte mesure, l'information est 'noyée' dans le bruit.

En photo c'est exactement la même chose lorsque le SNR est bas le bruit va faire qu'il sera difficile de distinguer les petits détails, les petites variations de niveaux de gris de la scène photographiée. De même en prenant un ciel uniforme, par exemple, il y aura des variations aléatoires, du grain sur la photo. Les photos ci-dessous illustrent un dégradé de gris prit avec un bon SNR (~100 à 20% de gris, iso bas), et un mauvais SNR (~10, à 20% de gris, iso haut), elles sont ouvertes sous lightroom (cliquez dessus pour charger les originaux) afin de voir les histogrammes qui en résulte:

Pour le bon SNR, chaque niveau de gris est bien séparé car les histogrammes sont piqués. Pour le mauvais SNR on a plus de mal a distinguer les différents niveaux de gris à cause du bruit. Si on prend une photo d'une scène complètement uniforme, la largeur de l'histogramme c'est le bruit dans une unité arbitraire. Le centre de l'histogramme c'est le signal dans cette même unité.

Pour un appareil photo, le bruit, variation aléatoire d’un signal, se mesure en ADU (unité raw, voir paragraphe précédent) car c'est la seule information que l'on reçoit de l'appareil. Il est cependant utile de le convertir en nombre d'électrons via le gain décrit dans le paragraphe ci-dessus. Cela permet d'avoir une unité de référence plus parlante et plus universelle et qui correspond plus à une quantité physique: le nombre de photons captés.

Sur un détecteur CMOS éclairé on peut mesurer principalement trois sources de bruits:

Le bruit électronique de lecture. Il a plusieurs sources, fiabilité des condensateurs, numérisation etc... Ce bruit se retrouve après l’amplification.

Le bruit venant du ‘dark’ appelé courant d’obscurité Dans un pixel l’excitation thermique provoque la création spontanée d’électrons sans qu’il soit lié à de la lumière. Il y a une partie reproductible dans le dark qu'on peut enlever facilement en prenant des images noires. Mais une partie est vraiment du bruit, variation aléatoire de cette partie reproductible, et ne peut pas être retirée, sans retirer de l’information.

Le bruit de photon ou plus généralement le bruit de grenaille, ou “shot noise” en anglais. Je vous laisse googler, le web regorge de ressource la dessus. Mais en gros vous pouvez le voir de cette manière: imaginez, vous êtes un groupe d’amis sous la pluie. Vous comptez chaqu'un le nombre de gouttes que vous recevez sur le front en 5 secondes. L’un va en trouver 6, l’autre 3, l’autre 8, l’autre 6 etc... pourtant vous êtes tous sous la même pluie et vous avez tous la même surface de front. Ces variations du au hasard de l’ordre d’arrivé des gouttes est le bruit de grenaille ou ‘shot noise’. Le shot noise est illustré ci-dessous par cette petite vidéo (flash) qui montre le nombre de gouttes que recevrait des bassines de taille égales sous une même pluie pendant 3.6 secondes:

On peut voir que la quantité de pluie collecté varie d'une bassine à l'autre alors que les bassines ont toutes la même taille, que la pluie est uniforme, et que le temps d'exposition à la pluie est le même pour tout le monde. C'est variations aléatoires, c'est du bruit, le bruit de Grenaille.

Pour la lumière transporté par des particules, les photon, c’est pareil ; si des pixels voisins ‘regardent’ un ciel bleu uniforme pendant 1/1000 de secondes il y aura naturellement des variations du nombre de photons reçue par la surface d'un pixel à l’autre due au pur hasard, appelé le bruit de photon dans ce cas la. Il s’avère que le bruit de photon augmente avec la racine carré du nombre de photons. Plus il y aura de signal, plus les variations (le bruit au sens physique du terme) seront grande. Mais comme dit précédemment c’est le SNR qui compte, comme le signal augmente linéairement et le bruit avec la racine carré du signal, le SNR va augmenter avec la racine carré du signal également. En gros si je capte 16 photons en moyenne par pixel, le bruit de photon pour chaque pixel sera de 4 et le SNR sera de 16/4 = 4.

*Autre bruit** Il existe aussi un bruit dans les blancs d'une image du à une variation de gain d'un pixel à l’autre. Mais ce bruit est maintenant bien maîtrisé et en plus il peut se calibrer et s’enlever.

Les bruits s'ajoutent entre eux, mais il y a une ‘compétition’ entre les différentes sources de bruit et souvent une sorte de bruit va dominer les autres. Savoir quelle source de bruit domine va dépendre des conditions d’utilisation et de la quantité de lumière. Il y a cependant un bruit que nous pouvons éliminer dans des conditions ‘normale’ (hors longue pose) d’utilisation: c’est le bruit du courent d'obscurité. Comme le courant d'obscurité est du a de l’excitation thermique spontanée il augmente avec le temps d’exposition et la température du détecteur. Pour des températures ambiante de ~20 degrés et un détecteur moderne, le dark, exprimé en électrons, et d’environ de 0.1 à 0.5 e- par seconde. Le bruit associé à ce dark est également la racine carrée c’est à dire 0.3 0.7 e-/second, il est inférieur a l’électron. Pour des temps de pose inférieur à la seconde ce bruit est complètement négligeable même si le détecteur est ‘chaud’. Il faudra le prendre en compte sur des temps de pose plus long pour des images avec peu lumière (photo d'astro). Plus d’info sur le ‘dark current’ : themal noise

Le bruit de lecture d’un CMOS moderne est incroyablement petit est ce mesure facilement en prenant des images dans le noir (avec le bouchon) à très court temps d’exposition (e.g. 1/4000’’). Par exemple sur mon Fuji X-Pro2 à ISO 800 il est de ~1.4 électrons ! Comparé au bruit de photon c’est ridiculement petit. Pour 4 photons capté (4 électrons, c’est très peu) le bruit de photon est de 2 e-, il domine déjà le bruit électronique du détecteur. Il se dessine déjà que le bruit sur une photo, dans la grande majorité des cas est du au bruit de photon et pas au bruit de l'électronique du détecteur. La capacité des détecteur à capter les photons va donc être importante. Mais faisons les calculs, ça n'est pas très compliqué.

Prenons un exemple précis, encore avec le D750 à ISO 6400, dont voici les caractéristiques :

Si on considère un niveau de gris à 18% par exemple, comme c’est un 14 bits et que le gain est de 0.078 e-/ADU le nombre d'électrons produis par le pixel (=nombre de photons captés) se calcul ainsi: \(\frac{18}{100} * 2^{14} * 0.078 = 230 e-\)

Le bruit de photon est la racine du nombre de photon c’est a dire dans notre cas : \(\sqrt{230} = 15.17e-\). Ce bruit est à comparer avec le bruit de lecture du D750 à iso 6400 de 2.3e-. Tout ceci pour dire que même sur un gris à 18%, iso 6400, le bruit d’un pixel est complètement dominé par le bruit de photon, le bruit électronique du détecteur est quasiment invisible. C’est d’autant plus vrai que les bruits ne s’ajoute pas linéairement mais en quadrature: le carré du bruit total est égal à la somme des carrés des bruits indépendants. En prenant notre exemple, le bruit total est de \(\sqrt{\sqrt{230}^2 + 2.3^2} = 15.34 e-\) très proche du bruit de photon (15.17 e-). En faisant le raisonnement inverse on peut calculer à quel niveau de gris le bruit de photon est égal au bruit de lecture : \(2.3^2 / 0.078 = 68 ADU\) c’est à dire pour un 14 bits \(68/2^{14} = 0.4\)%. Autrement dit, même à iso 6400 le bruit électronique du détecteur sera seulement égal au bruit de photon dans les extrêmes noir à 0.4% de niveau de gris ! Pour des pauses longues il faudra bien sur ajouter le bruit du courant d’obscurité.

Dans la figure ci-dessous je montre le SNR (pour un pixel) du D750 en fonction du niveau de gris, calculé à partir de ses caractéristiques, pour trois iso (800, 6400 et 51200). Si vous avez suivit jusqu'ici vous savez que le SNR à iso 51200 est moins bon car moins de photons ont été captés (j'en reparle plus loin). En plus de ces courbes j'ai rajouté la comparaison pour chaque iso avec le SNR si le détecteur était parfait dans le sens que sont électronique ne produirait aucun bruit et si le détecteur avait le même bruit de lectures des premiers appareils photo numérique (~10 électrons de bruit). Le SNR ci-dessous est exprimé ici en décibel car ça correspond plus a la réponse de l’œil humain sur la capacité a percevoir le bruit.

On peut voir sur cette figure que même à iso 6400 le bruit de lecture, bruit du détecteur, a peu d'influence sur le SNR (les courbes sont confondues), à par dans les noirs ou pour un temps d'exposition très long (3 minutes dans cet exemple). On peut aussi tracé le SNR en fonction de l'iso, ci dessous pour deux niveaux de gris (1% et 18%):

On voit que pour même un gris à 1% le bruit de lecture influence le SNR que après iso 6400. Avant on peu dire que le bruit est dominé par le bruit de photon. Si vous vous dites que pourtant les détecteurs vieux de dix ans étaient bien pire à iso 6400 que les modernes vous avez parfaitement raison, je l'explique dans le paragraphe sur l'évolution de la technologie ci-dessous.

Tout ça pour dire que la notion de bruit sur une photo est intrinsèquement liée à la lumière, contrairement à ce que l’on peut croire au premier abord, la plus par du 'grain', sur la plus part des photos, est du au bruit de photon. Hors cas particulier du genre les parties noires sur des photos d’astro longue poses. C’est vraiment important de comprendre cela pour pouvoir comprendre que le pouvoir collecteur de lumière d’un système va dominé ses performances. Même avec un détecteur parfait, sans aucun bruit électronique, vos photos auront du grain ; grain qui devient visible à l’œil qu’à partir d’un certain seuil.

Voici un exemple ci dessous de mesure de bruit et SNR sur mon xpro-2. Bruit et SNR sont calculés sur une petite région centrale du détecteurs, 100x100 pixels éclairés uniformément. Ici seul les pixels verts sont pris en compte. Si il n’existait pas de bruit tout les pixels devraient avoir la même valeur (le même signal). Mais on voit bien que ça n’est pas le cas, il y a une dispersion des mesures et cette dispersion de histogramme c’est le bruit, comme pour les bassines. La mesure est faite ci-dessous avec le même gain (le même iso, 800) mais pour plusieurs expositions (le temps d’exposition varie). On voit que le bruit (la dispersion de l’histogramme donc) augmente lorsque le signal augmente. Encore une foi, ceci est due au bruit de photon. Si le bruit ne venait pas du bruit de photon on verrait une dispersion constante, un bruit constant et le SNR augmenterait linéairement (avec le signal). Ici on voit bien l’augmentation du SNR avec la raciné carré du signal à cause du bruit de photon.

Figure 1: histogramme de ~5000 pixels éclairés uniformément pour différent temps d'exposition. Le SNR pour chaque histogramme est tracé à droite

Pour voir les mêmes figures mais avec différent iso c’est ici

Note: ici je n’ai pas parlé de couleurs mais bien sur le bruit final va aussi dépendre de la ‘température’ de la lumière de la scène. Si la lumière qui éclaire un mur blanc est rouge par exemple, les pixels bleus vont recevoir moins de photons et auront donc un SNR plus bas.

Amplification et la fameuse “monté en iso”

Il y a une corrélation indéniable entre l’iso est la qualité d’image (au sens du SNR). Cette corrélation est la seule chose nécessaire à connaître pour un photographe. Par contre si il y a corrélation il n’y a pas de lien de causalité. Souvent les descriptions sur l’iso devraient s’arrêter au simple constat de cette corrélation. Mais pourtant J’ai lu des multitudes de fois des explications voulant montrer que le bruit sur une image (faible SNR) à haut iso est due au processus d’amplification, ce serait l’électronique de l’amplification qui provoquerait le bruit .... c’est tout simplement faut. L’amplification n’engendre pas de ‘bruit' sur un CMOS, elle permet juste de rendre la photo plus ‘brillante’, de convertir la même quantité d’électrons en plus d’ADU (unité raw). Si les photos à haut iso ont un faible SNR (grain sur l’image) c’est parce qu’elles sont prise avec peu de lumière, et qui dit peu de lumière dit faible SNR comme nous l’avons vu juste au dessus.

Pour illustrer cela voici des mesures, toujours prisent avec le x-pro2, mais cette foi l’exposition est constante et l’iso varie. On voit que la le signal en ADU augmente (le centre des histogrammes) avec l’iso et que le bruit (la dispersion des histogrammes) augmente avec l’iso également. Mais signal et bruit subissent la même amplification. Lorsque l’on passe de iso 400 a 800 par exemple, on double le signal (en ADU) et on double le bruit (en ADU) le rapport signal sur bruit reste lui le même. Le faible SNR vient de la faible quantité de lumière capté en entrée et l’amplification n’y change rien.

Figure 2: Histogramme de ~5000 pixels éclairés uniformément. L'exposition ne change pas, l'iso change Pour voir les meme figures mais avec des expo différentes c’est ici

Finalement on peut aussi s’amuser a une chose : au lieu de faire varier l’expo ou l’iso indépendamment on peut faire varier les deux pour avoir un niveau de gris constant. C’est plus représentatif de l’utilisation de l’iso. Voici cette figure pour un gris à environ 16% :

Figure 3: Histogramme des même pixels. Cette foi l'exposition et l'iso change pour garder le même niveau de gris

On voit bien sur les vignettes la dégradation de l’image, l’apparition des grains (= baisse du SNR). Souvent les gens l’associe à la monté de l’amplification alors quel est du a la baisse de la quantité de lumière. Même si j'en suis conscient le fait de le savoir ne changer pas grand chose à la pratique photographique. La courbe de SNR en décibel montre bien aussi, dans ce cas, pourquoi nous sommes plus sensible à la différence de bruit entre iso 1600 et 3200 (la pente est raide) que entre 200 et 400 (la pente est douce).

Cette figure est souvent représenté avec l’iso augmentent en incrément de stop, comme ceci :

Figure 4: iddentique à la figure 3 mais en base de deux (en stop)

Vous pouvez trouver ces figures pour différent niveaux de gris ici et ici.

Le terme “bonne monté en iso”, même si il est compréhensible au niveau pratique, est trompeur sur le fonctionnement d’un détecteur. On devrait dire plutôt “ce détecteur est sensible”. Le fait qu'un détecteur soit meilleur qu'un autre à haut iso ne reflète pas sa ‘qualité’ en 'monté en iso' mais de sa meilleure sensibilité de la surface et éventuellement de son bruit de lecture si on parle des iso extrêmes (51200, etc...).

Pixel ou pixels ?

Une chose cruciale manque a notre description du bruit. Jusqu’ici je n’ai parlé que du SNR mesuré sur un pixel du détecteur, appelé aussi photosite. Mais en photographie le photosite seul ne représente rien en lui même, c’est une donnée qui sera ensuite traité et combinée avec d’autre pour former une photo. Il est très rare que l'on observe une photo à 100%, ou chaque pixel du détecteur équivaut à un pixel de l'écran. Ou si on parle d'impression que chaque pixel du détecteur est représenté par un point d'impression, ce dernier est souvent composé de plusieurs photosites.

Lorsque on imprime une photo, sauf cas exceptionnel, plusieurs photosite sont combinés entre eux pour former un ‘point d’impression’. Le SNR qui compte au final c’est celui visible sur la photo finale accrochée au mur ou montrée sur une page web, pas celui du pixel du détecteur.

On peut faire l’exercice de comparer le SNR d’une même photo (même taille, même dpi, visionnée à la même distance) prise avec des appareils photos de même format mais des nombres de pixels différents. Si les deux appareils on un nombres de pixels différents forcément les mêmes points d’impressions de la photo finale seront constitués d’un nombre différents de photosites.

Prenons un exemple concret, vous prenez une image avec un détecteur A/ de 12Mpx et la même photo avec un détecteur B/ de 48Mpx (4 fois plus). Les deux détecteurs ont la même dimension. Vous imprimez les deux photos de manière identique, même dimension, même dpi. Par exemple une photo de 34cm x 25.5cm a 300 dpi. Si vous faite les calcul chaque pixel du détecteur A/ compose un point d’impression de la photo et quatre pixels du détecteur B/ compose un même point d’impression. D’où la question, quel est le SNR de 4 petits pixels combinés comparé à un gros de la taille des 4 ? La réponse courte c’est qu’il est quasiment le même.

En prenant le cas le plus courant ou le SNR est dominé par le bruit de photon (dés qu’il y a un peu de lumière, voir plus haut). Nous somme d’accord que la surface d’un pixel du détecteur A/ est quatre fois plus grande que la surface d'un pixel du détecteur B/, donc le pixel de A/ capte 4 fois plus de lumière que le pixel de B/ donc sont SNR est racine carrée de 4 = 2 fois meilleure que les pixels de B/. Mais si on combine les 4 petits pixels de B/ on moyenne leur signal (la lumière) et leur bruit (en quadrature) si bien que le SNR des quatre combinés est 2 fois supérieur à un seul est est donc égal au SNR d’un gros pixel du détecteur A/. Autrement dit la taille des photosites influence seulement le SNR du photosite mais n’influence que très peu le SNR d’une photo finale d’une taille donnée.

Cependant, pour être précis, il faut noter que la surface collectrice de 4 petits pixels n’est pas exactement égale à un gros, car de l’espace inter pixel est perdue, également la micor-électronique de chaque pixel prennent une certaine place. Mais ces espaces morts sont maintenant minimisés grâce notamment aux micro lentilles placés devant les pixels, elles concentrent la lumière dans le pixel et grâce aussi à la technologie BSI (Back Side Illuminated, les micro-ampli se retrouvent de l’autre coté de la surface exposée). De plus les petits pixels ont souvent une efficacité quantique meilleure ce qui compense ces espaces morts. Historiquement, il était difficile au début des CMOS et CCD de mètres beaucoup de petits pixels car l’espace inter pixel était beaucoup plus important (le “fill factor” était moins bon). Mais ça n’est plus le cas maintenant c’est pourquoi nous avons maintenant des D850 de 46Mpx avec les mêmes performances que un D5 de 21Mpx.

Bien sur, comme souvent en physique, ceci n’est pas valable à tout les facteurs d’échelles. Si on considère 1 gros pixel à la place de 32 par exemples, le gros aura un avantage de surface active (à cause des espaces mort inter-pixel) et aussi le bruit de lecture des 32 pixels va se cumuler et devient moins négligeable. Mais il n’y a pas de facteurs d'écart aussi important sur le marché, pour le même format.

Pour illustrer ceci voici les mesures des “low light capability” faites par DxO. C’est en fait l'iso pour lequel le “bruit” devient gênant, pour une taille d’impression donnée. Même si le terme gênant est très subjectif, ces mesures ont le mérites d’être cohérentes entre elles. Ci-dessous tracé le score DxO en fonction de la surface des pixels pour différents formats.

Figure 5: 'low light score' de DxO en fonction de la surface des pixels

On peut voir sur la figure que pour un format donné (FF par exemple), les performances sont légèrement dispersés mais il n’y a pas de corrélations avec la taille des pixels. Les données sont limités à celles mesurées sur des appareils sorties après 2014, pour limiter les effets d’évolution technologique qui favoriserait les petits pixels (car il n’existaient pas avant).

Encore un petit bémol. La démonstration faite ci-dessus et les mesures DxO concernent les cas ou il y a (un peu) de lumière. La plus part des cas photographiques. Mais si on s’intéresse aux noirs (sans lumière) la situation est différente car le bruit n’est plus dominé par le bruit de photon (il y en a pas ou pas assez) mais par le bruit du détecteur. Dans ce cas la combinaison des pixels va augmenter le bruit du pixel virtuel combiné sans augmenté le signal suffisamment (puisqu’il n’y en a pas ou peu). C’est pourquoi en astro par exemple les gros pixels ont un avantage. Pour l’astrophysique, certaines observations sont tellement aux extrêmes de la détection qu’il sera préférable de concentrer la lumière sur le minimum de pixel possible plutôt que sur plusieurs petits. Puisque dans ce cas la le bruit du détecteur 'domine' le bruit de photon. En photo ça n’a en général par d’importance puisque le bruit de photon domine dans la plus part des cas.

L’évolution technologique

Si vous avez suivit jusque la vous êtes en droit de vous demander pourquoi, si le bruit vient essentiellement de la lumière, les détecteurs deviennent de plus en plus meilleurs au fils des ans. Certes, le bruit des détecteurs c’est amélioré au fil des années et joue un rôle dans les conditions les plus extrême de basse lumière (dans les noirs). Mais surtout, la différence vient de l’efficacité grandissante des détecteurs à capter la lumière. Plus l’efficacité est grande, plus le détecteur captera de photon pour une exposition donnée, plus le SNR sera bon. Les efficacités quantiques ont augmenté, le taux de remplissage (proportion de la surface active ou ‘fill factor’) a également augmenté. Autrement dit une photo à iso 1600 prise avec un vieux détecteur d’une quinzaine d’années était constitué de moins de photon que un détecteur moderne (le gain par unité de surface était donc plus important pour avoir le même niveau de gris au même iso).

Toujours avec les scores de DxO on peut regarder l’évolution de cette efficacité. Ci dessous le low-light score de DxO en fonction de la date de sortie de l’appareil pour différents formats.

Figure 6: 'low light score' de DxO en fonction de la taille (surface) des pixels

On peut voir que cette évolution est assez similaire pour les différents format avec une pente plus abrupte pour les petits détecteur qui populeux les téléphones portable et petits appareils.

Et donc la taille du détecteur ?

Si vous avez suivit jusqu’ici il devrait être facile de trouver la réponse. Encore une fois les performances dépendent de la quantité de lumière que le système peut absorber ...

Dans la suite je considère que vous éclairez deux détecteurs un petit et un gros avec la même densité de lumière (la même quantité de photon par \(mm^2\)). Comme le bruit vient essentiellement du bruit de photon, le SNR par unité de surface, le SNR par \(mm^2\), ne changera pas entre les deux détecteur (ou que marginalement suivant les fluctuations tehcnologiques). Donc on pourrait résonner comme cela : avec un détecteur 4 fois plus petit (en surface), par exemple, on peut imprimer une photo 4 fois plus petite qu’avec un gros détecteur, les deux photos auront le même SNR. Le gros détecteur servirait à juste imprimer plus gros une même photo ou le gros détecteur servirait a mètre plus de ‘chose’ sur une photo. Ou autrement dit le petit détecteur, derrière un même objectif, est capable de prendre le quart de la photo accroché au mur prise avec le gros détecteur sans dégradation de qualité. Cette façon de penser, qui est à l’origine du mot “crop” peut être utile dans certain cas ; les cas ou on possède un objectif et on veut trouver le détecteur le plus adapté à la situation. Par exemple j’ai un objectif de 200mm f/2.8 pour prendre la Lune en photo. Avec un appareil à gros détecteur je vais gaspiller plus de surface, le noir autour de la lune, inutile. Il est fort possible que le plus petit détecteur rende une photo “meilleure” car il y aura plus de résolution (plus de pixel) sur le sujet, la Lune. Pareil pour un animal au loin dont on ne pourrait pas s’approcher. Dans l’autre sens pour un agent immobilier ayant un 16mm il vaudrait mieux pour lui choisir le plein format, son but est de mètre le plus de chose possible dans le cadre ...

On peut imaginer plein de cas identiques mais la question la plus intéressante pour beaucoup est de savoir comment se comparent les performances entre un petit est un gros détecteur pour une même photo finale, une photo de même taille. Nous avons tout les éléments pour y répondre. Nous avons vu que on peut s’affranchir au premier ordre de la taille des pixels dans cette comparaison car elle n’influe pas, ou peu, la sensibilité de surface (et donc le SNR par unité de surface). En prenant un exemple concret entre un plein format (FF) et un APS-C, il y à un facteur x1.5 sur les dimensions. En considérant une photo de, par exemple, 36cm x 24cm imprimée à 300 dpi (qu’importe) faite soit avec le FF soit avec le APS-C. Chaque point d’impression, que j’appellerais plus généralement élément de la photo, correspondent à une certaine surface sur le détecteur. Entre le plein format (36mm) et la photo (36cm) il y a un facteur de grandissement de 10, entre le APS-C et la photo il y a un facteur de grandissement de x15. Chaque ‘élément de l’image’ correspond à une surface \(1.5^2= 2.25\) plus grande sur le FF que sur le APS-C. La figure ci-dessous le schématise.

Figure 7: Schéma expliquant les différents facteurs de grandissement entre deux détecteur (FF et APS-C) et un même photo finale

Si les deux détecteurs sont éclairés avec la même densité de lumière cela implique que chaque élément de l’image finale est constitué de 2.25 fois plus de lumière avec le plein format. Donc le SNR de la photo prise avec le plein format sera 1.5 fois meilleure (puisqu’il augmente avec la racine du nombre de photon). Pour que chaque élément de l’image est la même quantité de lumière et donc le même SNR, il faudra augmenter la densité de lumière de 2.25 (environ un stop) sur le APS-C et bien sur cela implique de diminuer l’iso (qui est une mesure par unité de surface) du même facteur pour que les deux images aient le même SNR et histogramme (niveaux de gris).

En gros, toujours pour une densité de lumière constante, la rapport de SNR entre deux mêmes photos de deux détecteurs de taille différentes va être proportionnel à la racine du rapport des surfaces, et donc si les deux détecteur on le même rapport longueur/largeur (3/2, pour FF et APS-C) le rapport des SNR sera égal au fameux crop facteur. Bien sur il y a des fluctuations technologiques qui vont faire que ceci n’est pas complètement exacte, mais pour des appareils de même génération c’est un bon point de départ, le reste est du pinaillage comme le montre les figures ci-dessous. Si on réfléchit en terme d’iso cela équivaut à dire que, par exemple, l’iso 1600 d’un FF équivaut à l’iso ~800 sur un APS-C (rapport de surface d’un stop environ).

Ceci est bien visible dans la figure, plus haut, montrant l’évolution technologique pour différents formats à une date donnée ; les différents formats sont bien séparés en performance iso par le rapport de surface. Pour le mètre en valeur et regarder seulement les fluctuations technologiques on peut tracer la performance iso divisé par la surface de détection. Ci-dessous est tracé le ‘low light score’ de DxO en fonction de l’année pour les trois grand constructeurs (Nikon, Canon et Sony) suivit à chaque foi de la même figure montrant le score DxO divisé par la surface du détecteur, pour corriger de la surface.

Pour Nikon:

Pour Canon:

Pour Sony:

Pour toutes marques confondues:

Il est intéressant sur ces figures de voir que par unité de surface ceux qui s’en sorte le mieux sont les détecteurs les plus petits les 1’’ ou 1/1.7’’, mais bien sur comme ils sont plus petit ils ont des performances globale en basse lumière moins bonnes. Par contre full frame APS-C et M4/3 sont de manière générale confondues, avec des fluctuation suivant les marques et les années. Aussi il est intéressant de voir les différentes progression suivant les marques. Nikon semble avoir fait un saut technologique sur leur surface de détection de 2008 à 2010 et depuis stagne légèrement. Canon a démarré fort et c’est reposé sur ses laurier mais à réagit ver 2014. Sony en progression constante depuis 2008.

La même information peut être tracée comme suit. Dans les graphs ci dessous est tracé le rapport des “low light score” moyen (pour une fenêtre de six mois calculé tout les 4 mois) entre FF vs APS-C FF vs M4/3 et FF vs 1’’ au fil des années. Les lignes bleues horizontales sont les rapports des surfaces (les lignes verticales sont les barres d’erreurs).

Pour FF vs APS-C

Pour FF vs M4/3

Pour FF vs 1inch

Encore une foi, on voit que globalement le rapport des performances en iso est compatible avec le rapport des surfaces entre FF vs APS-C et FF vs M4/3, cependant il semble que les M4/3 gagne un peu de terrain depuis 2016. Je ne serais pas étonné si ce n’est qu’une variation temporelle, à voir. Les détecteur 1’’ semblent avoir une meilleure sensibilité de surface, certainement du à une meilleure efficacité quantique.

Test

Après toute cette théorie voici un test très simple faisable avec un seul détecteur et deux objectifs avec une focale différente (ou un zoom). Le but est de créer soi même des détecteurs de tailles différentes, il suffit de 'cropper' l’image prise avec la focale la plus courte. Ici je considère toujours que on compare le même ‘produit’ final, la même photo. Je vais donc comparer une photo prise avec mon x-Pro2 et un 35mm et la même photo prise avec un 16mm mais une petite partie du détecteur (cropé), les deux photos sont ensuite re-dimensionné à la même taille (ici 1500x1000 =1.2Mpx). De cette manière on simule un crop facteur de 2, donc un rapport de surface de 4. L’avantage de ce test est qu’il ne nécessite pas de labo optique ni de logiciels spéciaux (je l’ai fait en prenant mon congélateur et en important/croppant/exportant les images sous lightroom). Il suffit juste de se mettre dans les bonnes conditions pour pouvoir “apprécier” les bruit à l’œil nue (il faut être sur la courbe montante du SNR, voir plus haut) c’est à dire en basse lumière. Pour le X-pro2 à iso 1600 dans les gris à environ 25% c’est un bon point de départ. Voici donc la comparaison des deux images volontairement sous exposé dans lesquelles l’exposition est conservée (même ouverture et même temps d’exposition):

On voit nettement la différence de qualité d’image, la différence de ‘grain’. Le SNR de l’image prise avec le ‘petit’ détecteur virtuel est moins bon pourtant les photosites sont les mêmes. Car encore une fois, la même photo a était prise avec 4 fois moins de lumière. À noter que il y a une légère différence de brillance entre les deux photo (0.15ev) due à une transmittance des verres des lentilles différent mais ceci influence peut sur la différence de grains.

Si ce que j’ai écrit jusqu’à présent est vrai on devrait pouvoir obtenir la même qualité d’image avec le ‘petit’ détecteur en exposant 4 fois plus de lumière. Pour faire cela j’ai le choix d’augmenter l’ouverture (diminuer le nombre-f) ou augmenter le temps d’exposition. Ici je le fais avec le temps d’expo, dans le paragraphe suivant je le fais avec l’ouverture (pour des questions de profondeur de champ).

Il y a toujours la même différence de brillance du a la transmittance mais les images ont, à l’œil, la même qualité (SNR identique). Bien sur l’iso est ajusté de 2 stops pour obtenir le même niveau de gris. On comprend bien avec ce test pourquoi les FF et M4/3 ont une différence de performance iso de 2 stop environ (pour des détecteurs de même génération).

On peut aussi s’amuser à dégrader la qualité de l’image prise avec le ‘gros’ détecteur (le détecteur entier) en diminuant la quantité de lumière d’un facteur 4 également :

L’équivalence des objectifs en fonction de la taille des détecteurs

Voici le sujet brûlant. Je penses que le principal coupable sur les désaccords dans l’équivalence est l’iso est l'incompréhension sur l'origine du bruit. Comme on l’a vu l’iso est une mesure par unité surface, l’iso ne prend pas en compte la taille du détecteur qui comme nous l’avons vu également a une influence sur la qualité de la photo finale. Autrement dit l’iso est une référence de qualité seulement si on considère un seul format de détecteur mais pas d’un format à un autre. Comme chacun peut le constater, l’iso 800 de l’iPhone n’a rien à voir avec l’iso 800 d’un FF. Il convient donc de se demander quel est le plus important en photo, les paramètres (les exif comme l'iso) ou le résultat ... pour moi il n’y a pas ‘photo’, le plus important est le résultat, savoir quel taille du détecteur et quel iso a été utilisé pour la photo n’a aucune importance. Je ne peux pas imaginer par exemple une gallérie d’art qui exposerait une série de photo “ISO 800”, ça serait inintéressant, un choix de profondeur de champ et de qualité pourra lui être mit en valeur dans une expo photo.

L’équivalence entre deux objectifs sur des capteurs de tailles différentes tente de définir les caractéristiques des deux objectifs pour lesquels le rendu photographique serait identique. Il s’avère que pour la longueur focale des objectifs il y est un consensus, certainement parce que c’est le plus facile à voir : un 50mm sur un APS-C à un champ de vu équivalent à un ~75mm sur un FF. Il y a bien cette notion de rendu identique qui apparaît ici.

Le nombre-f (l’ouverture) d’un objectif est le rapport de la focale divisé par le diamètre de sa pupille. Il est utilisé car c’est une bonne approximation de la densité de lumière qui frappe le plan focal (le détecteur), au écart de transmittance prés. Dire que un f/2.8 sur un APS-C est équivalent à un f/2.8 sur un FF c’est dire que les détecteurs recevront la même densité de lumière (ou nombre de photon par \(cm^2\)) pour la même photo et donc c’est dire que l’iso utilisé, sera le même et cela renseigne sur l'exposition nécessaire pour placer histogramme au bon endroit .... et c'est tout. Si on ne connaît pas le détecteur qu'il y a derrière l'ouverture ne renseigne en rien sur le rendu de l'image (profondeur de champ et bruit) comme la focale qui ne renseigne pas du champ de vu en lui seul.

Comme nous l’avons vu la quantité totale de lumière capté par un système est celle qui influe le plus sur le SNR, le grain sur les photos. Pour avoir une qualité d’image équivalente il faudra donc que l’objectif utilisé par le APS-C laisse passer plus de lumière (2.25 fois plus, environ un stop) pour compenser la différence de surface. À première approximation, pour les mêmes conditions photographiques un f/2 sur un APS-C aura le même grain (=SNR) que un f/3 sur un FF de même génération. La qualité sera équivalente, ce qui représente à mes yeux bien plus d’intérêts que des mêmes chiffres dans les exif d’un fichier (iso, ouverture, etc...).

On a oublié quelque chose dans l’équivalence de rendu, la profondeur de champs. Je ne vais pas développer plus sur ce sujet mais il s’avère, miracle de l’optique, que l’équivalence du nombre-f sur la profondeur de champ et champ de vu est compatible avec l’équivalence sur la qualité d’image (au sens du grain). En décortiquant, si on veut comparer la capacité des appareils à prendre la même photo on peut définir quels sont les paramètres qui 'font' la photo, en tout cas les paramètres basiques que on peut maîtriser à l’achat d’un système (ouverture, focale, taille de détecteur). Je laisse de coté, le rendu des couleurs, la dynamique, la portabilités, la résolution etc ... Donc une photo c’est :

  • Une certaine perspective (lignes de fuites)
  • Un cadrage (champ de vue)
  • Une profondeur de champs
  • Une qualité d’image (le grain, le bruit visible)

Pour conserver ces éléments si on utilise des appareils avec un détecteur de taille différent (prenons FF vs APS-C comme exemple):

  • La perspective. C’est facile elle ne dépend ni de la focale, ni du détecteur, ni de l’ouverture. Elle dépend de la position d’où on est pour prendre la photo. Par exemple pour un portrait les 3 mètres sont conseillés pour conserver un visage bien proportionné. La focale n'y change rien, elle changera juste la surface remplit par le sujet sur la photo.
  • Le cadrage. Puisque le point précédent implique que la photo soit prise du même endroit il reste qu’une solution: changer la focale de l’objectif par le fameux crop-facteur pour avoir le même champ de vue et donc le même cadrage à une distance donnée. 300mm vs 200mm par exemple.
  • La profondeur de champ. Puisque la focale et la distance au sujet sont fixés par les deux points précédents il ne reste plus que un paramètre sur lequel on peut jouer pour ajuster la profondeur de champ : l’ouverture. À distance du sujet égal un 200mm f/3 aura un profondeur de champ plus large que un 300mm f/3, il faudra passer à ~200mm f/2 pour avoir la même profondeur de champ que un 300mm f/3.
  • Le bruit. On a usé tout les paramètres possibles et comme on veut que les images est le même histogramme il faudra obligatoirement que les iso soient différents pour compenser la différence d’exposition du au différent nombre-f. Et miracle de l’optique et de la physique un 200mm f/2 sur un APS-C résultera a la même qualité que un 300mm f/3 sur un FF (et iso différent d’un stop) car les deux système auront captés la même quantité de lumière.

Pour illustrer cela, c’est aussi très simple, il suffit de faire le même exercice que précédemment mais cette foi en changeant l’ouverture au lieu du temps d’expo qui potentiellement pour des choix artistique de représentation de mouvement est figé.

Voici toujours avec le xpro-2 + 35mm plein détecteur et le xpro-2 + 16mm cropé quatre images prisent avec le même temps d’exposition à la même distance. Le crop facteur est donc toujours de 2. Le focus est fait sur la partition, un plan intermédiaire pour accentuer la différence de profondeur de champ au premier et deuxième plan.

A) 35mm f/3.2 iso 1600

B) 16mm f/1.6 iso 400

C) 35mm f/6.4 iso 6400

D) 16mm f/3.2 iso 1600

Qu’elles sont les photos les plus équivalentes ? Celles qui conservent ouverture et iso A) et D) ? Ou celles qui conservent la quantité de lumière en appliquant le crop facteur sur l’ouverture A) et B) puis C) et D) ?

Bien sur tout ceci n'est pas pour montrer que un gros système est forcément meilleur. Beaucoup d'autres facteurs entre en compte dans le choix d'un système et il y a beaucoup de situation ou, si c'est nécessaire, il est possible de contrecarrer le manque de lumière.

À quoi ça sert l’équivalence ?

D'abord n'oublions pas que si on peu exprimer l'équivalence sur focale et ouverture ça n’enlève en rien l’existence de focale et ouverture physique de l'objectif. Les deux bien sur coexiste ensemble. En résumé l'ouverture de l'objectif (avec ses amis temps d'exposition et iso) permet de placer l’histogramme ou il faut, et ne pas saturer les partie brillantes par exemple. L'équivalence sur focale est ouverture permettent d'estimer un rendu (champ de vu, profondeur de champs, bruit) et performance d'un système. C'est en fait une métrique de référence. On peut exprimer d'autre métrique, par exemple un trio angle de vue, SNR à 18% a iso 100 ou lumens, profondeur de champ à un mettre de distance. Seulement parfois il est plus utile de dire "mon jardin a la surface équivalente à un terrain de foot" plutôt que dire "mon jardin fait 2354 mettre carré". Même si c'est plus approximatif ça renseigne mieux sur la taille du jardin pour la plus part des gens ... à condition de savoir ce que sait qu'un terrain de foot. Si l'équivalence 'terrain de foot' est plus parlant c'est aussi que c'est une référence populaire, de même en photo lorsque la métrique équivalence est apparue le plein format était le format le plus populaire chez les photographes.

Pour moi il y a très peu ou pas de conditions de prise de photo ou l’équivalence sera utile. En général les photographes connaissent les rendus et limites de leur(s) système(s) en fonction des conditions et paramètres de réglages. Nul besoin de trouver l’équivalence avec un autre format (habituellement le FF) pour prendre une photo de bonne qualité. Surtout lorsque on constate que la qualité artistique et narrative dominera toujours toutes les autres formes de qualité plastique (bruit etc...). À l'usure on sait que on peut facilement faire deux parties de volet et trois jeux de pétanques dans son jardin, sans avoir à le convertir en terrain de foot tout le temps.

Sur le terrain ça peut cependant être utile dans les rares cas ou on donne un appareil a un photographe sans qu'il connaisse la taille du détecteur. Si on lui dit c'est un 4mm f/2.2 (iPhone 6), la seule information utile pour lui c'est le f/2.2, ça lui permettra d'exposer la photo correctement est de ne pas saturer les hautes lumières et éventuellement d'utiliser un flashmetre par exemple. La focale toute seule ne lui donne aucune information. Si on lui dit c'est un f/2.2 équivalent 30mm f/15 il possède les informations sur l'expo et le rendu final (cadrage, profondeur de champ, qualité d'image), informations brouillonnes mais utiles. Deux exemples, un peu tiré par les cheveux, mais pratique pour celui qui comprend la métrique; en utilisant un iPhone 6:

  • Portrait en plein jour: f/2.2 ça lui dit qu'il va falloir régler le temps d'obturation court et l'iso à son minimum (sinon on sature). Équivalent 30mm f/15, ça lui dit ou se placer pour cadrer et ça lui dit que il y a des chances que la maison moche derrière va être également au foyer vu la profondeur de champ et qu'il va falloir recadrer la photo pour éliminer.
  • Paysage à la tombé de la nuit : équivalent 30mm f/15 ça lui dit immédiatement qu'il va falloir un pied pour pouvoir exposer longtemps et éventuellement faire le l'empilement de plusieurs photo pour amélioré la qualité d'image, f/2.2 ça le renseigne sur le temps d'expo maximum de chaque photo individuelle.

Oui bien sur, ces exemples sont complètement obsolètes lorsque on connaît son matériel ses limites et le rendu obtenu pour chaque situations, la plus part des cas donc.

L’Équivalence à pour moi une seule bonne raisons d’être, c’est lorsque on compare un système et son prix avec un autre, pour comparer de façon brouillonne les rapports qualité / prix avant de rentrer plus en détail dans les autres spécifications des appareils. Par exemple mon 56mm f/1.2 monté sur mon X-pro2 (APS-C), utilisé à ses pleines capacités, aura le même pouvoir à créé ‘la même photo ultime’ que un 85mm f/1.8 monté sur un Nikon D750 (FF) utilisé à ses pleines capacités. Le 56mm f/1.2 su APS-C sera équivalent à un 85mm f/1.8 sur FF pour faire court et pas un 85mm f/1.2 qui sera beaucoup plus cher.

Chacun est libre d’utiliser l’équivalence si ça lui sert bien sur. Mais appliquer l’équivalence sur la focale mais pas l’ouverture est pour moi une arnaque industrielle: ils prennent le meilleur des deux mondes pour embellir leur produit. Beaucoup d’industriel le font, sony par exemple vendent le RX10 IV en disant que c’est un 24-600 mm f/2.0-4 !!!! Vous avez déjà vu la taille d’un 600mm f/4 ? comment peut on prétendre que le sony à 1700$ puisse se comparer au pouvoir collecteur d’un 600mm f/4 sur un FF qui vaut à lui seul ~12000$ ! Oui les deux vont afficher le même iso à 600mm f/4 pour une même scène, il n’empêche que les photos qui en résultent n’auront rien à voir, l’un captera 7.3 fois plus de lumière que l’autre en un seul shot. Ce sony est un 8.8 - 220mm f/2.8 -4, si on veut le comparer à un objectif monté sur un FF ça sera un 24-600mm f/7.5-10.8 (crop facteur de 2.7) ce qui est beaucoup moins attractif du point de vu marketing ou sinon il faut utiliser une autre métrique que l'équivalence.

Les raisonnements trolls

Pour avoir suffisamment lu des discussions et articles je peux faire une petite liste de phrase ou de raisonnement qui fausse la réflexion sur le problème :

  • ”un 56mm f/1.2 n’est pas équivalent à un 85mm f/1.8, l’ouverture est une caractéristique de l’objectif elle ne change pas avec le détecteur”. En effet, une chose de vrai, l’ouverture est une caractéristique de l’objectif. Mais c’est une vérité qui n’a rien à voir avec le problème. L’équivalence ne dit pas “l’ouverture va changer si tu mets l’objectif devant un capteur plus gros” elle dit juste “ce sont les caractéristiques qu’aurait un autre objectif pour prendre une photo de même rendu (champ de vu, SNR, d.o.f) avec un détecteur plus gros et dans les mêmes conditions”. D’ailleurs on l’emploi très bien dans le langage courant: “un œuf est l’équivalent en protéine a un steak” personne ne va dire 'c’est faut un œuf reste un œuf' ! Ou “un euro est équivalent à 1.23 dollars américains” pourtant l’euro reste l’euro, etc...
  • ”Un APS-C ne capte pas plus de lumière qu’un FF. Si on coupe une feuille blanche en deux elle reste blanche” Le truc de la feuille blanche montre qu’une seule chose: on peut découper une photo en deux et les deux moitiés restent bien exposées ! Mais ça n’a rien à voir avec l’équivalence. Prenez une photo d’un couple d’ami, coupez la en deux, gardez la moitié, madame sera toujours bien exposée, mais seule cette foi, les photos ne sont pas équivalentes. La quantité de lumière est fatalement deux fois moins importante puisque on a enlevé la moitié de la surface. Dans ce cas la moitié de la lumière servait à inclure monsieur sur la photo. Si on prend la même photo projeté sur une feuille A4 avec une certaine densité et une autre sur une feuille A3 avec la même densité, obligatoirement la feuille A3 aura capté deux fois plus de lumière, elle est deux fois plus grande. Cette lumière en plus peut 1/ soit servir à augmenter la résolution, c’est à dire diminuer la taille élémentaire des ‘éléments d’images’ 2/ soit augmenter le SNR de chaque ‘élément d’images’ car constitué de deux fois plus de lumière.
  • ”l’équivalence sur l’ouverture c’est n’importe quoi: un flash mètre ne te demandera pas la taille de ton détecteur.“ Il n’y a aucune raison de se servir de l’équivalence pour utiliser un flash mètre, l’équivalence est une comparaison mentale entre de deux systèmes. Si on utilise un flash mètre on utilise les propriétés en ouverture de l'objectif monté sur l'appareil pas ceux de l’objectif virtuellement équivalent. D’ailleurs un flash mètre ne garanti pas une certaine qualité d’image (SNR), il garanti juste une bonne expo pour un iso donné (ou l’inverse).
  • ”en photo en s’en fou de la quantité totale de lumière, ce qui compte c’est l’expo, le nombre de photons par \(cm^2\) sur le détecteur” Si vous avez tout lu vous savez a quel point la quantité de lumière est importante sur le rendu, sur le bruit dans un image. (..édité..) On ne peut pas nier que le bruit n’a pas une certaine importance en photographie. La plus part des revues sur les appareil photos en parle en priorité. Si le bruit (un des critère de qualité d'une image) n'était pas important, les journalistes sportifs, par exemple, ne dépenseraient pas une fortune sur des 600mm à f/4 énorme. Si ils font ça, ce n’est pas seulement pour l’amour du bokeh mais aussi pour faire rentrer le maximum de lumière pour leur 'snapshot' et minimiser le bruit. Sinon il prendraient un bridge, petit détecteur, avec un zoom de bonne qualité optique. Mais l'importance de la quantité de lumière n'enlève en rien l'importance de l'exposition. Au final en résumant c'est plutôt simple si on décortique le principe en deux : 1/ L'expo est importante pour ne pas saturer les partie brillantes dont les détails sont nécessaires à la photo (cela va dépendre de la scène, capacité de votre détecteur et son ajustement en iso). 2/ La quantité de lumière totale est importante pour la qualité finale de l'image. Comme le montre Patrice Bilesimo dans les commentaires ci-dessous en empilant des images prisent avec l'iPhone (en augmentant la quantité de lumière) on arrive a créer une photo de qualité similaire à celle d'un snapshot d'un appareil plein format. L'expo de chaque image de l'iPhone est importante, elle est ajusté pour ne pas saturer les parties brillantes (et éviter la trace des vibrations/mouvement de l'appareil), le nombre d'image (quantité de lumière) est importante pour arriver à une qualité nécessaire pour imprimer la photo d'une certaine taille. Bien sur ceci ne marchera pas si le but est de prendre une danseuse en mouvement sans pouvoir la "flasher" en plein spectacle. Le seul moyen dans ce cas la est d'avoir un système qui collecte plus de lumière possible pour allier expo et quantité de lumière maximale en un seul 'snapshot' et obtenir la qualité nécessaire à la narration. Au final le seul 'SNR' qui compte c'est celui qui n'entrave à la lecture de l’œuvre.
  • ...