La lumière le bruit et les détecteurs

Voici quelques informations qui peuvent être utile aux personnes qui s’intéressent au fonctionnement d’un appareil photo, sur la lumière, le bruit et les équivalence. Avant tout j’aimerais préciser que tout ce qui est décrit ci-dessous n’a rien a voir avec la “photographie”, la photo est avant tout un art valorisé part la narration et l’émotion exprimées par la composition, la lumières, les mouvements, bref les choix artistiques du photographe et son investissement. Dans les critères de qualité d’une photo, en tout cas celle que j’aime, la qualité plastique de l’image (bruit, piqué, etc...) arrive loin derrières les critères artistiques. Mais comme je suis aussi scientifique et spécialiste en mesure de la lumière, rien ne m’empêche de comprendre comment ça marche, meme si ça n’améliorera en rien (ou infiniment peu) mes photos. Donc très peu d’éléments aideront un photographe à prendre des photos, une connaissance fonctionnelle de son appareil photo est toujours plus nécessaire que de comprendre la physique qui s’y cache. Encore heureux. Mais la bonne nouvelle c’est que de comprendre n’empêche en rien la création artistique ....

Dans la suite j’explique brièvement comment fonctionne un détecteur, d’où vient le bruit sur un pixel et ensuite sur une image, quel est l’influence de la taille des détecteurs sur le bruit. J’appuis cette discussions sur des mesures et des test simple que chacun peut réaliser. Je pars du principe que le lecteur a des connaissances de base sur le sujet.

Court description du fonctionnement d’un pixel.

Trés basiquement, Lorsque un photon frappe un pixel il peut créer un et un seul électron dans le substrat (effet photo électrique). Pendant l’exposition ces électrons sont stockés dans le pixel jusqu’à une certaine capacité (le ‘full well’) de ce dernier. Après exposition le pixel est lu, les électrons créent un courant qui est de suite transformé en tension. Cette tension est amplifiée puis ensuite numérisée et stockée en mémoire. L’amplification, ou gain, va dépendre bien sur de l’iso utilisé. Mais la relation entre iso et gain est propre aux caractéristiques du pixel: sa taille et son efficacité à convertir les photons en électrons, également il dépend aussi dusystème iso utilisé variable d’un constructeur à l’autre. Par la suite lorsque je parles de nombre d’électrons vous pouvez le traduire par nombre de photons captés, ils sont équivalents. Le rapport entre le nombre de photons captés (ou d’électrons donc) et le nombre de photons qui touches la surface du détecteur, c’est l’efficacité quantique (ou QE en anglais).

Si on prend le chemin à l’envers, ce que l’on récupère sur une image raw (non-démosaiquée) c’est une valeur codée sur un certain nombre de bits pour chaque pixel, l’unité raw est appelée ADU (pour Analog to Digital Unit) ou parfois DN (Digital Number). Pour 14 bits par example un pixel peut mesurer jusqu’à \(2^{14} = 16384\) niveaux d’intensité différent. La relation entre l’ADU et le nombre d’électrons s’appelle le gain il est exprimé en e-/ADU (décroît lorsque l’amplification augmente) ou parfois en ADU/e- (croit avec l’amplification).

Pour connaître la quantité de lumière réelle capté par le pixel il faut donc connaître le gain, l’iso ne suffit pas car la relation iso/gain change d’un détecteur à l’autre (change avec le QE et la taille du pixel). Malheureusement en photos nous n’avons pas accès à la valeur du gain. Aucun constructeur ne l’inscrit dans les exif. Heureusement ce gain est mesurable par des méthodes simples (voir ‘Photon Transfert Curve’). Il existe un site web bien utile ou les gain d’une multitude d’appareils photo sont référencés ici ainsi que beaucoup d’autre caractéristiques des détecteurs. Je n’ai bien sur pas tout vérifier mais sur les quelques détecteur que j’ai pu caractériser je retrouve bien les mêmes valeurs du site.

L’ISO de base correspond au gain pour lequel la mémoire (les 14 bits dans l’exemple ci-dessus) vont saturer en meme temps que la capacité en électron du pixel. C’est à dire que si le pixel est remplit en électron à 16% de sa capacité, à iso de base, cela va correspondre à environs 16% de la mémoire autorisée par les 14 digits. Dans le cas d’un 14 bits: 16% de 16383 = 2621 ADU.

Pour un Nikon D750 par example le gain à iso 100 (constructeur) est de ~5 e-/ADU (voir D750 gain chart) c’est à dire que pour un niveau de gris mesuré à 16% = 2621 ADU ceci correspond à 2621 * 5 = 13105 e- c’est à dire 13105 photons captés pendant l’exposition. À 100% de niveaux de gris , la valeur max de 16383 ADU correspond à 163835 = 81915 e-, ce qui correspond a la capacité maximale du pixel (le full well, voir D750 charac ). Au dessus le pixel sature, la mémoire aussi. Lorsque on augmente l’iso on va changer le facteur de conversion (le gain). A iso 400 par example, toujours pour le D750 on sera à ~1.25 e-/ADU. C’est à dire que pour obtenir le meme niveau de gris (16%) on aura besoin de 2621 1.25 = 3276 e-. Quatre fois moins de photons/électrons que pour iso 100.

Schématiquement, pour une expo constante sur le D750 (iso de base 100) et un iso variable:

iso 100
    Pixel. (Nombre de photons captés convertis en e-)
        [====_________________] 16%  13100 e-  
     RAW (ADU)
        [====_________________] 16%  2621 ADU 
iso 200
    Pixel
        [====_________________] 16%  13100 e-
     RAW (ADU)
        [=========____________] 32%   5242 ADU 
iso 400
    Pixel
        [====_________________] 16% 13100 e-
    RAW (ADU)
        [==============_______] 64%.  10484 ADU  (niveau de gris à 64%)
etc ...

Pour une expo variable mais un niveau de gris constant:

iso 100
    Pixel
        [===============______] 64%  13100 e-
     RAW (ADU)
        [===============______] 64%  10484 ADU 
iso 200
    Pixel
        [========_____________] 32%  6550 e-
    RAW (ADU)
        [===============______] 64%   10484 ADU 
iso 400
     Pixel
         [====_________________] 16%  3275 e-
      RAW (ADU)
         [==============_______] 64%. 10484 ADU 
etc ...

On voit bien que l’iso d’un appareil à un autre ne garanti pas la quantité de lumière capté pour un pixel il garanti seulement un certain niveau de gris (ou niveau de bleu, rouge ou vert si le pixel est derrière un filtre de couleur). Par example en prenant le D750 et le D850: le D850, à la louche, à deux fois plus de pixel que le D750 si bien que chaque pixel sont deux fois plus petits en surface (ce sont tous les deux des pleins format). Pour un même iso l’amplification appliqué sur le D850 est donc à peut près deux fois plus important que celle appliquée sur un D750, car les pixels du D850 captent deux fois moins de lumière et que le niveau de gris doit être le même. C’est bien vérifiable ici 2.3 e-/ADU pour le D850, ~5 e-/ADU pour le D750 à iso 100 constructeur (l’inverse est 0.45 ADU/e- et 0.2 ADU/e-). Par contre si on combine deux à deux les pixels du D850 en faisant la moyenne des ADU, on retrouvera une surface, une quantité de lumière et un gain à peu près similaire au D750: 4.6 e-/ADU pour les pixels combinés du D850. Autrement dit les deux détecteurs ont une sensibilité de surface à peut près semblable.

Le bruit

Je penses que toute la conception du système “appareil photo” repose sur la compréhension de d’où vient le bruit sur une image. Pas que pour les appareils photo d’ailleurs mais pour tout les systèmes de détection photonique, les telescopes, les antennes paraboliques, etc ....

Comme vous devez le savoir la notion de “bruit” est assez embigue, il y a une différence entre l’utilisation dans le langage courant et la mesure scientifique. En physique le bruit est une variation aléatoire d’un signal. Dans le language courant il peut être aussi associé a un signal parasite comme par example le bruit d’une voiture ou Florent Pagny à la radio. Lorsque on perçoit a l’œil du “bruit” sur une photo on perçoit en fait, en langage scientifique, du rapport signal sur bruit , SNR. L’orque on dit ta photo est bruité, en langage scientifique ça se traduit par le SNR de ta photo est faible. Car le bruit en lui même ne représente rien si il n’est pas comparé au signal. Par exemple vous avez une chaîne hi-fi avec du souffle (le bruit), volume à fond. L’important est de savoir si ce souffle s’entend et si il est génant lorsque vous mettez de la musique par dessus, à un volume ‘écoutable’. Si il ne s’entend plus, le SNR est élevé, si il s’entend le SNR est faible. Pour la photo c’est la même chose. Souvent les mots bruits et SNR sont intervertis ce qui rajoute un peut de confusion. Le bruit, variation aléatoire d’un signal, se mesure en ADU, mais il est plus parlant de l’exprimer en electron via le gain de conversion décrit dans le paragraphe ci-dessus.

Sur un détecteur CMOS éclairé on peut mesurer principalement trois sources de bruits:

  • Le bruit électronique de lecture. Il a plusieurs sources, fiabilité des condensateurs, numérisation etc... Ce bruit se retrouve après l’amplification.
  • Le bruit venant du ‘dark’ appelé courant d’obscurité. Dans un pixel l’excitation thermique provoque la création spontanée d’électrons sans qu’il soit lié à de la lumière. Il y a une partie reproductible dans le dark que, comme vous le savez, on peut enlever facilement en prenant des images noires. Mais une partie est vraiment du bruit, variation aléatoire, et ne peut pas être retirée que en enlevant de l’information.
  • Le bruit de photon ou plus généralement le bruit de grenaille, ou “shot noise” en anglais. Je vous laisse googler, le web regorge de ressource la dessus. Mais en gros vous pouvez le voir de cette manière: imaginez, vous êtes un groupe d’amis sous la pluie. Vous comptez chaqu’un le nombre de goutes que vous recevez sur le front en 5 secondes. L’un va en trouver 6, l’autre 3, l’autre 8, l’autre 6 etc... pourtant vous êtes tous sous la meme pluie et vous avez tous la meme surface de front. Ces variations du au hazard de l’ordre d’arrivé des goutes est le ‘shot noise’. Pour la lumière transporté par des particules, les photon, c’est pareil ; si des pixels voisins ‘regardent’ un ciel bleu uniforme pendant 1/1000 de secondes il y aura naturellement des variations de flux d’un pixel à l’autre due au hazard: le bruit de photon. Il s’avère que se bruit de photon augmente avec la racine carré du nombre de photons. Plus il y aura de signal, plus les variations (le bruit au sens physique du terme) seront grande. Mais comme dit précédemment c’est le SNR qui compte, comme le signal augmente linéairement et le bruit avec la racine carré du signal, le SNR va augmenter avec la racine carré du signal également. En gros si je capte 16 photons en moyenne par pixel le SNR sera de 4 si on considère seulement le bruit photonique.

Il existe aussi un bruit dans les blanc du à une variation de gain de pixel à l’autre. Mais ce bruit est maintenant bien maîtrisé et en plus il peut se calibrer et s’enlever.

Il y a donc une ‘compétition’ entre les différentes sources de bruit . Savoir quelle source de bruit domine va dépendre des conditions d’utilisation et de la quantité de lumière. Il y a cependant un bruit que nous pouvons éliminer dans des conditions ‘normale’ (hors longue pose) d’utilisation: c’est le bruit du dark. Comme le dark est du a de l’excitation thermique spontanée il varie avec le temps d’exposition et la température du détecteur. Pour des températures ambiente de ~20 degrée et un détecteur moderne, le dark, exprimé en électrons, et d’environ de 0.1 à 0.5 e- par seconde. Le bruit associé à ce dark est également la racine carrée c’est à dire 0.3 0.7 e-/second, il est inférieur a l’électron. Pour des temps de pose inférieur à la seconde ce bruit est complètement négligeable meme si le détecteur est ‘chaud’. Il faut le prendre en compte sur des temps de pose plus long. Plus d’info sur le ‘dark current’ : themal noise

Le bruit de lecture d’un CMOS moderne est incroyablement petit est se mesure facilement en prenant des images dans le noir à tres court temps d’exposition (e.g. 1/4000’’). Par example sur mon Fuji X-Pro2 à ISO 800 il est de ~1.4 électrons ! Comparé au bruit de photon c’est ridiculement petit. Par example pour 4 photons capté (4 électrons, c’est tres peu) le bruit de photon est de 2 e-, il domine déjà le bruit électronique du détecteur.

Prenons un example précis, encore avec le D750 à ISO 6400, dont voici les caractéristiques :

Si on considère un niveau de gris à 18% par example, comme c’est un 14 bits et que le gain est de 0.078 e-/ADU ceci correspond à : \(0.18 * 2^{14} * 0.078 = 230 e-\)

Le bruit de photon est la racine du nombre de photon c’est a dire \(\sqrt{230} = 15.17e-\) à comparer avec le bruit de lecture de 2.3e-. Tout ceci pour dire que meme sur un gris à 18%, iso 6400, le bruit d’un pixel est complètement dominé par le bruit de photon, le bruit électronique du détecteur est quasiment invisible. C’est d’autant plus vrai que les bruits ne s’ajoute pas linéairement mais en quadrature: le carré du bruit total est égal à la somme des carrés des bruits indépendants. En prenant notre exemple, le bruit total est de \(\sqrt{\sqrt{230}^2 + 2.3^2} = 15.34 e-\) très proche du bruit de photon (15.17 e-). En faisant le raisonnement inverse on peut calculer à quel niveau de gris le bruit de photon est égal au bruit de lecture : \(2.3^2 / 0.078 = 68 ADU\) c’est à dire pour un 14 bits \(68/2^{14} = 0.4%\). Autrement dit, meme à iso 6400 le bruit électronique du détecteur sera seulement égal au bruit de photon dans les extremes noir à 0.4% de niveau de gris ! Pour des pauses longues il faudra bien sur ajouter le bruit du courant d’obscurité.

Tout ça pour dire que la notion de bruit sur une photo est intréséqument lié à la lumière, contrairement à ce que l’on peut croire au premier abord, la plus par du bruit, sur la plus part des photos, est du au bruit de photon. Hors cas particulier du genre les parties noires sur des photos d’astro longue poses. C’est vraiment important de comprendre cela pour pouvoir comprendre que le pouvoir collecteur de lumière d’un système va dominé ses performances. Même avec un détecteur parfait, sans aucun bruit, vos photos auront du grain ; grain qui devient visible à l’œil qu’à partir d’un certain seuil.

Voici un example ci dessous de mesure de bruit et SNR sur mon xpro-2. Bruit et SNR sont calculés sur une petite région centrale du détecteurs, 100x100 pixels éclairés uniformément. Ici seul les pixels verts sont pris en compte. Si il n’existait pas de bruit tout les pixels devrait avoir la meme valeur (le même signal). Mais on voit bien que ça n’est pas le cas, il y a une dispersion des mesures et cette dispersion de l’histogram c’est le bruit. La mesure est faite ci-dessous avec le même gain (le même iso, 800) mais pour plusieurs expo (variées avec le temps d’exposition). On voit que le bruit (la dispersion de l’histogramme donc) augmente lorsque le signal augmente, c’est due au bruit de photon. Si le bruit ne venait pas du bruit de photon on verrait une dispersion constante, un bruit constant et le SNR augmenterait linéairement (avec le signal). Ici on voit bien l’augmentation du SNR avec la raciné carré du signal à cause du bruit de photon ; car encore une fois le signal augmente linéairement et le bruit avec la racine carrée du signal. Le SNR est exprimé ici en décibel car ça correspond plus a la réponse de l’œil humain sur la capacité a percevoir le bruit.

Figure 1: histogramme de ~5000 pixels éclairés uniformément pour différent temps d'exposition. Le SNR pour chaque histogramme est tracé à droite

Pour voir les memes figures mais avec différent iso c’est ici

Note: ici je n’ai pas parlé de couleurs mais bien sur le bruit final va aussi dépendre de la ‘température’ de la lumière de la scène. Si la lumière qui éclaire un mur blanc est rouge par example, les pixels bleus vont recevoir moins de photons et auront donc un SNR plus bas.

Amplification et la fameuse “monté en iso”

Il y a une corrélation indéniable entre l’iso est la qualité d’image (au sens du SNR). Cette correlation est la seule chose nécessaire à connaître pour un photographe. Par contre si il y a corrélation il n’y a pas de lien de causalité. Souvent les descriptions sur l’iso devraient s’arrêter au simple constat de cette corrélation. Mais pourtant J’ai lu des multitudes de fois des explications voulant montrer que le bruit sur une image (faible SNR) à haut iso est une due au processus d’amplification, ce serait l’électronique de l’amplification qui provoquerait le bruit .... c’est tout simplement faut. L’amplification n’engendre pas de ‘bruit”, elle permet juste de rendre la photo plus ‘brillante’, de convertir la même quantité d’électrons en plus d’ADU (unité raw). Si les photos à haut iso ont un faible SNR (grain sur l’image) c’est parce qu’elles sont prise avec peu de lumière, et qui dit peu de lumière dit faible SNR comme nous l’avons vu juste au dessus.

Pour illustrer cela voici des mesures, toujours prisent avec le x-pro2, mais cette foi l’expo est constante et l’iso varie. On voit que la le signal en ADU augmente (le centre des histogrammes) avec l’iso et que le bruit (la dispersion des histogrammes) augmente lorsque avec l’iso également. Mais signal et bruit subissent la même amplification. Lorsque l’on passe de iso 400 a 800 par example, on double le signal (en ADU) et on double le bruit (en ADU) le rapport signal sur bruit reste lui le même. Le faible SNR vient de la faible quantité de lumière capté en entrée et l’amplification n’y change rien.

Figure 2: Histogramme de ~5000 pixels éclairés uniformément. L'exposition ne change pas, l'iso change Pour voir les meme figures mais avec des expo différentes c’est ici

Finalement on peut aussi s’amuser a une chose : au lieu de faire varier l’expo ou l’iso indépendamment on peut faire varier les deux pour avoir un niveau de gris constant. C’est plus représentatif de l’utilisation de l’iso. Voici cette figure pour un gris à environ 16% :

Figure 3: Histogramme des même pixels. Cette foi l'exposition et l'iso change pour garder le même niveau de gris

On voit bien sur les vignettes la dégradation de l’image, l’apparition des grains (= baisse du SNR). Souvent les gens l’associe à la monté de l’amplification alors quel est du a la baisse de la lumière. À noter que la courbe de SNR est similaire au cas ou on ne touche pas l’iso mais augmente l’expo (plus haut), sauf que ici le niveau de gris est constant. Cette courbe de SNR en décibel montre bien aussi pourquoi nous somme plus sensible à la différence de bruit entre iso 1600 et 3200 (la pente est raide) que entre 200 et 400 (la pente est douce) pour le x-pro2.

Cette figure est souvent représenté avec l’iso augmentent en incrément de stop, comme ceci :

Figure 4: iddentique à la figure 3 mais en base de deux (en stop)

Vous pouvez trouver ces figures pour différent niveaux de gris ici et ici.

Le terme “bonne monté en iso”, même si il est compréhensible au niveau pratique, est trompeur sur le fonctionnement d’un détecteur. On devrait dire plutôt “ce détecteur est sensible”. Le fait qu’il y est plus ou moins de bruit à haut iso ne reflète pas la ‘qualité’ de la monté en iso mais la sensibilité de la surface.

Pixel ou pixels ?

Une chose manque au tableau. Jusqu’ici je n’ai parlé que du SNR mesuré sur un pixel, appelé aussi photosite. Mais en photographie le photosite seul ne représente rien en lui même, c’est une donnée qui sera ensuite traité et combinée avec d’autre pour former une photo. Rien ne dit que un pixel de la caméra va créer un point d’impression ou pixel de l’image finale visualisée a une certaine taille à une certaine distance il est souvent composé de plusieurs.

Lorsque on imprime une photo, sauf cas exceptionnel, plusieurs photosite sont combinés entre eux pour former un ‘point d’impression’. Le SNR qui compte au final c’est celui visible sur la photo finale abrochée au mur ou montrées sur une page web, pas celui du pixel du détecteur. On peut faire l’exercice de comparer le SNR d’une même photo (même taille, même dpi, visionnée à la même distance) prise avec des appareils photos de même format mais des nombre de pixels différents. Si les deux appareils on un nombres de pixels différents forcément les mêmes points d’impressions de la photo finale seront constitués d’un nombre différents de photosite.

Prenons un exemple concret, vous prenez une image avec un détecteur A/ de 12Mpx et la même photo avec un détecteur B/ de 48Mpx (4 fois plus). Les deux détecteurs ont la même dimension. Vous imprimez les deux photos de manière identique, même dimension, même dpi. Par exemple une photo de 34cm x 25.5cm a 300 dpi. Si vous faite les calcul chaque pixel du détecteur A/ compose un point d’impression de la photo et quatre pixels du détecteur B/ compose un même point d’impression. D’où la question, quel est le SNR de 4 petits pixels combinés comparé à un gros de la taille des 4 ? La réponse courte c’est qu’il est quasiment le même.

En prenant le cas le plus courant ou le SNR est dominé par le bruit de photon (dés qu’il y a un peu de lumière en fait, voir plus haut). Nous somme d’accord que la surface d’un pixel du détecteur A/ est quatre fois plus grande que la surface du détecteur B/, donc le pixel de A/ capte 4 fois plus de lumière que le détecteur B/ donc sont SNR et racine carrée de 4 = 2 fois meilleure que les pixels de B/. Mais si on combine les 4 petits pixels on moyenne leur signal (la lumière) et leur bruit (en quadrature) si bien que le SNR des quatre combinés est 2 fois supérieur à un seul est est donc égal au SNR d’un gros pixel du détecteur A/. Autrement dit la taille des photosites influence seulement le SNR du photosite mais n’influence que très peu le SNR d’une photo d’une certaine taille.

Cependant il faut noter que la surface collectrice de 4 petits pixels n’est pas exactement égale à un gros, car de l’espace interpixel est perdue, également les pré-ampli prennent une certaine place sur le pixel. Mais ces espaces mort sont maintenant minimisés grace notamment aux micro lentilles placés devant les pixels qui concentrent la lumière dans le pixel et grâce à la technologie BSI (Back Side Illuminated, les micro-ampli se retrouvent de l’autre coté de la surface exposée). De plus les petits pixels ont souvent une efficacité quantique meilleure ce qui compense ces espaces morts. Historiquement, il était difficile au début des CMOS et CCD de mètres beaucoup de petits pixels car l’espace inter pixel était beaucoup plus important (le “fill factor” était moins bon). Mais ça n’est plus le cas maintenant c’est pourquoi nous avons maintenant des D850 de 48Mpx avec les mêmes performances que un D5 de 21Mpx. Bien sur, comme souvent en physique, ceci n’est pas valable à tout les facteurs d’échelles. Si on considère 1 gros pixel à la place de 32 par examples, le gros aura un avantage considérable de surface active (à cause des espaces mort inter-pixel) et aussi le bruit de lecture des 32 pixels va se cumuler et devient moins négligeable. Mais il n’y a pas de facteurs aussi important sur le marché, pour le même format. Le plus gros écart et vers 4 (12 vs 48Mpx).

Pour illustrer ceci voici les mesures des “low light capability” faites par DxO. C’est en fait L’ISO pour lequel le “bruit” devient gênant, pour une taille d’impression donnée. Même si le terme gênant est très subjectif, ces mesures ont le mérites d’être cohérentes entre elles. Ci-dessous tracé le score DxO en fonction de la surface des pixels pour différents formats.

Figure 5: 'low light score' de DxO en fonction de la date de sortie pour différents format de détecteurs

On peut voir sur la figure que pour un format donné (FF par example), les performances sont légèrement dispersés mais il n’y a pas de corrélations avec la taille des pixels. Les données sont limités à celles mesurées sur des appareils sorties après 2014, pour limiter les effets d’évolution technologique qui favoriserait les petits pixels (car il n’existaient pas avant).

Encore un petit bémol. La démonstration faite ci-dessus et les mesures DxO concernent les cas ou il y a (un peu) de lumière. La plus part des cas photographiques. Mais si on s’intéresse aux noirs (sans lumière) la situation est différente car le bruit n’est plus dominé par le bruit de photon (il y en a pas ou pas assez) mais par le bruit du détecteur. Dans ce cas la combinaison des pixels va augmenter le bruit du pixel virtuel combiné sans augmenté le signal suffisamment (puisqu’il n’y en a pas ou peu). C’est pourquoi en astro par example les gros pixels ont un avantage. Pour l’astrophysique par example, certaines observations sont tellement aux extrêmes de la dét édition qu’il sera préférable de concentrer la lumière sur le minimum de pixel possible plutôt que sur plusieurs petits. Puisque dans ce cas la le bruit du détecteur domine le bruit de photon. En photo ça n’a en général par d’importance puisque le bruit de photon domine.

L’évolution technologique

Si vous avez suivit jusque la vous êtes en droit de vous demander pourquoi, si le bruit vient essentiellement de la lumière, les détecteurs deviennent de plus en plus meilleurs au fils des ans. Certe, le bruit des détecteurs c’est amélioré au fil des années et joue un rôle dans les conditions les plus extrême de basse lumière (dans les noirs). Mais surtout, la différence vient de l’efficacité grandissante des détecteurs à capter la lumière. Plus l’efficacité est grande, plus le détecteur captera de photon pour une exposition donnée, plus le SNR sera bon. Les efficacités quantiques ont augmenté, le taux de remplissage (proportion de la surface active ou ‘fill factor’) à également augmenté. Autrement dit une photo à iso 6400 prise avec un vieux détecteur d’une quinzaine d’années était constitué de moins de photon que un détecteur moderne (le gain par unité de surface était donc plus important pour avoir le même niveau de gris pour le même iso).

Toujours avec les scores de DxO on peut regarder l’évolution de cette efficacité. Ci dessous le low-light score de DxO en fonction de la date de sortie de l’appareil pour différent format.

Figure 6: 'low light score' de DxO en fonction de la taille (surface) des pixels

On peut voir que cette évolution est assez similaire pour les différents format avec un pente plus abrupte pour les petits détecteur qui populeux les téléphones portable et petits appareils.

Et donc la taille du détecteur ?

Si vous avez suivit jusqu’ici il devrait être facile de trouver la réponse. Encore une fois les performances dépendent de la quantité de lumière que le système peut absorber.

Dans la suite je considère que vous éclairez deux détecteurs un petit et un gros avec la même densité de lumière (la même quantité de photon par \(mm^2\)). Comme le bruit vient essentiellement du bruit de photon, le SNR par unité de surface, le SNR par \(mm^2\), ne changera pas entre les deux détecteur (ou que marginalement suivant les fluctuations tehcnologiques). Donc on pourrait résonner comme cela : avec un détecteur 4 fois plus petit (en surface), par example, on peut imprimer une photo 4 fois plus petite qu’avec un gros détecteur, les deux photos auront le même SNR. Le gros détecteur servirait à juste imprimer plus gros une même photo ou le gros détecteur servirait a mètre plus de ‘chose’ sur une photo. Ou autrement dit le petit détecteur, derrière un même objectif, est capable de prendre le quart de la photo accroché au mur prise avec le gros détecteur sans dégradation de qualité. Cette façon de penser, qui est à l’origine du mot “crop” peut être utile dans certain cas ; les cas ou on possède un objectif et on veut trouver le détecteur le plus adapté à la situation. Par example j’ai un objectif de 200mm f/2.8 pour prendre la lune en photo. Avec un appareil à gros détecteur je vais gaspiller plus de surface, le noir autour de la lune, inutile. Il fort possible que le plus petit détecteur rende une photo “meilleure” car il y aura plus de résolution (plus de pixel) sur le sujet, la lune. Pareil pour un animal au loin dont on ne pourrait pas s’approcher. Dans l’autre sens pour un agent immobilier ayant un 16mm il vaudrait mieux pour lui choisir le plein format, son but est de mètre le plus de chose dans le cadre.

On peut imaginer plein de cas identiques mais la question la plus intéressante pour beaucoup est de savoir comment se comparent les performances entre un petit est un gros détecteur pour une même photo finale, une photo de même taille. Nous avons tout les éléments pour y répondre. Nous avons vu que on peut s’affranchir au premier ordre de la taille des pixels dans cette comparaison car elle n’influe pas, ou peu, la sensibilité de surface (et donc le SNR par unité de surface). En prenant un example concret entre un plein format (FF) et un APS-C, il y à un facteur x1.5 sur les dimensions. En considérant une photo de, par exemple, 36cm x 24cm imprimée à 300 dpi (qu’importe) faite soit avec le FF soit avec le APS-C. Chaque point d’impression, que j’appellerais plus généralement élément de la photo (valable aussi pour une photo visionnée sur l’écran bien sur), correspondent à une certaine surface sur le détecteur. Entre le plein format (36mm) et la photo (36cm) il y à un facteur de grandissement de 10, entre le APS-C et la photo il y a un facteur de grandissement de x15. Chaque ‘élément de l’image’ correspond à une surface \(1.5^2= 2.25\) plus grande sur le FF que sur le APS-C. La figure ci-dessous le schématise.

Figure 7: Schéma expliquant les différents facteurs de grandissement entre deux détecteur (FF et APS-C) et un même photo finale

Si les deux détecteurs sont éclairés avec la même densité de lumière cela implique que chaque élément de l’image finale est constitué de 2.25 fois plus de lumière avec le plein format. Donc le SNR de la photo prise avec le plein format sera 1.5 fois meilleure (puisqu’il augmente avec la racine du nombre de photon). Pour que chaque élément de l’image est la même quantité de lumière et donc le même SNR, il faudra augmenter la densité de lumière de 2.25 (environ un stop) sur le APS-C et bien sur diminuer l’iso (qui est une mesure par unité de surface) du même facteur pour que les deux images ont le même SNR et histogramme (niveaux de gris). En gros, toujours pour une densité de lumière constante, la rapport de SNR entre deux mêmes photos de deux détecteurs de taille différentes va être proportionnel à la racine du rapport des surfaces, et donc si les deux détecteur on le même rapport longueur/largeur (3/2, 4/3, etc...) le rapport des SNR sera égal au crop facteur. Bien sur il y a des fluctuations technologiques qui vont faire que ceci n’est pas complètement exacte, mais pour des appareils de même génération c’est un bon point de départ, le reste est du pinaillage. Si on réfléchit en terme d’iso cela équivaut à dire que, par exemple, l’iso 1600 d’un FF équivaut à l’iso ~800 sur un APS-C (rapport de surface d’un stop environ).

Ceci est bien visible dans la figure, plus haut, montrant l’évolution technologique pour différents formats à une date donnée ; les différents formats sont bien séparés en performance iso par le rapport de surface. Pour le mètre en valeur et regarder seulement les fluctuations technologiques on peut tracer la performance iso divisé par la surface de detection. Ci-dessous est tracé le ‘low light score’ de DxO en fonction de l’année pour les trois grand constructeurs (Nikon, Canon et Sony) suivit à chaque foi de la même figure montrant le score DxO divisé par la surface du détecteur.

Pour Nikon:

Pour Canon:

Pour Sony:

Pour toutes marques confondues:

Il est intéressant sur ces figures de voir que par unité de surface ceux qui s’en sorte le mieux sont les détecteurs les plus petits les 1’’ ou 1/1.7’’, mais bien sur comme ils sont plus petit ils ont des performances globale en basse lumière moins bonnes. Par contre full frame APS-C et M4/3 sont de manière générale confondues, avec des fluctuation suivant les marques et les années. Aussi il est intéressant de voir les différentes progression suivant les marques. Nikon semble avoir fait un saut technologique sur leur surface de détection de 2008 à 2010 et depuis stagne légèrement. Canon a démarré fort et c’est reposé sur ses laurier mais à réagit ver 2014. Sony en progression constante depuis 2008.

La même information peut être tracée comme suit. Dans les graphs si dessous est tracé le rapport des “low light score” moyen (pour une fenêtre de six mois calculé tout les 4 mois) entre FF et APS-C M4/3 et 1’’ au fil des années. Les lignes bleues horizontales sont les rapports des surfaces (les lignes verticales sont les bares d’erreurs).

Pour FF vs APS-C

Pour FF vs M4/3

Pour FF vs 1inch

Encore une foi, on voit que globalement le rapport des performances en iso est compatible avec le rapport des surfaces entre FF vs APS-C et FF vs M4/3, cependant il semble que les M4/3 gagne un peu de terrain depuis 2016. Je ne serais pas étonné si ce n’est qu’une variation temporelle, à voir. Les détecteur 1’’ semblent avoir une meilleure sensibilité de surface, certainement du à une meilleure efficacité quantique.

Test

Après toute cette théorie voici un test super simple faisable avec un seul détecteur et deux objectifs avec une focale différente (ou un zoom). Le but est de créer soi même des détecteurs de tailles différentes, il suffit de cropper l’image. Ici je considère toujours que on compare le même ‘produit’ final, la même photo. Je vais donc comparer une photo prise avec mon x-Pro2 et un 35mm et la même photo prise avec un 16mm mais une petite partie du détecteur (cropé), les deux photos sont ensuite re-dimensionné à la même taille (ici 1500x1000 =1.2Mpx). De cette manière on simule un crop facteur de 2, donc un rapport de surface de 4. L’avantage de ce test est qu’il ne nécessite pas de labo optique ni de logiciels spéciaux (je l’ai fait en prenant mon congélateur et en important/croppant/exportant les images sous lightroom). Il suffit juste de se mettre dans les bonnes conditions pour pouvoir “apprécier” les bruit à l’œil nue (il faut être sur la courbe montante du SNR, voir plus haut) c’est à dire en basse lumière. Sous le X-pro2 à iso 1600 dans les gris à environ 25% c’est un bon point de départ. Voici donc la comparaison des deux images volontairement sous exposé dans lesquelles l’exposition est conservée (même ouverture et même temps d’exposition, cliquez sur l'image pour agrandir):

On voit nettement la différence de qualité d’image, la différence de ‘grain’. Le SNR de l’image prise avec le ‘petit’ détecteur virtuel est moins bon pourtant les photosites sont les mêmes. Car encore une fois, la même photo a était prise avec moins de lumière. À noter que il y a une légère différence de brillance entre les deux photo (0.15ev) due à une transmittance des verres des lentilles différent mais ceci influence peut sur la différence de grains.

Si ce que j’ai écrit jusqu’à présent est vrai on devrait pouvoir obtenir la même qualité d’image avec le ‘petit’ détecteur en exposant 4 fois plus de lumière. Pour faire cela j’ai le choix d’augmenter l’ouverture (diminuer le nombre-f) ou augmenter le temps d’exposition. Ici je le fais avec le temps d’expo, dans le paragraphe suivant je le fais avec l’ouverture (pour des questions de d.o.f).

Il y a toujours la même différence de brillance du a la transmittance mais les images ont, à l’œil, la même qualité (SNR identique). Bien sur l’iso est ajusté de 2 stops pour obtenir le même niveau de gris. On comprend bien avec ce test pourquoi les FF et M4/3 ont une différence de performance iso de 2 stop environ (pour des détecteurs de même génération).

On peut aussi s’amuser à dégrader la qualité de l’image prise avec le ‘gros’ détecteur (le détecteur entier) en diminuant la quantité de lumière d’un facteur 4 également :

L’équivalence des objectifs en fonction de la taille des détecteurs

Voici le sujet brûlant. Je penses que le principal coupable sur les désaccords dans l’équivalence est l’iso. Comme on l’a vu l’iso est une mesure par unité surface, l’iso ne prend pas en compte la taille du détecteur qui comme nous l’avons vu également a une influence sur la qualité de la photo finale. Autrement dit l’iso est une référence de qualité seulement si on considère un seul format de détecteur mais pas d’un format à un autre. Comme chacun peut le constater, l’iso 800 de l’iPhone n’a rien à voir avec l’iso 800 d’un FF. Il convient donc de se demander quel est le plus important en photo, les paramètres (les exif) ou le résultat ... pour moi il n’y a pas ‘photo’ le plus important est le résultat, savoir la taille du détecteur et ou l’iso utilisé pour la photo n’a aucune importance. Je ne peux pas imaginer par exemple une gallérie d’art qui exposerait une série de photo “ISO 800”, ça serait inintéressant, un choix de profondeur de champ et de qualité pourra lui être mit en valeur.

L’équivalence entre deux objectifs sur des capteurs de tailles différentes tente de définir les caractéristiques des deux objectifs pour lesquels le rendu photographique serait identique. Il s’avère que pour la longueur focale des objectifs il y est un consensus, certainement parce que c’est le plus facile à voir : un 50mm sur un APS-C à un champ de vu équivalent* à un ~75mm sur un FF. Il y a bien cette notion de rendu identique qui apparaît ici.

Le nombre-f (l’ouverture) d’un objectif est le rapport de la focale divisé par le diamètre de sa pupille. Il est utilisé car c’est une bonne approximation de la densité de lumière sur le plan focal (le détecteur), au écart de transmittance prés. Dire que un f/2.8 sur un APS-C est équivalent à un f/2.8 sur un FF c’est dire que les détecteurs recevront la même densité de lumière (ou nombre de photon par \(cm^2\)) pour la même photo et donc c’est dire que l’iso utilisé, sera le même .... c’est quoi l’intérêt photographique ? Comme nous l’avons vu la quantité totale de lumière capté par un système est celle qui influe le plus sur le SNR, le grain sur les photos. Pour avoir une qualité d’image équivalente il faudra donc que l’objectif utilisé par le APS-C laisse passer plus de lumière (2.25 fois plus, environ un stop) pour compenser la différence de surface. À première approximation, pour les mêmes conditions photographiques un f/2 sur un APS-C aura le même grain (=SNR) que un f/2.8 sur un FF de même génération. La qualité sera équivalente, ce qui représente à mes yeux bien plus d’intérêts que des mêmes chiffres dans les exif d’un fichier (iso, ouverture, etc...).

On a oublié quelque chose dans l’équivalence de rendu, la profondeur de champs. Je ne vais pas développer plus sur ce sujet mais il s’avère, miracle de l’optique, que l’équivalence du nombre-f sur la profondeur de champ et champ de vu est compatible avec l’équivalence sur la qualité d’image (au sens du grain). En décortiquant, si on veut comparer la capacité de des appareils à prendre la même photo on peut définir quels sont les paramètres qui font la photo, en tout cas les paramètres basiques que on peut maîtriser à l’achat d’un système (ouverture, focale, taille de détecteur). Je laisse de coté, le rendu des couleurs, la dynamique, la portabilités, la résolution etc ... Donc une photo c’est :

  • Une certaine perspective (lignes de fuites)
  • Un cadrage (champ de vue)
  • Une profondeur de champs
  • Une qualité d’image (le grain, le bruit visible)

Pour conserver ces éléments si on utilise des appareils avec un détecteur de taille différent (prenons FF vs APS-C comme exemple):

  • La perspective. C’est facile elle ne dépend ni de la focale, ni du détecteur, ni de l’ouverture. Elle dépend de la position d’ou on est pour prendre la photo. Par exemple pour un portrait les 3 mètres sont conseillés pour conserver un visage bien proportionné.
  • Le cadrage. Puisque le point précédent implique que la photo soit prise du même endroit il reste qu’une solution. Changer la focale de l’objectif par le fameux crop-facteur pour avoir le même champ de vue et donc le même cadrage à une distance donnée. 300mm vs 200mm par exemple.
  • La profondeur de champ. Puisque la focale et la distance au sujet sont fixés par les deux points précédents il ne reste plus que un paramètre sur lequel on peut jouer pour ajuster la profondeur de champ : l’ouverture. À distance du sujet égal un 200mm f/3 aura un profondeur de champ plus large que un 300mm f/3, il faudra passer à ~200mm f/2 pour avoir la même profondeur de champ que un 300mm f/3.
  • Le bruit. On a usé tout les paramètres possibles et comme on veut que les images est le même histogramme il faudra obligatoirement que les iso soient différents pour compenser la différence d’expo. Et miracle de l’optique et de la physique un 200mm f/2 sur un APS-C résultera a la même qualité que un 300mm f/3 sur un FF (iso différent d’un stop) car les deux auront captés la même quantité de lumière.

Pour illustrer cela, c’est aussi très simple, il suffit de faire le même exercice que précédemment mais cette foi en changeant l’ouverture au lieu du temps d’expo qui potentiellement pour des choix artistique de représentation de mouvement doit être le même.

Voici toujours avec le xpro-2 + 35mm plein détecteur et le xpro-2 + 16mm cropé quatre images prisent avec le même temps d’exposition à la même distance. Le crop facteur est donc toujours de 2. Le focus est fait sur la partition, un plan intermédiaire pour accentuer la différence de profondeur de champ au premier et deuxième plan.

A) 35mm f/3.2 iso 1600

B) 16mm f/1.6 iso 400

C) 35mm f/6.4 iso 6400

D) 16mm f/3.2 iso 1600

Qu’elles sont les photos les plus équivalentes ? Celles qui conservent ouverture et iso A) et D) ? Ou celles qui conservent la quantité de lumière en appliquant le crop facteur sur l’ouverture A) et B) puis C) et D) ?

Bien sur tout ceci n'est pas pour montrer que un FF est forcément meilleur. Beaucoup d'autres facteurs entre en compte dans le choix d'un système. J'ai moi aussi vendu tout mon matériel Nikon FF pour un Fuji Xpro-2 et quelques objectifs fixe. La différence est que d'un stop et la portabilité devenait plus importante pour moi, en plus de 'l'expérience' que le fuji procure.

À quoi ça sert l’équivalence ?

Pour moi il y a très peu ou pas de conditions de prise de photo ou l’équivalence sera utile. En général les photographes connaissent les rendus et limites de leur(s) système(s) en fonction des conditions et paramètres de réglages. Nul besoin de trouver l’équivalence avec un autre format (habituellement le FF) pour prendre une photo de bonne qualité. Surtout lorsque on constate que la qualité artistique et narrative dominera toujours toutes les autres formes de qualité plastique (bruit etc...).

L’équivalence à pour moi une seule bonne raisons d’être, c’est lorsque on compare un système et son prix avec un autre, pour comparer de façon brouillonne les rapports qualité / prix avant de rentrer plus en détail dans les autres spécifications des appareils. Par exemple mon 56mm f/1.2 monté sur mon X-pro2 (APS-C), utilisé à ses pleines capacités, aura le même pouvoir à créé ‘la photo’ que un 85mm f/1.8 monté sur un Nikon D750 (FF) utilisé à ses pleines capacités. Le 56mm f/1.2 su APS-C sera équivalent à un 85mm f/1.8 sur FF pour faire court et pas un 85mm f/1.2 qui sera beaucoup plus cher.

Chacun est libre d’utiliser l’équivalence si ça lui sert bien sur. Mais appliquer l’équivalence sur la focale mais pas l’ouverture est pour moi une arnaque industrielle, ils prennent le meilleur des deux mondes pour embellir leur produit. Beaucoup d’industriel le font, sony par exemple vendent le RX10 IV en disant que c’est un 24-600 mm f/2.0-4 !!!! Vous avez déjà vu la taille d’un 600mm f/4 ? comment peut on prétendre que le sony à 1700$ puisse se comparer au pouvoir collecteur d’un 600mm f/4 sur un FF qui vaut à lui seul ~12000$ ! Oui les deux vont afficher le même iso à 600mm f/4 pour une même scène, il n’empêche que les photos qui en résultent n’auront rien à voir, l’un captera 7.3 fois plus de lumière que l’autre en un seul shot. Le sonny est un 8.8 - 220mm f/2.8 -4 si on veut le comparer à un objectif monté sur un FF ça sera un 24-600mm f/7.5-10.8 (crop facteur de 2.7) ce qui est beaucoup moins attractif du point de vu marketing.

Les raisonnements trolls

Pour avoir suffisamment lu des discussions et article je peux faire une petite liste de phrase ou de raisonnement qui fausse la réflexion sur le problème :

  • ”un 56mm f/2 n’est pas équivalent à un 85mm f/3, l’ouverture est une caractéristique de l’objectif elle ne change pas avec le détecteur”. En effet, une chose de vrai, l’ouverture est une caractéristique de l’objectif. Mais c’est une vérité qui n’a rien à voir avec le problème. L’équivalence ne dit pas “l’ouverture va changer si tu mets l’objectif devant un capteur plus gros” elle dit juste “ce sont les caractéristiques qu’aurait un autre objectif pour prendre une photo de même rendu (champ de vu, SNR, d.o.f) avec un détecteur plus gros et dans les mêmes conditions”. D’ailleurs on l’emploi très bien dans le langage courant: “un œuf est l’équivalent en protéine d’un steak” personne ne va dire c’est faut un œuf reste un œuf ! Ou “un euro est équivalent à 1.23 dollars américains” pourtant l’euro reste l’euro, etc.
  • ”Un APS-C ne capte pas plus de lumière qu’un FF. Si on coupe une feuille blanche en deux elle reste blanche” Le truc de la feuille blanche montre qu’une seule chose: on peut découper une photo en deux et les deux moitiés restent bien exposées ! Mais ça n’a rien à voir avec l’équivalence. Prenez une photo d’un couple d’ami, coupez la en deux, gardez la moitié, madame sera toujours bien exposée, mais seule cette foi, les photos ne sont pas équivalentes. La quantité de lumière est fatalement deux fois moins importante puisque on a enlevé la moitié de la surface. Dans ce cas la moitié de la lumière servait à inclure monsieur sur la photo. Si on prend la même photo projeté sur une feuille A4 avec une certaine densité et une autre sur une feuille A3 avec la même densité, obligatoirement la feuille A3 aura capté deux fois plus de lumière, elle est deux fois plus grande. Cette lumière en plus peut 1/ soit servir à augmenter la résolution, c’est à dire diminuer la taille élémentaire des ‘éléments d’images’ 2/ soit augmenter le SNR de chaque ‘élément d’images’ car constitué de deux fois plus de lumière.
  • ”l’équivalence sur l’ouverture c’est n’importe quoi: un flash mètre ne te demandera pas la taille de ton détecteur.“ Il n’y a aucune raison de se servir de l’équivalence pour utiliser un flash mètre, l’équivalence est une comparaison entre de deux systèmes. Si on utilise un flash mètre on utilise les propriétés en ouverture de son objectif pas ceux de l’objectif virtuellement équivalent. D’ailleurs un flash mètre ne garanti pas une certaine qualité d’image (SNR), il garanti juste une bonne expo pour un iso donné (ou l’inverse).
  • ”en photo en s’en fou de la quantité totale de lumière, ce qui compte c’est l’expo, le nombre de photons par cm2 sur le détecteur”** Si vous avez tout lu vous savez a quel point la quantité de lumière est importante sur le rendu, sur le bruit dans un image. On ne peut pas nier que le bruit n’a pas une certaine importance, sinon les journalistes sportifs, par exemple, ne dépenseraient pas une fortune sur des 600mm qui ouvre au maximum possible. Si ils font ça,ce n’est pas seulement pour l’amour du bokeh mais aussi pour faire rentrer le maximum de lumière et minimiser le bruit. Sinon il prendraient un bridge avec un zoom de bonne qualité optique.