Un des élément essentiel à la création d'une photo est la profondeur de champ. Il existe une multitude d'articles qui expliquent comment l'utiliser et l'optimiser en photographie. Ce n'est pas le but de cet article. Son but est de donner des explications visuelles sur la science qui mène à la notion la profondeur de champs.
Dans la suite je vais utiliser une règle d'optique qui nous dit que les principales propriétés d'un objectif photo, aussi complexe soit il, peuvent être égalées par un système simple constitué d'une lentille et d'un détecteur. Même si la qualité d'image d'un tel système sera exécrable il en reste pas moins que ses propriétés de longueur focale et ouverture sont valides et comparables à celles d'un objectif beaucoup plus complexe.
Ce système simplifier (voir figure ci-dessous), aura donc les propriétés physique suivantes:
Les deux premières propriétés \(r\) et \(n\), nous n'en parlerons plus dans cet article, la combinaison des deux constituent la longueur focale \(M\) de la lentille. C'est la distance entre la lentille et le point de convergence de rayons venant de l'infinie (des rayons parallèles). Autrement dit, dans notre système si la mise au point est faite à l'infinie, alors la distance \(l\) entre lentille et détecteur sera égale à la longueur focale \(M\).
La longueur focale divisée par le diamètre de la lentille est ce que l'on appelle le nombre-f \(f\). On l'appelle parfois ouverture même si ce terme est trompeur car il peut être confondu avec le diamètre \(D\) de la lentille. Dans la suite je parlerai aussi de pupille, dans notre cas simplifié la pupille est confondue avec l'unique lentille.
Dans les figure ci-dessous, les rayons viennent de l'infinie et le système est composé d'une lentille de focale 50mm et d'un diamètre de 25mm, c'est donc une 50mm f/2. Le détecteur au "plan focal" est de la même taille qu'un détecteur 'Full Frame' (plein format, 36x24mm). La distance entre la lentille et le détecteur est telle que les rayons convergent au même point sur la surface exposée. Comme les rayons sont parallèles (venant de 'l'infini') cette distance est égale à la longueur focale.
Les deux figures sont juste deux points de vue différents dans l'espace. Le nombre de rayons tracés est bien sur arbitraire, on pourrait en dessiner une infinité. Également seuls les rayons qui nous intéressent, ceux qui passent par la lentille, sont tracés. Il y en a une infinité d'autres émient dans toutes les directions qui ne seront jamais capté par l'appareil. Les points 'source' que j'utilise ici peuvent être considérés comme des briques élémentaires d'une image. Ce ne sont pas forcément des sources qui émettent leur propre lumière mais aussi chaque éléments d'une scène qui reflètent la lumière dont une partie est intercepté par l'appareil photo.
Si les rayons ne sont pas parallèles mais viennent d'un point (dit ponctuel) situé à 20cm de la lentille par exemple, pour pouvoir converger les rayons sur le détecteur il va falloir agrandir la distance \(l\), comme le montre la figure ci-dessous: Si jamais on laisse le détecteur à 50mm de la lentille (mise au point à l'infinie) voila ce qui se passe:De la même manière si on écarte trop le détecteur de la lentille:
Les rayons qui passent par le bord de la pupille ne convergent plus sur le détecteur mais y décrivent un cercle. Le point source ne forme plus un 'point' sur l'écran mais il forme une tache d'une certaine taille. Cette tache je l'appellerai tache de défocalisation.
Pour un système donné, mathématiquement il existe qu'une seule configuration exacte de distances source-lentille et lentille-détecteur1 qui donnera un 'point'. Mais même si on s'écarte de l'exactitude mathématique, en déplaçant légèrement la source, par exemple, la tache de défocalisation peut rester d'une taille "acceptable", c'est à dire qu'elle sera imperceptible par l'observateur de la photo (voir le chapitre ci-dessous). L'étendue du déplacement d'une source pour laquelle sa tache de défocalisation projeté sur le détecteur reste de taille "acceptable" est la profondeur de champs.
Il faut noter que même pour une source placée à la mise au point exact, le point de convergence sera toujours dimensionné. Cette tache minuscule peut être considérée comme la tache minimale que peut délivrer l'appareil. Elle sera soit dû à l'imperfection de l'optique, soit dû à un phénomène physique de la lumière: la diffraction. Quoi qu'il en soit, cette tache minimum n'influence pas la profondeur de champ mais influence la qualité globale de l'image.
Dans l'exemple ci-dessous, toujours un 50mm mais cette fois à f/8, il y a 4 points sources. Comme dit précédemment, on peut considérer ces points comme des briques élémentaires d'une image. Dans la vraie vie il y en a des millions pour constituer une photo. La mise au point (mathématiquement exacte) est faite sur le point rouge situé à 1 mètre. Les sources bleu et vert sont respectivement derrières et devant le point rouge mais restent à une distance suffisamment proche de la distance de mise point pour que la tache de défocalisation qu'ils décrivent sur le détecteur reste "acceptable". C'est à dire que ces points apparaitront nets sur la photo contemplée. Le point en couleur cyan est lui à 20cm de l'objectif, sa tache est bien plus large, il apparaitra flou sur la photo. La partie grisé représente le volume dans lequel une source apparaitra sur le détecteur (dans le champs de vue) et y apparait de façon net. La deuxième figure est un zoom sur "l'appareil photo", pour la même scène.
Comment définit on la taille de la tache de défocalisation dit acceptable pour que le point originaire, un élément de la scène, soit considéré comme net sur une photo ?
On rentre dans un domaine plus subjectif et il n'y a pas qu'une seule réponse, mais il existe des standards. La définition que j'utilise ici, majoritairement utilisée, se base sur le fait qu'une photographie est essentiellement faite pour être contemplée par des humains ! Je penses ne pas me tromper jusqu'ici.
La taille de la tache de défocalisation "acceptable" projeté sur une photo est donc dictée par la capacité de l'oeil humain à résoudre les plus petits détails d'une photo accrochée au mur, ou visualisée sur un écran, à une certaine distance. Cette taille de tache limite est le cercle de confusion.
La taille du cercle de confusion sur le détecteur va donc dépendre du grandissement de la photo, c'est à dire du rapport entre la taille de la photo et le détecteur. Car toute "taches" imagés sur le détecteur vont être agrandis aux yeux du contemplateur. Comme bien sur toutes autres structures imagées sur le détecteur. Que le détecteur soit analogique ou numérique n'y change rien.
Le schéma ci-dessous exprime la même chose:La profondeur de champ perçue dépend donc de la taille du support de la photo et de la distance à laquelle on la regarde. Les images ci-dessous sont un exemple un peu exagérer, évidant, mais qu'il est toujours bon de rappeler. La profondeur de champ perçue n'est pas la même si on regarde la grande ou la petite version. De même, estimez a l'oeil la profondeur de champ devant l'écran puis en vous reculant de 5 mètres, elle ne sera pas la même. C'est pourtant la même photo. La seule chose qui a changé est soit le facteur de grossissement (dans le cas ou on réduit la photo) soit la taille du cercle de confusion de notre oeil (lorsque on s'écarte de la photo).
Pour éviter de prendre en compte le support de la photo et ses dimensions on pourrait aussi définir la taille du cercle de confusion en se basant sur la taille des photosites du détecteur. Si le cercle est plus grand que 1 ou \(N\) pixels il devient visible par le détecteur. Cela définirait la profondeur de champs la plus courte possible, sans qu'elle soit vraiment en rapport avec le contemplateur. La profondeur de champ potentielle d'un fichier qui dort dans un ordinateur. La profondeur de champ dépendrait aussi dans ce cas la de la taille des pixels du détecteur.
Je penses que ce n'est pas une définition très utile en photographie. Pour la simple raison que lorsque nous regardons une photo, nous ne voyons pas les pixels du détecteurs. Sinon le photographe à mal fait son travail ou vous êtes trop prés pour apprécier la photo dans son ensemble. Que ça soit par ordinateur, par processus d'impression ou par l'oeil, ce que l'on observe sur une photo est toujours une combinaison de pixels (photosites). De plus les échelles de profondeur de champ inscrites sur certain objectifs ne prennent pas en compte la taille des pixels, bien sur.
Vous allez me dire que cette échelle de profondeur de champ sur les objectif ne prend pas non plus en compte la taille d'impression. Correct. Il y a donc des limites naturelles que l'on peut utiliser: celles de l'oeil humain. La distance minimale de mise au point de l'oeil va varier d'un oeil à un autre ainsi qu'avec l'âge de son propriétaire. Mais pour un adulte elle est en moyenne de 25cm. Il est donc inutile de considérer une distance d'observation d'une photo à moins de 25cm, car l'oeil ne pourra pas faire la mise au point sur l'image. Prenons donc une photo vue à 25cm. La vision humaine a un certain champ de vue (ou angle de vue). Cet angle de vue est considéré comme confortable à \(60^o\). À 25cm de distance \(60^o\) correspond à peu près à 25cm de largeur.
Donc nous voici avec deux éléments importants pour résoudre le problème:
Il nous reste un élément à déterminer c'est l'acuité, ou pouvoir de résolution, de l'oeil humain. Il existe plusieurs valeurs dans la littérature, l'une est de considérer que si le diamètre du cercle de confusion projeté sur la photo n'est pas supérieur à 1/4 de millimètres (0.25mm = 0.01 pouce) il est négligeable (acceptable). En réalité quelqu'un qui a une vision parfaite peut résoudre jusqu'à un tiers de cette valeur (~0.08mm ou 0.0033 pouce). Mais ça ne veut pas dire que le cercle de confusion devient forcément plus gênant pour ces gens la. Un autre standard est de considérer que l'oeil peut seulement distinguer 5 paires de lignes par millimètre à une distance de 25cm. Ceci donne une équivalence de cercle de confusion projeté sur la photo de 0.2mm.
Mais qu'importe la valeur choisie, l'intérêt est ici de comprendre le principe. Dans la suite je considère une impression de 25cm de coté et un c.d.c. acceptable de 0.2mm c'est à dire \(0.2/250 = 1/1250\) de la largeur (d'autre standards utilisent 1/1500 de la diagonale). Le cercle de confusion projeté sur le détecteur, la tache de défocalisation acceptable, sera donc 1/1250 de la largeur du détecteur.
Bien sur cette règle n'est pas valable seulement pour une image de 25cm vue à 25cm de distance. Lorsque on agrandit une photo c'est en général pour la voir de plus loin. Une simple règle de trois, nous montre que ceci marche aussi pour une photo de 50cm de largeur vue à 50cm de distance par exemple, etc...
Il y a des situations (par exemple une grande photo destinée à être vu de près dans un musé), où il faudra casser cette règle. Mais dans la plus par des cas on ne connait pas la taille d'impression à la prise de vue et le standard ci-dessus est un bon point de départ2.
Dans notre standard, la formule mathématique qui donne le diamètre de la tache de défocalisation acceptable sur le détecteur est donc: \(d_{coc} = 0.2 * \frac{l_{det}}{250} = \frac{l_{det}}{1250}\) avec \(l_{det}\) la taille du détecteur sur sa grande largeur.
(Plus d'info sur le cercle de confusion acceptable sur wikipedia )
Maintenant que l'on a fait de longues présentations on peut analyser quels sont les paramètres d'un système photographique qui font varier la tache de défocalisation sur le détecteur. Faisons les varier un par un.
La distance du sujet ou la distance de mise au point influe sur la taille de la tache de défocalisation de points fixes dans l'espace. Dans le gif animé ci dessous la distance du sujet (rayons rouges) change, l'appareil photo fait la mise au point sur la source 'rouge' (la distance lentille détecteur est ajusté). Les rayons verts viennent d'une source située loin derrière dans le fond. Seulement 3 rayons par sources bien choisi sont tracés pour des questions de visibilité.
(Cliquez sur le gif pour ouvrir une galerie et voir les clichés un par un)
On voit sur cette animation que plus le sujet est proche, plus la tache de la source du fond grandira, c'est à dire que le fond sera plus flou. Il existe une distance de mise au point pour laquelle toutes sources situées derrière décriront une tache inférieur à la tache de défocalisation acceptable, c'est l'hyperfocale.
Maintenant regardons un autre exemple, au lieu d'avoir un point fixe dans le fond on considère ci-dessous trois sources qui bougent ensemble, faisant parties du sujet photographié. La mise au point est toujours faite sur le point rouge, le point vert est situé 10 mètres derrière et le point bleu un mètre devant.
On voit que la tache du point derrière et devant augmente lorsque la distance de mise au point diminue. Les illustrations photographiques vous les connaissez.
Voici la même information mais sous forme de graphique:
Changeons maintenant l'ouverture en gardant la focale et la distance du sujet constantes, toujours avec trois points, l'un au foyer, l'un 10m derrière, l'autre 0.5m devant:
C'est un secret pour personne, la tache de défocalisation augmente lorsque on augmente la taille de la pupille (la profondeur de champ diminue). C'est à dire lorsqu'on diminue le nombre-f. Le graphique ci-dessous montre la même chose:
Regardons un premier cas où le diamètre de la pupille ne change pas, c'est à dire que le nombre-f change avec la longueur focale:
Puis, lorsque on considère un nombre-f constant, c'est à dire que le diamètre de la pupille varie avec la focale.
Lorsque le nombre-f reste constant et que la focale augmente, la tache de défocalisation augmente considérablement jusqu'à même, dans cet exemple, devenir aussi gros que le détecteur. Certains d'entre vous on surement prit des photos avec un téléobjectif à longue focale à travers un grillage sans que ce dernier ne se voit sur la photo. L'explication est que la tache de défocalisation des éléments du grillage sont plus grand que le détecteurs et ne se voient donc pas. Un opticien vous dira: "il ne se voit pas sur la plan focal parce-que le grillage est proche du plan pupille".
Rien a signaler, le tache de défocalisation projeté sur le plan focal à une taille physique indépendante du détecteur.
On a vu plus haut que la profondeur de champ va dépendre du cercle de confusion projeté sur la photographie et donc de la taille limite de la tache de défocalisation. Dans les cas qui suivent je considères que on s'intéresse à la profondeur de champ de photos de taille identique, contemplées à la même distance. Ou autrement dit. C'est le seul paramètre que je ne ferai pas varier car je considère que la photo de taille x représente le but à atteindre.
Il va de soi que tout les paramètres qui changent la taille de la tache de défocalisation changent la profondeur de champs: distance de mise au point, ouverture et longueur focale de l'objectif. Faisons les varier encore un par un en s'appuyant sur des exemples.
Un premier exemple avec un objectif classique, avec une grosse ouverture, un 50mm f/1.4 qui correspond au gif animé vu précédemment.
Bien sur, plus le sujet est loin plus la profondeur de champ sera grande.
Un deuxième exemple ci-dessous pour un objectif plus fermé, toujours un 50mm mais à f/8. On voit que pour une certaine distance de mise au point, environ 11m, tout les éléments derrière, apparaitront au foyer sur la photo. C'est l'hyperfocale (dans l'exemple précédent l'hyperfocale est de 62m, en dehors du graphique).
Voici les mêmes figures que précédemment mais cette fois en fixant la distance de mise au point et en faisant varier l'ouverture (le diamètre de la pupille puisque la focale est fixe). Pour deux cas de figure classiques :
On voit sur la deuxième figure que pour des ouvertures plus petites que ~f/19 tout les points après 0.5m de la caméra vont apparaitre au foyer sur la photo. À f/32 virtuellement tout va être au foyer.
En prenant comme précédemment un premier cas ou la pupille à un diamètre constant (25mm dans cet exemple):
Puis dans le cas ou le nombre-f reste constant (la taille de la pupille varie donc avec la focale).
Comme attendu la zone de distance ou les objets apparaissent au foyer se raccourci très vite lorsque la longueur focale augmente à nombre-f constant.
Si nous gardons tout les paramètres (nombre-f, focale, distance de mise au point, taille de la photo) constant sauf un seul, la taille du détecteur, que va t'il se passer ? Lorsque on diminue que la taille du capteur, si on propose à quelqu'un les trois possibilités:
Je suis certain que la plus part des gens vont vous répondre a) ou b) alors que la vraie réponse est c).
La seule chose qui change vraiment dans ce cas précis c'est le facteur de grandissement entre le détecteur et la photo. La tache de défocalisation pour un certain point source inscrit sur le détecteur étant inchangée, lorsqu'on augmente le grandissement (diminue la taille du capteur) on augmente cette tache projetée sur la photo. Ou autrement dit la proportion de la tache de défocalisation relative à la taille du détecteur augmente.
On peut comparer ci-dessous la profondeur de champ pour un 84mm en fonction de l'ouverture, lorsque la mise au point est faite à 3m, pour un Full Frame (36x24 mm) et un APS-C (23.6x15.7 mm).
On peut aussi regarder la variation de la profondeur de champ en fonction de la largeur du détecteur (sa dimension la plus grande). Ci-dessous la voici représenté avec un graphique supplémentaire qui donne l'angle de vue de l'image (sur la dimension la plus grande). Deux exemples sont donnés pour un 50mm f/1.4 et pour un grand angle, un 24mm f/2.8.
Le fait que la profondeur de champs diminue lorsque la taille du détecteur diminue semble pourtant contre intuitif. En effet les photos prisent avec un téléphone portable par exemple ont en général une profondeur de champ plus grande que des photos prisent avec un reflex plein format.
Ceci est dû au fait que la longueur focale des objectifs utilisés ne sont pas les mêmes (environ 5mm pour un téléphone portable) afin de conserver un champ de vue équivalent à ~30mm sur un Full Frame.
Voici dans un premier temps le graphique qui montre la profondeur de champ, en fonction de l'ouverture, d'un 84mm monté sur un Full Frame et d'un 56mm monté sur un APS-C. Le champ de vue est le même et la distance de mise au point est identique.
On voit que pour une ouverture identique la profondeur de champs est plus grande sur un plus petit détecteurs lorsque on compense le champ de vue par la focale. Par contre la profondeur de champ est la même lorsque les pupilles ont la même taille, c'est à dire lorsque on divise le nombre-f d'un facteur 1.5 (le facteur entre 84mm et 56mm ou FF et APS-C).
On peut s'intéresser maintenant aux paramètres de systèmes dont le but serait de produire la même photo, d'une même scène, lorsque la taille du détecteur change. Pour cela il faut:
Voici l'animation qui montre ce changement de paramètres avec une source rouge à 0.5m de l'appareil photo, une source verte placée loin derrière. La mise au point étant faite sur la source rouge.
Ce qui est remarquable en optique c'est que les paramètres distance focale, nombre-f, et taille du détecteur sont proportionnels les un aux autres. Pour obtenir un système avec les mêmes performances, si on diminue les côtes du détecteur par 2, on diminue la focale par 2 et on diminue le nombre-f par 2. En effet on voit bien sur l'animation ci-dessus, la taille de la pupille ne change pas. Hors c'est elle qui délimite la surface collectrice de la lumière (par définition) et donc pour une même taille de pupille, pour le même champ de vue, la quantité de lumière collecté sera la même.
Un autre miracle de la physique nous montre que si la sensibilité de surface et la même (c'est vrai pour des détecteurs de même générations), en conservant la quantité de lumière totale on conserve la quantité de bruit sur la photo. Pour le comprendre voici un autre article: La lumière le bruit et les détecteurs
Si les caractéristiques de profondeur de champs, de champ de vue et de quantité de lumière collecté sont les mêmes, les systèmes avec de gros détecteurs présentent ce-pendant des avantages, que l'on peut comprendre en regardant l'animation:
En prenant du recul sur la gammes des appareils et objectifs actuels, on voit bien que lorsque les constructeurs mettent des petits détecteurs dans leur système c'est pour les rendre plus compactes au sacrifice de la profondeur de champs extrême et de la quantité de lumière (=le bruit). Contrairement à l'animation ci-dessus ils vont diminuer la taille de la pupille, pour rendre le système compacte. Ils s'accrochent sur un élément vendeur mais trompeur qui est que le nombre-f sera le même. Par exemple un 50mm f/1.4 à une pupille plus petite que un 75mm f/1.4, appairé à un APS-C il aura une profondeur de champ plus longue, une capacité de captage de lumière moindre que le 75mm f/1.4 sur un full frame.
Voici l'animation qui correspond plus à la réalité du marché, la réduction de taille est un compromis.
Bien sur tout cela n'est pas seulement de la théorie est peut facilement être vérifié avec un boitier et deux objectifs par exemple. On peut toujours créer virtuellement des détecteurs plus petits en découpant les images. Voici quatre images prisent avec un Fujifilm x-pro2. Deux sont prises avec un 35mm sur l'ensemble du détecteur, deux autres avec un 16mm et la moitié (le quart en surface) du détecteur. Le champ de vue est le même. Les profondeurs de champ (et bruits) sont proches lorsque le nombre-f est compensé d'un facteur deux: A. avec B. et C. avec D.. Pour ces deux paires le diamètre de la pupille est identique. A. et D. ont le même nombre-f mais une profondeur de champ différente car des pupilles de tailles différentes.
![]() |
![]() |
A. 35mm f/3.2 iso 1600 (détecteur entier) | B. 16mm f/1.6 iso 400 (1/4 du détecteur) |
![]() |
![]() |
C. 35mm f/6.4 iso 6400 (détecteur entier) | D. 16mm f/3.2 iso 1600 (1/4 du détecteur) |
Des questions, des remarques constructives, n'hésitez pas à les exprimer ci-dessous. Les gif animés peuvent être utilisés à votre guise, ils valent parfois plus que des mots pour alimenter des discussions.
Sur un objectif photo normal la mise au point est aussi faite en déplaçant une lentille ou un block de lentille. La distance source-lentille de notre système simplifié se traduit par une distance source-centre optique de l'objectif. La position du centre optique va dépendre de la formule optique utilisée.↩
On pourrait également considérer le support, si la photo est vue sur un mauvais écran (pas rétina) avec des pixels plus larges que 0.2mm on pourrait se baser sur la taille des pixels de l'écran, mais ça serait se compliquer la vie.↩