Accueil
Index général
Contacter le Webmaster
Note de copyright
Particularités & fonctionnement
Vous pouvez participer
Appel aux internautes
Liens
Dernières mises à jour
Le livre d'or
Qui suis-je ?
Mon matériel (chéri)
La page des débutants
Quelques cotes
Ma galerie photographique
Ma carte blanche
Le tableau d'honneur
Historique de l'appareil photographique
La grande histoire de Pentax®
Les appareils photographiques de l'Est
Quelques modes d'emploi introuvables
Un petit « cours » de photographie
L'alphabet russe
Les logos des marques
Des bricolages pour photographes
Les mauvais plans à éviter absolument
Les théories influençant la photographie
Les fiches techniques
Mise au point sur...
Les secrets d'une photographie
Les tests approfondis
Les tests improbables
Quid du M42 ?
La photo vue par la toute jeune génération
Faire ses débuts en photo argentique
Faire ses débuts en photo numérique
Analogique | Numérique - Une alternative
Manifeste pour la lenteur en photographie
Questions & tuyaux en photo numérique
Quel objectif pour reflex Pentax numérique ?
Un fantasme devenu possible ?
Les foires à la photo - Dénicher des occaz
Un petit tour au laboratoire
Un peu de labo numérique
Choisir son appareil photographique
Quel appareil pour quelle photo ?
Choisir son (ses) objectif (s)
Choisir son statif
Quels accessoires envisager ?
Utiliser / faire revivre les filtres
Vérifier son matériel
Que penser des Kiev et de ceux qui les modifient ?
Acheter un appareil soviétique ?
Qu'est-ce que j'peux faire ? J'sais pas quoi faire !
Les lois d'une nouvelle expérience photographique
De l'acte photographique
Le grand match
Prendre soin de ses appareils photographiques
Où faire réviser/réparer son appareil photo ?
Composition : erreurs fréquentes à éviter plus conseils
Techniques photographiques évoluées
Programmer sa propre évolution photographique
Retrouver l'inspiration photographique
Créer un studio « professionnel » à moindre frais
Projets d'expérimentations
Expériences de paléophotographie
Parlons matériel (pas marque !)
Mes photographes préférés
Quid de la lomographie ?
Dernière minute
Questions / Réponses
1001 trucs à connaître
Et si on essayait de comprendre les photos ?
Et si on essayait l'originalité ?
Et si on s'essayait à la macrophotographie ?
Et si on s'essayait au panoramique ?
Et si on s'essayait à la trichromie ?
Et si on s'essayait à l'autochrome ?
Et si on s'essayait au noir et blanc créatif ?
Et si on se construisait un appareil sténopé ?
Et si on s'essayait au moyen format ?
Et si on s'essayait au grand format ?
Photographier sans lumière ?
Photographier avec un smartphone/une tablette
Photographier avec un compact bas de gamme
Ces petits trucs qui changent tout
La photographie itinérante
Les styles en photographie
La petite histoire d'une photographie
Devenir meilleur photographe
Équipement logiciel de qualité à bas prix !
Que peut-on attendre des logiciels photo ?
Divagations
Peut-on protéger ses créations ?
Le coin des polémiques
Hommage à FERNAND BIGNON
Lettre ouverte aux (futurs) argentistes
Les photographes sont tous C H A R L I E



 

Dans cette partie du site (www.thydelor.eu) je placerai des notions théoriques importantes à connaitre, même si elles ne concernent pas la photographie au sens technique du terme… A lire donc !... C'est très original et très instructif...

Si vous appréciez cette page, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Pourquoi les gens ne s'aiment pas sur les photographies ? Pourquoi une photo est-elle différemment appréciée ?
Synthèse des différences de tailles de capteur en numérique Pourquoi une photo ne montre pas ce que l'œil voit ?
La psychologie au service de la création photographique Comment fonctionne la mise au point ?
Découper : oui, charcuter : non ! La couleur !...
Physiologie et mathématiques ne font pas bon ménage en photographie... Les moyens de mise au point : manuel reflex - manuel télémétrique - différents autofocus
Comment analyse-t-on une photo ? Comment fonctionne un film photo noir et blanc ?
Comment fonctionne un film photo couleur ? Comment fonctionne un capteur numérique ?

POURQUOI LES GENS NE S'AIMENT PAS SUR LES PHOTOGRAPHIES ?

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Vous avez certainement tous (et toutes) été confrontés à des « modèles » qui ne s’aiment pas quand ils se voient en photo ! Vous êtes-vous déjà posé la question de savoir pourquoi ? Coquetterie ? Excuse pour ne plus être « pris en photo » ? Nous allons voir cela !...

Avant de réellement débuter la démonstration je soulignerai un autre point important : parmi tous les gens que vous photographiez et qui n’aiment pas ça, combien de « modèles » sont des jeunes enfants ? Théoriquement : ZÉRO ! Étonnant non ?

En fait, l’explication est assez simple et elle relève d’un processus inconscient très naturel : la création mentale de l’image de soi. Phénomène psychologique basique s’il en est !...

Comme vous le savez certainement tous, les animaux « inférieurs » (je place le terme entre guillemets car de plus en plus d’animaux reconnus jusqu’à présent comme « inférieurs » réagissent comme l’homme dans le cadre de cet article) ne se reconnaissent pas dans un miroir, ils « pensent » qu’il s’agit d’un congénère voir d’un ennemi. Les animaux « supérieurs » (même remarque que ci-dessus), à l’âge adulte savent que leur image dans un miroir est bien une image d’eux-mêmes. Chez l’homme, c’est vers l’âge de 3 ans que la « conscience du soi » se développe. Voilà la première clé qui va nous permettre de démêler le problème.

Comme vous le savez certainement tous, le corps de l’homme (et des animaux aussi) et le visage en particulier n’est certainement pas symétrique ! Pendant des années des chercheurs ont essayé de prouver que la beauté était dans la symétrie et d’autres dans l’asymétrie ! Cela n’est pas le sujet ici ! D’autant qu’aucun argument n’a été réellement validé, la beauté est le résultat d’un processus psychologique bien plus complexe !... Bref, voilà la deuxième clé qui va nous permettre de démêler le problème.

Pour « fixer » les idées, prenons un visage quelconque (j’entends pris au hasard !).

  • Si nous le considérons comme l’appareil photo le « voit » (en réalité : comme tout le monde le voit s’il n’éprouve aucun sentiment –positif ou négatif– à son égard) nous obtenons la photo « 1 ».
  • Si le visage était symétrique, il ressemblerait à la photo « 2 ».
  • Si nous le considérons tel qu’il est perçu par son « propriétaire », comme il se voit dans un miroir, nous obtenons la photo « 3 ».

Bien sûr la différence entre ces 3 photos est assez difficilement perceptible (sauf sur la photo « 2 » où on peut voir la « frontière » du trucage) mais avec un peu d’attention, vous verrez qu’elle existe. Bien sûr, ce visage vous étant inconnu, les variations ne sautent pas aux yeux !...

Le sujet que vous photographiez ne se reconnait réellement que sur la photo « 3 » puisque c’est comme cela qu’il s’est vu toute sa vie. Si vous lui montrez la photo « 1 », il sait qu’il s’agit de lui, mais il ne s’y retrouve pas vraiment ! Il doit fournir un « effort » pour se convaincre qu’il s’agir bien de lui. En psychologie, la notion « d’effort » est strictement opposée à la notion de « plaisir » (le seul plaisir obtenu pour l’effort fourni est le plaisir de la réussite du but ou éventuellement de la fin de la tâche ayant nécessité l’effort). Comment, dans ces conditions, vouloir qu’une personne prenne plaisir à se voir en photo puisque vous lui imposez un « effort » inutile ?

J’ai volontairement mis de côté les personnes qui n’apprécient pas plus leur image dans le miroir qu’elles ne l’apprécient sur une photo, soit parce qu’elles n’assument pas leur image (il y a discordance entre leur aspect réel et l’image fantasmée qu’elles ont d’elles-mêmes) soit parce qu’elles souffrent de complexes.

Pourquoi les enfants n’éprouvent pas cette même gêne face à leur image en photo ? Tout simplement parce qu’il y a deux facteurs qui les différencient des adultes :

  1. Malléabilité de l’esprit infantile
  2. Notion de jeu en toutes circonstances

En résumé, « l’effort » demandé est le même pour un enfant que pour un adulte sauf que le premier prend du plaisir à le fournir, c’est un jeu pour lui de se reconnaître sous des traits « différents ». Il n’est pas opposé (bien au contraire) à se « déguiser ». L’adulte, lui, a intégré son image de soi, et il n’est pas question que des éléments extérieurs aillent à l’encontre de ce qu’il s’est fixé une fois pour toute dans l’esprit !...

Mais dans ces conditions, pourquoi certaines personnes (adultes) aiment se voir en photo ? Voilà une question à laquelle il est beaucoup plus difficile de répondre ! Il y a 3 orientations possibles et, à ce jour, aucune n’a pu prouver sa supériorité sur les deux autres !...

  1. La notion de narcissisme : Des personnes ont appris à aimer (ou à accepter) leur apparence et donc apprécient de se voir, que ce soit à « l’envers » ou à « l’endroit ».
  2. La notion « d’habitude » : Si une personne est habituée à se faire photographier régulièrement depuis son plus jeune âge, elle a réussi à intégrer les deux « facettes » de son aspect extérieur et peut apprécier son image, aussi bien sur une photo que dans un miroir.
  3. La notion de « jeu » : Certaines personnes ont conservé un goût du jeu, elles apprécient de se « grimer » et donc se voir « à l’envers » ne leur pose aucun problème.

Si vous faites de la photo numérique et que vous rencontrez ce genre de problème, vous pouvez toujours essayer de transformer la photo en photo « miroir » (via un logiciel graphique) et il y a des chances que le « modèle » accepte son image…

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


POURQUOI UNE PHOTO EST-ELLE DIFFÉREMMENT APPRÉCIÉE ?

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Vous créez une photo, vous la trouvez belle (ou non), vous la montrez et vos spectateurs la trouvent belle (même si vous la trouvez laide) ou non (même si vous la trouvez belle). Pourquoi ?

En fait il y a trois explications possibles. Et ces trois explications sont imbriquées dans la réalité. Voyons donc ces trois explications séparément (puisqu’il est impossible d’envisager les différents degrés d’imbrication chez des personnes différentes).

  1. La notion de « beauté » : La notion de beauté est une notion très suggestive ! Elle ne peut nullement être reconnue universellement. Ce qui est exceptionnellement beau pour une personne peut être extraordinairement laid pour une autre. Cette notion de « beauté » est le résultat d’une construction permanente tout au long de la vie et des expériences de chacun. Je ne vais pas vous en dire plus.
  2. La notion de « sentiment » : Le cerveau humain ne peut rien intégrer isolément. Systématiquement, avant de pouvoir conserver quelque chose en mémoire, il doit l’analyser et le placer dans un contexte associé à un environnement. Ainsi, par exemple, lorsque vous apprenez à parler, pour pouvoir retenir le mot « pomme » (par exemple), votre cerveau va créer une « photographie » d’une pomme qu’il va associer à l’odeur de la pomme, le goût de la pomme, mais qu’il va également associer (éventuellement) à la couleur du ciel (si on vous présente la première pomme à l’extérieur), à la température qu’il fait, à l’expression du visage (ou à l’état d’esprit/le sentiment) de la personne qui vous présente la pomme etc… Tout cela crée un faisceau d’informations indissociables. Vous voyez qu’il y a une image et tout un ensemble de sentiments associés qui vont déterminer si vous aimerez ou non les pommes (et par extension l’image de la pomme). Une fois un élément placé en mémoire, à la moindre occasion, le simple fait de faire appel à une de ces informations fait resurgir l’ensemble du faisceau. Si une de vos photos fait référence à une pomme (ou à quelque chose d’apparenté dans l’esprit de celui qui regarde la photo) et que ce spectateur a horreur des pommes (à cause d'un faisceau d'informations négatif), il n’aimera pas votre photo ! C’est aussi simple que cela. Mais j’ai peut être un peu trop schématisé. Autre exemple : votre photo montre une maman tenant tendrement un bébé dans ses bras. Cette image sera touchante et tout le monde l’aimera SAUF une personne qui aura mal vécu la période de sa vie qui correspond à l’âge du bébé sur votre photo (ou la période de sa maternité) ! Il trouvera votre image insoutenable !...
  3. La notion de « culture » : Dans la catégorie « culturelle » il va falloir créer des sous-chapitres ! En effet, de nombreux paramètres interviennent à ce niveau !. Le langage d’abord. Ou plus exactement l’écriture. En effet, le spectateur d’une image va la « lire » suivant le schéma de lecture d’une page d’écriture. Ainsi, un français regardera une image en regardant d’abord le coin supérieur gauche puis va « scanner » l’image jusqu’au coin inférieur droit. Un arabe, au contraire, verra d’abord le coin supérieur droit puis va « scanner » l’image jusqu’au coin inférieur gauche. Ceci est excessivement rapide mais cette première « lecture » va déterminer l’impression générale du spectateur sur l’image. C’est maintenant que l’image aura une chance de lui plaire ou non. Si cette première lecture lui laisse une impression « positive », le spectateur va poursuivre la « découverte » de votre photo pour voir si sa première impression se confirme ou non ! Cela ne veut pas dire que ce qu’un français va aimer un arabe ne l’aimera pas, cela veut simplement dire que votre image pourrait très bien avoir des significations très différentes pour ces deux personnes (selon votre composition) simplement parce que ces deux spectateurs n’écrivent pas (et ne lisent pas) dans le même sens… Puis viennent les éléments culturels encore plus inconscients qui tiennent à la tradition et à l’histoire de chaque peuple (puis de chaque individu) qui font que telle photo sera adorée par un et exécrée par un autre…

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


LA SYNTHÈSE DES DIFFÉRENCES DE TAILLES DE CAPTEUR NUMÉRIQUE

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Me voilà bien ennuyé... même si une règle est faite pour ne pas être respectée (vive l'Anarchie !), je me vois dans l'obligation de placer dans cette page -ne devant théoriquement pas contenir de notions techniques- la reprise, en plus théorique, d'une série d'explications que l'on retrouve un peu partout dans mon site !... Mais je ne sais vraiment pas où placer cet article ailleurs !... Jusque là, les données théoriques importantes étaient "diluées" dans un environnement le moins austère possible et je pensais que cela aiderait à la compréhension générale... Mais, devant un nombre important de courriers traduisant le "désarroi" de nombre d'entre nous sur ces notions de taille de capteur numérique et des implications de cette différence de taille, j'ai décidé de vous livrer une discussion, certes plus "ardue" (c'est un grand mot), mais plus complète au sujet de ce problème...

Le phénomène n'est pas nouveau, en argentique il existait aussi des 1/2 formats et même des formats APS !... Mais je pense qu'alors personne ne se posait de question... c'était ainsi et un point c'est tout... mais il est vrai que l'internet n'existait pas encore vraiment à cette époque et donc les problèmes "existentiels" restaient confinés en interne !... Depuis l'apparition du numérique, il n'y a plus qu'une chose qui semble intéresser les photographes amateurs : le facteur de multiplication de focale !... On appelle cela le « crop factor » en anglais ou facteur de recadrage ou facteur de grossissement qui est beaucoup plus proche de la réalité physique du phénomène. Pour les uns c'est magique... vous prenez un objectif de 100mm, vous le montez sur un APS-C Canon et, abracadabra, le voila transformé en objectif de 160mm (150mm s'il s'agissait d'un Pentax, Sony ou Nikon)... Pour les autres c'est catastrophique... il est devenu impossible de se procurer un ultra grand angle pour son APS-C... Pour les uns c'est magique... sans rien faire on augmente la profondeur de champ, pour les autres c'est catastrophique... on ne peut plus faire de beau portrait sur arrière flou... Et je ne parle pas de tous ces gens qui "hurlent à la mort" en se lamentant de la piètre qualité des images obtenues avec des capteurs plus petits que le full frame... STOP !... On va essayer de mettre tout cela "à plat" pour vraiment s'y retrouver...

Je ne vais pas me lancer dans les comparaisons de tailles de capteurs (j'en ai déjà beaucoup parlé par ailleurs) ni dans les facteurs de crop en moyen format (eh oui, il y en a aussi) qui répondent exactement aux mêmes "lois". Je ne parlerai que du petit format (24x36 ou full frame) que je comparerai au format APS-C. En lisant "APS-C" vous devrez donc comprendre "capteur plus petit que le full frame" puisque tout ce que je dirai du format APS-C sera également vrai pour des capteurs encore plus petits... où l'APS-C sera le géant, au même titre que le full frame est le géant de l'APS-C !...

Les tailles de capteur

Dans le format 35mm (argentique ou full frame numérique), l'objectif projette un cercle d’image de 43mm de diamètre. C'est à l'intérieur de ce cercle qu'on plaçait un film de 24mm de large sur une longueur variable. Mais la "découpe" du cercle de 43mm ne permettait pas d'exposer les vues sur plus de 36mm de long d'où la dénomination 24x36. Dans le monde numérique, à configuration identique, si on place un capteur numérique mesurant 24mm sur 36mm on crée un 24x36 numérique que l'on a nommé full frame.

Vu le prix de revient d'un capteur numérique (aux débuts du moins), pour avoir une chance de pouvoir vendre leur matériel, les fabricants ont décidé de fabriquer des "tout petits capteurs". Alors, le maximum viable était le format APS-C, mais des capteurs beaucoup plus petits ont été construits (et le sont encore !!!).

Et c'est cette raison économique qui a engendré les "troubles" dont je parlais en introduction de l'article !...

Regardez bien mon schéma ci-contre, c'est lui qui vous permettra de bien comprendre la suite de mes explications... je le reprendrai sous une forme différente et vous verrez que tout est très simple !...
La zone noire correspond à la chambre d'exposition du boîtier qui ne reçoit aucune lumière de l'objectif, la zone blanche la surface de l'image fournie par l'objectif, la zone rouge la surface 24x36mm (film et full frame) et la zone verte la surface APS-C (j'aurais pu en faire une encore plus petite pour les formats inférieurs à l'APS-C)

Conséquences du changement de taille : l'angle de champ

Problème de taille (c'est le moins que l'on puisse dire) : le cadrage des optiques change en proportion avec la modification de la taille du capteur. L’objectif est toujours le même, bien sûr, il projette toujours la même image dans la chambre d'exposition (cercle blanc), bien sûr, mais seule une partie du format 24x36 (zone rouge) sera conservée (zone verte). Dans le schéma ci-dessus, on voyait déjà une zone couverte par l'objectif qui n'imprimait aucune image (zone blanche), et bien, cette fois, cette zone "inutile" sera d'autant plus grande que le capteur sera plus petit. On peut dire que l'image est "rognée" (cropée... CQFD).

Que nous apporte cette démonstration dans la vraie vie ? Voyons cela par l'image :

Nous sommes ici exactement dans le même schéma que précédemment mais avec une vraie photo ! On voit que l'objectif affiche toute la tête de l'oiseau plus une partie de son thorax. Le film 24x36 ou le capteur full frame ne montre qu'une partie de cet oiseau et le capteur APS-C n'est même pas capable de montrer la totalité de la tête !... Il n'y a qu'une seule image (toujours de la même taille) mais au fur et à mesure que la taille du capteur diminue, on a l'impression qu'un zoom a été effectué... Si on s'amuse à faire des calculs, on s'aperçoit que ce "coup de zoom" (qui n'en est pas un !) correspond à un passage d'une focale F à une focale Fx1,6 pour un Canon ou à une focale Fx1,5 pour les autres marques...

L’angle de champ est donc modifié. Si on veut conserver le même cadrage en passant d'un capteur full frame à un capteur APS-C, il faut soit s’éloigner de son sujet, soit utiliser un objectif de focale plus courte (angle de champ plus large). Et le multiplicateur trouvé plus haut (x1,6 pour Canon et x1,5 pour les autres marques) est exactement la valeur du crop-factor à appliquer à la nouvelle focale... Si on veut cadrer en APS-C comme en full frame équipé d'un objectif de 50mm, il nous faudra l'équiper d'un objectif de 50/1,6=31mm (chez Canon) ou de 50/1,5=33mm (autres marques). Et inversement, si on monte notre 50mm sur un APS-C (il faut que le boîtier APS-C soit compatible et puisse accepter des optiques destinées aux full frames -c'est généralement le cas-) il fournira immédiatement, comme par magie, sans rien faire, le même cadrage qu'un objectif de 80mm (chez Canon) ou de 75mm (autres marques).

Il faut donc bien comprendre que le changement apparent de focale est dû à un recadrage, et en aucun cas à une augmentation de la distance focale !!!... Il est vrai que le langage courant qui parle de focale équivalent 24x36 (ou équivalent full frame) peut prêter à confusion !...

Bon, tout cela n'est vrai que si on utilise un objectif compatible full frame et APS-C ! En effet, si on reprend la même démonstration avec un objectif spécialement étudié pour le format APS-C (donc incompatible full frame) en le montant sur un boîtier full frame on obtiendrait le résultat schématisé ici :
La zone noire est la chambre d'exposition du boîtier qui ne reçoit aucune lumière de l'objectif, la zone blanche est l'image projetée par l'objectif, la zone verte la surface APS-C. Jusque là, tout va bien.

Par contre, si on utilise cette configuration avec un capteur full frame (zone rouge), on voit immédiatement que cela est impossible !...
VOILA À QUOI RESSEMBLERAIT UNE IMAGE FULL FRAME AVEC UN OBJECTIF SPÉCIAL APS-C :
Seule la zone rose contiendrait de l'information (la zone bordeaux représentant la surface du capteur qui ne sera pas éclairée)

Bien, pour ce qui est de la "focale" (en réalité du recadrage... vous vous souvenez !) c'est fait, j'espère que c'est clair pour vous cette fois... Passons donc aux corollaires de ce crop-factor :

Conséquences du changement de taille : le vignetage

Dans "l'inconscient collectif" (ce que tout le monde connaît à peu près sans l'avoir étudié pour autant), le passage du format full frame au format APS-C n'influence nullement ce point, c'est pourquoi il est important d'en dire un mot.

Comme je l'ai déjà répété à plusieurs endroits de ce site, avec un seul et même objectif monté indifféremment sur un boîtier full frame et APS-C, il est très fréquent que l'on observe un vignetage sur le full frame alors que l'APS-C n'en présentera jamais (!!!)... Un autre mystère ? Non, simplement de la logique !...

Reprenons le même schéma que précédemment. Vous voyez immédiatement que les bords du format 24x36 (zone rouge) sont confondus avec la limite de couverture du cercle d'image fourni par l'objectif (zone blanche). Un objectif perdant de la luminosité au fur et à mesure que l'on s'éloigne de son centre optique, on voit qu'il est évident -et quasiment incontournable- que le capteur full frame présente une sous exposition plus ou moins importante dans les coins... Et comment appelle-t-on cette sous-exposition dans les coins ? Un vignetage... bravo !... Et pourquoi ce même objectif n'affectera pas le capteur APS-C ? Tout simplement parce que les bords du capteur APS-C (zone verte) sont très éloignés de la limite du cercle d'image fourni par l'objectif !... CQFD !...

Attention : ce que je viens de dire ne sous-entends pas qu'il est impossible d'avoir un vignetage en APS-C !... Je dis simplement qu'avec un même objectif, si le full frame risque un vignetage (si c'est un excellent objectif, il n'y aura pas de vignetage non plus !), l'APS-C ne risquera rien MAIS il existe des objectifs spécialement étudiés pour l'APS-C qui fournissent donc un cercle d'image correspondant à le taille du capteur et dans ce cas, cet objectif sera inutilisable en full frame (comme démontré plus haut) mais risque de créer un vignetage sur votre capteur APS-C (mais là aussi c'est une question de qualité de l'objectif !)...

Conséquences du changement de taille : la qualité d'image / le "piqué" de l'image

Ce point n'est pas connu non plus du photographe amateur moyen ! Au même titre que la luminosité, la définition de l'objectif diminuera proportionnellement à l'éloignement du centre optique ! Cela veut dire qu'en full frame, les bords seront "mous". Si nous utilisons un objectif compatible full frame sur un APS-C, nous ne retiendrons que l'image fournie par le centre de l'objectif et donc l'image sera extrêmement bien définie sur toute la surface du capteur !... Vous pouvez reprendre la démonstration schématique du vignetage...

Conséquences du changement de taille : l'aberration chromatique périphérique

Même causes que le vignetage ou la perte de piqué dans les coins (donc même explication), le format APS-C sera moins sensible aux aberrations chromatiques périphériques que le full frame avec un même objectif.

Conséquences du changement de taille : la profondeur de champ

La profondeur de champ correspond à la zone de netteté le long de l’axe optique. Si un sujet est situé en avant ou en arrière de cette zone, il apparaîtra flou.

En théorie, il n'existe qu'un seul plan de netteté (perpendiculaire à l'axe optique) mais on retrouve une zone située de part et d'autre de ce plan dans laquelle la netteté est conservée d'où le nom de profondeur de champ. Il est important de se souvenir que la profondeur de champ ne se place pas uniformément devant et derrière le plan de netteté mais 1/3 de la profondeur de champ se situe en avant du plan de netteté et les 2/3 se trouvent en arrière du plan de netteté. La limite de la zone de netteté n’est pas franche, bien sûr, mais progressive. La netteté diminue au fur et à mesure que l'on s'éloigne du plan de netteté.

Cette zone de netteté (profondeur de champ) est fonction de la distance focale, de l’ouverture du diaphragme, de la distance du sujet, du cercle de confusion et la taille du capteur. Je ne vais pas vous donner des formules mathématiques qui n'apporteraient rien, je me contenterai de définir le "cercle de confusion" qui est un paramètre inconnu du photographe amateur moyen. Le cercle de confusion est, en simplifié, la taille des plus petits détails que l’on est encore capable de distinguer. Il est fonction de la taille du négatif (ou du capteur numérique), de la taille du tirage (ou de l'impression numérique), de la distance à laquelle on regarde l'image finale (tirage ou impression) et d'autres paramètres moins importants.

Revenons à nos moutons, le recadrage (le crop) du au passage du full frame à l'APS-C influence donc l'angle de champ, comme je l'ai démontré plus haut. Ainsi, à cadrage identique, on devra se situer plus loin du sujet ou on devra utiliser une focale plus courte que si on utilisait un full frame...

Dans la liste des paramètres qui influencent la profondeur de champ, on voit que certains sont communs à tous les formats (ouverture de diaphragme, distance au sujet) alors qu les autres sont variables (distance focale, taille du capteur et cercle de confusion). Si la focale apparente est plus "longue", il faudra donc une focale plus courte pour obtenir le même résultat et qui dit focale plus courte dit augmentation de la profondeur de champ. La taille du capteur est plus petite, donc la profondeur de champ est plus grande et le cercle de confusion est plus petit donc la profondeur de champ est plus grande. Voila pourquoi on peut dire que le format APS-C offre une plus grande profondeur de champ que le full frame...

Suivant le raisonnement inverse, dans la mesure où distance focale, taille du capteur et cercle de confusion sont "fixés" pour le format APS-C, seuls les paramètres ouverture de diaphragme et distance au sujet pourraient permettre d'approcher (ou de rattraper) les caractéristiques du full frame... Si une faible profondeur de champ est nécessaire (portrait), il faudra s'approcher du sujet et ouvrir le diaphragme. MAIS, à focale plus longue, s'approcher du sujet risque d'engendrer des déformations inacceptables ET l'ouverture du diaphragme n'est pas infinie (!!!) il faudra donc acquérir des optiques à très grande luminosité donc très chers... En portrait le full frame sera donc toujours souverain. Par contre, pour les sujets qui "imposent" une grande profondeur de champ (macro, paysage), c'est le full frame qui sera défavorisé, il faudra fermer le diaphragme au risque de perdre la qualité de l'objectif (je parlerai de diffraction plus tard) et s'éloigner du sujet (ce qui n'est pas forcément possible !)...

Je vous ferai grâce des calculs, mais on peut estimer qu'à cadrage identique, à profondeur de champ identique, il faudrait un 80mm f/4.5 (ou un 75mm f/4.5 selon le coefficient de crop -je le rappelle : x1,6 pour Canon et x1,5 pour les autres-) en full frame et un 50mm f/2.8 en APS-C... Il y a donc une différence de plus d'1 diaph entre les deux "mondes"... Et encore, je suis sympathique, si j'avais pris l'exemple d'un portrait qui nécessiterait un 80mm f/1.4 en full frame, il nous faudrait un 50mm f/0.95 (!!!!!!!) en APS-C, autant dire que la comparaison serait impossible !!! (point de vu pécuniaire bien sûr !)

Conséquences du changement de taille : la perspective

Tout ce que nous avons dit jusqu'à présent nous ouvre grand la porte vers une autre différence qu'il faudra prendre en compte... À cadrage identique, comme toujours (il faut comparer ce qui est comparable !), le fait de s’éloigner du sujet (c'était une option entrevue depuis le début de l'article !) change la perspective. En effet, la perspective dépend uniquement de la distance qui sépare le plan du film (ou du capteur) du sujet photographié. À objectif identique (comme toujours !), une photo prise avec un full frame à 2m du sujet, n’aura pas du tout la même perspective que la même photo faite avec un APS-C à 5m du sujet... Par contre, si on change d'objectif pour prendre en compte le coefficient de correction (x1,5 ou x1.6), à distance identique les photos prises par un APS-C et par un full frame auront toutes les deux la même perspective... logique !...

Retenez ceci :
* même cadrage / même objectif : il faut se reculer avec un APS-C donc la perspective change
* même cadrage / focale x1,5 ou x1,6 : la distance ne change pas et la perspective non plus

Conséquences du changement de taille : le nombre et la taille des photosites

On a vu qu’avec un capteur APS-C, on "modifie" la focale d'un objectif par un coefficient de x1,5 ou x1,6 donc on peut se dire qu'en prenant un objectif de focale /1,5 ou /1,6 on obtiendra exactement la même chose qu'avec un full frame. En effet, si on ne tient compte que des facteurs énoncés jusqu'ici, il n'y aura plus aucune différence MAIS, bien sûr il y a un "mais", il faut envisager un autre point de différence entre un full frame et un APS-C : le nombre des photosites (que certains appellent à tort des "pixels"). En réalité, ce qui change c'est la densité de photosites sur les capteurs de dimensions différentes. En d'autres termes le nombre de photosites par unité de surface...

Attention, je ne vais pas entrer dans la "guerre des pixels" ! Je vais simplement signaler qu'un boîtier APS-C (à coefficient x1,5 par exemple) équipé d'un objectif de 200mm ne sera effectivement équivalent à un boîtier full frame équipé d'un objectif de 300mm QUE si les deux capteurs possèdent le même nombre de pixels. J'ai montré par ailleurs (en pratique, puisque je ne souhaitais pas faire de théorie sur mon site avant vos courriers) qu'avec un plus grand nombre de pixels on pouvait obtenir des impressions papier qui laisseraient penser à l'utilisation d'un zoom virtuel. Donc si un APS-C dispose du même nombre de pixels qu'un full frame, les deux boîtiers délivreront des fichiers qui supporteront des impressions de photos de même dimensions... Dans ce cas, le sujet (photographié sur un boîtier APS-C) reproduit sur l'image imprimée sera 1,5 fois (ou 1,6 fois) plus gros. Même si le capteur APS-C est plus petit que le capteur full frame, s'il possède autant de photosites (autant de pixels), on aura effectivement un sujet plus gros !... à condition que l'impression finale ait les mêmes dimensions que le fichier soit sorti d'un full frame ou d'un APS-C !...

Si, par contre, on décidait d'imprimer le fichier sorti du boîtier APS-C avec des dimensions 1,5 (ou 1,6) fois plus petites que le fichier sorti d'un full frame, on aurait effectivement une image plus petite mais surtout un grossissement du sujet identique !...

Mais, comme c'est très souvent le cas, un boîtier full frame possède plus de pixels qu'un boîtier APS-C. Dans ce cas, on peut s'amuser à découper l'image obtenue avec le full frame de façon à ne conserver que le nombre de pixels délivré par le boîtier APS-C. Dans ce cas, l'image finale (découpée) montrera un sujet agrandi à l'impression puisqu'on a "cropé" manuellement l'image tirée du full frame. Cela à condition d'imprimer les deux fichiers (celui de l'APS-C et celui du full frame "cropé" manuellement) avec des dimensions identiques (puisqu'à nombre de pixels identique).

En fait, je suis en train de m'amuser... je ne fais ici que reprendre le crop factor mais en aval (alors qu'en début d'article je l'avais considéré en amont !). Dans ce cas, si on diminue manuellement (on "crope") les dimensions de l'image finale d'un fichier sortant d'un full frame, on finit par obtenir une image aussi agrandie, voire plus, que celle obtenue par un APS-C !... Du coup, la suprématie de l'APS-C sur les longues focales est mise en miette...

Mais cela, sans être anecdotique, ne doit pas cacher une autre réalité bien plus importante : la densité des photosites sur un petit capteur étant très élevée, la taille des photosites est donc bien moindre que celle des photosites retrouvés sur les boîtiers full frame. La diminution de la taille des photosites influence leur sensibilité à la lumière et donc, plus le capteur est petit (et le nombre de photosites élevé) et moins la plage dynamique du capteur sera importante !... et plus les zones de faible luminosité seront bruitées !... Un autre phénomène entre en jeux, le bruit. Un capteur de plus faible densité aura des photosites plus gros, autrement dit un meilleur rendement signal/bruit, donc une meilleure qualité d’image au final. C'est ainsi qu'on peut affirmer sans erreur que si l'on ne souhaite pas faire de l'impression de grande dimension, il est préférable d'utiliser un très vieil appareil APS-C possédant peu de photosites qu'un appareil APS-C actuel possédant beaucoup de photosites sur une surface identique !... Bien sûr, je ne dirai pas que mon vieux Pentax *istDS (6 mega pixels) est meilleur que mon Pentax K5 D (16 mega pixels) puisque beaucoup de choses influencent la qualité de l’image (le filtre passe bas, le réseau de micro-lentilles, le rendement des photosites, le traitement du DSP, etc...), mais il est vrai que, si la technologie n'avait pas évolué à ce point, le *istDS avec sa faible densité de photosites donnerait des résultats plus proche des boîtiers full frame actuels que le K5 D !... avec toutefois une bien moindre capacité d'impression de grande taille !... D'ailleurs il m'arrive de m'amuser : je suis en mesure d'obtenir avec mon *istDS, sous certaines conditions, de bien meilleurs résultats qu'avec mon K-5 voire même mon Canon 5D MkII !!!

Conséquences du changement de taille : la diffraction

Les petits capteurs influencent également la diffraction. En reprenant l'exposé sur les changements de valeur de diaphragme pour essayer de retrouver "l'effet full frame" avec un APS-C (je vous rappelle qu'avec un APS-C il serait nécessaire de fermer son diaphragme d'au moins une valeur et demie pour retrouver la même profondeur de champ qu'un full frame), on arrivera rapidement à la limite de diaphragme qui entraîne cette perte importante de piqué provenant de la diffraction... On estime qu'il est déconseillé de fermer son diaphragme à f/11 ou au-delà (f/16 ~ f/22) avec un APS-C alors qu'un full frame, pour peu qu'il soit équipé d'un bon objectif, supportera des diaphragmes jusqu'à f/16.

Ce problème de diffraction sera à l'origine de l'impossibilité de "rattraper" sur son APS-C la faible profondeur de champ que permet le full frame... Toutefois, la diffraction est un phénomène provenant uniquement de l’objectif, la taille du capteur et sa densité de photosites n'y sont pour rien... vous n'aurez pas plus de diffraction avec un APS-C qu'avec un full frame si vous ne poussez pas trop l'optique dans ses derniers retranchement en essayant de réduire la profondeur de champ de votre APS-C !...

Conséquences du changement de taille : le flou de bougé

Tout le monde connaît le flou de bougé, je ne vais pas insister, mais, même si cela ne semble pas évident de prime abord, la petite taille du capteur ainsi que la petite taille des photosites et leur forte densité vont avoir une action délétère en augmentant les risques de flou de bougé ! Et cela pour deux raisons :
1) lors d'un mouvement (tremblement par exemple), l'image va s'imprimer non pas sur un ensemble de photosites mais sur plusieurs ensembles de photosites contigus. Dans la mesure où les photosites sont plus petits, et beaucoup plus serrés sur les petits capteurs, même sur une image non bougée, un point ne sera pas reproduit sur un seul photosite mais sur plusieurs et il paraîtra donc, fort logiquement, moins net !...
2) nous avons parlé du coefficient multiplicateur de focale : à focale réelle identique, un APS-C présentera une focale apparente 1,5 à 1,6 fois plus importante, qui dit focale plus importante dit grossissement plus important et donc... amplification du mouvement ! Donc même un très léger tremblement sera amplifié et (cf le 1er point) l'image sera encore moins nette à cause de la conjonction des deux phénomènes...

Conséquences du changement de taille : le poids, la facilité d'utilisation, la précision

Le fait d'équiper un boîtier d'un petit capteur n'a pas que du négatif (contrairement à ce que pourrait le laisser croire les divagations précédentes) ! D'abord, il faut bien se rendre compte que plus le capteur est petit et plus le miroir reflex est petit et plus le prisme est petit et plus le boîtier tout entier est petit et donc plus il est léger...

— Petite taille et petit poids le rendent beaucoup plus agréable à transporter et c'est loin d'être négligeable (même si nombreux sont les photographes -même pas très musclés- qui préfèrent avoir "de la matière" entre les mains).
— Petit miroir et miroir léger entraîne une inertie bien plus faible et donc limite énormément les risques de flou du simple fait de son mouvement et de son choc en position levée. Cela vous laisse perplexe ? Pensez qu'en utilisant un moyen format argentique 60x70 (et à fortiori plus gros), même à focale "raisonnable", il est fortement conseillé d'utiliser la fonction de levée anticipée du miroir pour éviter les flous de bougé...

Nous avons souligné les problèmes des petits photosites et de leur forte densité sur un petit capteur, mais sachez qu'utilisé convenablement, un boîtier à petit capteur donnera des images très précises... plus que celles d'un full frame.

En guise de conclusion

Le format APS-C est né d'une obligation de rentabilité qui a transformé le boîtier argentique 35mm en boîtier APS-C. Rien n'a changé dans sa conception, à part la taille de la surface sensible et la taille du miroir reflex et la taille du prisme de visée. Mais une fois né, on s'est aperçu (les jeunes qui n'ont pas connu le 1/2 format argentique) que les impératifs financiers ont donné naissance à un tout autre monde... avec des avantages et des inconvénients.

Ceux qui utilisent de très grands angles et/ou aiment les grandes ouvertures n’ont donc pas le choix et doivent travailler en 35mm, argentique ou numérique. Si on veut faire de très grands tirages, il n'y a pas de secret... il faut des pixels (mais certains APS-C n'en manquent pas !), et de "bons pixels", et sur ce point, le full frame reste le maître incontesté (si on excepte le moyen format numérique à côté duquel le full frame 35mm fait figure d'APS-C, voire même pas !!!) puisqu’il possède plus de surface, il bénéficie de plus de photosites et des plus gros, ayant chacun un meilleur rendement que leurs cousins (les petits photosites !).

Si, par contre, on cherche des focales plus longues, l'intérêt du full frame disparaît, même si j'ai pu démontrer qu'un crop manuel avant impression pouvait faire le même effet... d'une part pour une raison de prix de boîtier (l'APS-C sera toujours moins cher que le full frame), et d'autre part pour une question de prix, de poids et d'encombrement des optiques... Et après tout, quel intérêt d'acheter un boîtier si on sait d'avance qu'on va découper manuellement toutes les images avant impression alors qu'en achetant un boîtier "cropé" on économise le travail de redécoupage manuel ?...

L’APS-C a un autre avantage, c’est de n’utiliser que la partie centrale du cercle image des optiques prévues pour le 35mm, quasiment exempt d’aberrations chromatiques, de vignetage et de perte de piqué dans les angles. Attention, ce n’est plus vrai du tout pour les optiques conçues spécialement pour l’APS-C ! D'ailleurs, si le capteur APS-C ne se voit pas envahi par trop de photosites, il sera toujours préférable d'acquérir des objectifs "plein format" au détriment des objectifs "spécial APS-C", meilleure qualité d'image mais également plus grande universalité, si, un jour, vous achetez un full frame, vous aurez déjà les objectifs !!!

Le choix n'est donc qu'une histoire de compromis, c'est à vous de voir... et n'oubliez pas que tous les capteurs actuellement sur le marché permettent de faire des tirages taille poster d'excellente qualité (je ne parle ici que des capteurs APS-C, APS-H -plus grand que APS-C mais plus petit que full frame- et full frame, pour les autres formats plus petit, c'est beaucoup plus discutable !...)... et n'oubliez jamais, je le répète à longueur de site, mon vieux Pentax *istDS de 6 megapixels me donne toujours autant de plaisir et même des impressions grand format... pourquoi investir dans un Nikon D800, ou un Canon 5D MkIII si un Nikon D7000, un Canon 600D, ou un Pentax Kx pourraient vous combler ?...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


POURQUOI UNE PHOTO NE MONTRE PAS CE DE L'ŒIL VOIT ?

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Je ne vais pas envisager ici les problèmes de focale (quelle focale réelle correspond à l'angle de champ de l'œil humain) ni la sensibilité du support photographique (film ou capteur) par rapport à celle de l'œil (valeur ISO de l'œil), ni même la particularité de la stéréo vision chez l'homme par rapport à la monovision de l'appareil photographique, ... il y a suffisamment de choses plus intéressantes à souligner ici !...

Essayez de vous poser la question : n'avez-vous jamais remarqué qu'une photo ne montrait jamais votre sujet comme vous l'aviez vu avant le déclenchement ?... Pire (!!!), si vous avez fait (ou si vous faites) de la photographie argentique, n'avez-vous jamais remarqué que dès lors que la photographie est en couleurs elle ne correspond plus tout à fait au souvenir que vous en avez (il s'est passé un certain temps entre le déclenchement et la visualisation de l'épreuve) ? Et si les images étaient en noir et blanc, elles correspondaient systématiquement à votre souvenir ? [on retrouve ce même phénomène en numérique mais la sensation est modifiée par l'immédiateté du résultat...] Étrange non ? Essayons de voir ce qui peut bien se produire...

Pour se faire une petite idée, il faut voir ce qui différencie l'œil de l'appareil photographique et ce qu'ils ont en commun... Parfois l'appareil photo surpasse l'œil (eh oui !) parfois c'est le contraire...

Comment fonctionne l'œil ? En fait l'œil fonctionne plus comme une caméra que comme un appareil photographique dans la mesure où il transmet des images en continu direction le cerveau. Chacune des images transmises est parfaitement mise au point et parfaitement exposée. Le problème, c'est que l'œil ne transmet pas une image dans sa totalité mais des (tout) petits bouts d'image. En effet, l'œil n'est capable de fournir qu'un (tout) petit cercle d'image nette, piquée, bien colorée et bien exposée. Autour de ce petit cercle se trouve un autre cercle dans lequel l'image est plus ou moins floue, pas piquée du tout, peu ou pas colorée et globalement sous exposée... Pour pouvoir fournir l'image du champ visuel, imperceptiblement l'œil se déplace dans tous les sens de façon à couvrir toute la "surface" de l'image avec le cercle de haute définition. Le cerveau sert de "buffer" (mémoire tampon) pour reconstituer l'image dans son entier. Ce "scannage" de l'environnement est si rapide que l'on ne peut en avoir conscience. Voici, ci-dessous, une schématisation de la création de l'image par l'œil :

Pour donner la conscience de l'image finale de la scène que l'on observe, le cerveau va devoir "aplatir les masques" contenant chacun un confetti net entouré de flou au milieu d'un "grand noir" et éliminer au passage les zones présentant pas ou peu d'information (les zones noires -aveugles- ainsi que les zones faiblement colorées, floues et mal exposées).

Au final, tout le champ visuel est parfaitement net, parfaitement coloré et parfaitement exposé. Même si une scène présente des zones très sombres et des zones très lumineuses, dans la mesure où le point de réglage (netteté et exposition) est très petit, on sera en mesure de retrouver un maximum de détail dans toutes les zones, quelle que soit leur luminosité relative... pas d'ombres "bouchées" ni de blancs "brûlés"... (jusqu'à un certain point, bien sûr ! si vous regardez un spot de 500W de face, votre l'œil aura beau se déplacer dans tous les sens, vous n'y verrez que du blanc !).

Comment traduire cela en langage photographique ? L'œil "embarque" un système de traitement HDR associé à un système de focus bending (comme en macrophotographie), donc il présente la particularité d'avoir une plage dynamique gigantesque ainsi qu'une profondeur de champ quasi infinie...

Quid de l'appareil photographique ? Il est bien incapable d'en faire autant. Du moins, jusqu'aux appareils photographiques numériques actuels... la prochaine génération est déjà en cours d'élaboration dans les laboratoires qui devraient permettre d'obtenir une image dans laquelle on pourra décider en post traitement quel sera le plan de netteté !... Il en sera probablement de même pour l'exposition... Mais nous n'en sommes pas encore là !!! La plage dynamique est encore très restreinte. Quant à la profondeur de champ, pour peu qu'on utilise une focale assez courte réglée à l'hyperfocale, on pourra obtenir une zone de netteté au moins aussi importante que l'œil...

En contre partie, le support photographique présente des atouts incontestables que l'œil ne pourra jamais offrir !... En effet, en situation de faible luminosité, l'œil ne distingue plus efficacement les couleurs (on dit bien que la nuit tous les chats sont gris -sauf les noirs bien sûr-). Le film (ou le capteur), lui, pour peu que l'on augmente suffisamment la durée d'exposition permettra de les enregistrer toutes !... C'est ainsi que l'on pourra obtenir des images très colorées de scènes de nuit, images assez surréalistes pour le cerveau humain qui n'est pas habitué à cette explosion colorée la nuit...

Autre supériorité du support photographique sur l'œil : grâce aux poses longues, il permettra d'enregistrer des détails que l'œil ne verra jamais : la voie lactée est un excellent exemple, difficile à repérer à l'œil (si on est hors du désert !), elle deviendra éblouissante sur un support photographique. Toujours grâce aux poses longues, le support photographique sera en mesure d'enregistrer en concentré sur une seule image le temps qui passe, comme le déplacement des astres ou la trace de l'eau d'un torrent qui coule voire l'escargot qui se déplace pourtant si lentement !... Tout ce que l'œil sera incapable de nous montrer puisqu'il n'est pas capable de superposer ses instantanés sur une durée assez longue. À l'inverse, les poses super courtes permettent d'arrêter le temps et ainsi montrer des événements très fugaces que l'œil laissera échapper dans la mesure où son système de création d'image, bien que rapide, demande beaucoup trop de temps...

Et je n'ai parlé ici que de ce que l'appareil photographique permet... si, maintenant on envisage la photographie numérique, il faut ajouter les possibilités du post traitement numérique ! Un focus bending partant de la macrophotographie jusqu'à l'infini dépassera -et de loin- les capacités de profondeur de champ de l'œil. La technique du HDR, pour peu qu'elle utilise de nombreux clichés et qu'on la pousse un peu, elle permettra d'obtenir une plage dynamique quasiment infinie et beaucoup plus efficace que l'œil !... Mais attention, trop poussé, le HDR devient franchement très artificiel, limite dérangeant puisque le cerveau reçoit une image qu'il est incapable de concevoir, par "non programmation" (manque d'habitude).

Venons-en au dernier mystère : pourquoi une image noir et blanc correspondra toujours au souvenir que l'on conserve de la prise de vue ? Tout simplement parce que cette image ne contient que des informations sur la forme et sur les tonalités ! Il n'y a aucune information parasite, le cerveau peut "coller" parfaitement le souvenir sur l'image noir et blanc, il interprète les tonalités et colorise lui-même la scène... concordance parfaite !!!

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


LA PSYCHOLOGIE AU SERVICE DE LA CRÉATION PHOTOGRAPHIQUE

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

N'ayez aucune crainte, c'est bien de photographie qu'il sera question ici, pas d'un cours de psychologie. Mais si tout le monde se questionne sur la meilleure technique de composition, il serait intéressant, à mon sens, d'apporter quelques notions (succinctes et superficielles) de psychologie pour nous aider dans nos recherches photographiques.

Il existe de multiples théories en psychologie, ce n'est pas une science exacte, mais il existe une théorie qui semble universelle (ou qui semble s'en approcher) et qui peut apporter beaucoup au photographe amateur à la recherche d'une "bonne" composition : je veux parler de la théorie de la gestalt (ou du gestaltisme)... Rien à voir avec la similitude photo = image et gestalt = forme, mais le rapprochement n'est pas dénué d'intérêt...

Je vais essayer de simplifier quelques points de cette théorie (surtout pas tous, car cela ne ferait que nous desservir !) pour une mise en application en photographie.
— un objet (ou une image, pour ce qui nous intéresse) paraît incomplet s'il n'est pas équilibré ou symétrique. Pour illustrer ce point, je vais reprendre une des expériences fondatrices de la gestalt :
Imaginez que l'on projette très rapidement (une fraction de seconde) une figure comme sur un écran et que l'on demande ensuite aux volontaires de l'expérience de dessiner ce qu'ils ont pu voir de la projection, ils dessineront une figure comme !... Tout simplement parce que leur cerveau aura comblé le "vide", effacé le "déséquilibre" pour revenir à une forme "classique" et "rassurante". Pour être tout à fait précis, certains auteurs devraient crier au scandale s'ils lisaient mon site, puisqu'en principe, dans la gestalt, déséquilibre et formes ouvertes représentent deux catégories différentes. Personnellement je trouve que la distinction est subtile et, de toute façon, elle n'apporterait rien dans le cadre de cet article !... Tout cela pour dire qu'au moment de composer son image, il faut veiller à un équilibre, une "stabilité" et ne pas couper (au recadrage par exemple) un signifiant de l'image... Une seule erreur de ce type et la photo devient désagréable puisque le cerveau devra essayer de tout ramener "à la normale".
— pour être perçu, un objet doit impérativement se détacher de son environnement. Donc, en photographie, il est important de jouer avec les lumières, les flous, les contrastes, sans quoi le signifiant de l'image sera totalement invisible aux yeux du spectateur.
— nous recherchons inconsciemment (mais systématiquement) des signes qui pourraient nous indiquer une direction (ou un sens de réflexion. En photographie on parlera plutôt d'un sens de "lecture").
— dans une scène quelconque, nous avons systématiquement besoin d'un point fort capable d'attirer notre attention, de la capturer et de la diriger vers l'accomplissement de l'énigme (de l'image).
— la répétition d'un objet ou d'une forme finit par prendre un sens. En photographie, si vous rassemblez des éléments de manière répétitive, votre image prendra une toute autre dimension : la répétition peut être réelle (dans la vraie vie il y a répétition) ou artificielle (vous pouvez créer des ensembles -même hétérogènes- et les multiplier)
— plus un message est simple et plus il sera percutant : pour bien souligner l'élément "moteur" de votre photographie, il faudra s'efforcer de le "mettre en scène" le plus simplement possible.

Voilà, que les psychologues me pardonnent, je me limiterai à ces six points ! J'avais bien dit que je ne ferai pas un cours de psychologie, et ce site n'a pas été créé pour enseigner la gestalt de force à des gens intéressés par la photographie !... Mais, en seulement 6 points, nous avons réussi à trouver la (une) recette pour rendre nos photos plus intéressantes, indépendamment du sujet représenté.

ATTENTION : si vous poursuivez les recherches sur la théorie de la gestalt, au sens de la psychologie ou en application en photographie, vous trouverez beaucoup plus de choses que ce que j'ai souligné ici MAIS vous découvrirez surtout qu'en voulant tout prendre du gestaltisme vous finirez par conclure "en photographie, aucune règle n'est une loi puisque la gestalt me dit tout et son contraire"... et c'est vrai !... Aussi, au moins dans un premier temps, limitez-vous à ces six points (ou d'autres qui vous "inspirent" plus dans la gestalt -mais dans ce cas, faudrait-il d'abord étudier le sujet à fond -) sans quoi vous allez vous amputer de quelques voies intéressantes...

L'application pure et dure de la gestalt en photographie est à réserver à ceux qui souhaitent "sauver", à postériori, une image sans intérêt, en l'affublant d'explications théoriques là où il n'y a rien à comprendre, juste pour faire "art" !... Mais, bien sûr, cela n'est pas votre cas, du moins je l'espère (!!!), si un amateur en arrive là... c'est la fin... théoriser le néant pour lui donner corps est vain...

Pour conclure, je dirai qu'il faut toujours garder présent à l'esprit que le tout vaut beaucoup plus que la somme des éléments qui le compose... cela aussi la gestalt nous l'enseigne !...

Juste un petit jeu pour qui veut comprendre ma dernière phrase :

1) ne vous arrêtez pas sur les mots, lisez la phrase suivante sans vous poser de question :
« Piusuqe je sius itnsérseé par la potgharohipe c'est tuot nutralelenemt que je rhecrhece tuteos les veios pisbeslos puor mon élovutoin plonesrenle »

2) relisez la même phrase mais en détaillant chaque mot cette fois.

La première partie du jeu vous montre l'importance du tout, la deuxième partie l'importance des éléments constitutifs... Le tout a un sens, l'élémentaire n'en a plus... CQFD !

Mes excuses aux lecteurs non 100% francophones, vous serez désavantagés pour ce jeu. De même, une partie de la population sera incapable de faire ce jeu, soit parce qu'elle n'aura pas pris suffisamment de recul sur le texte, soit, tout simplement, parce qu'elle est fondamentalement incapable de le faire... c'est grave docteur ? Non pas du tout, la gestalt n'a pas encore expliqué pourquoi tout le monde ne pouvait pas réussir ce jeu, mais ce qui est certain, c'est que face à l'échec, il n'y a aucune crainte à avoir...

Ah, au fait, le texte à lire était : « Puisque je suis intéressé par la photographie c'est tout naturellement que je recherche toutes les voies possibles pour mon évolution personnelle ».

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


COMMENT FONCTIONNE LA MISE AU POINT ?

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Tout photographe jongle avec la mise au point sans avoir une vision nette (c'est le cas de le dire !) du phénomène !... Je vais donc vous expliquer ici, simplement, ce qu'est la mise au point.

Pour simplifier la compréhension, je vais, dans un premier temps, partir du principe (faux dans la vraie vie !) qu'il n'existe pas de profondeur de champ, c'est à dire qu'une photographie ne peut être nette qu'à une distance sujet/objectif très précise et qu'elle devient floue dès que l'on s'écarte de cette distance. De la même manière, je vais partir du principe (faux dans la majorité des cas dans la vraie vie !) qu'un objectif photographique n'est composé que d'une seule lentille.

Si la distance qui sépare le sujet (l'objet) de l'appareil photo permet à l'objectif de créer l'image pile poil sur le film (ou le capteur numérique), l'image sera inversée mais nette. Bien sûr, si on tient compte de la profondeur de champ, la distance sujet/objectif peut varier quelque peu tout en conservant une image nette sur le film ou le capteur numérique.

Si on augmente la distance qui sépare le sujet (l'objet) de l'appareil photo, l'image (nette) se formera en avant de la surface du film (ou du capteur numérique) donc la projection de l'image sur le support sensible sera floue. Bien sûr, pour observer ce phénomène il faut que la distance dépasse la profondeur de champ...

Dans la mesure où il n'est pas toujours possible de se déplacer pour trouver la bonne distance sujet/appareil (et même si c'était possible ce ne serait vraiment pas pratique !...), il a été prévu une bague de mise au point qui permet de déplacer l'objectif (en fait la lentille ou un bloc de lentilles) jusqu'à faire reculer l'image pile poil sur le film ou le capteur numérique et ainsi retrouver une image nette.

Ici je suis parti du principe que l'on augmentait la distance sujet/appareil, mais le même raisonnement permet de résoudre le problème de la diminution de la distance sujet/appareil.

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


DÉCOUPER : OUI, CHARCUTER : NON !

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

L'autre jour, en errant sur le net, je suis tombé par hasard sur un site photo (amateur) qui s'était spécialisé sur la photographie de l'humain. Poses très agréables, éclairage aux petits oignons mais souvent, les images causaient en moi un petit malaise ! Normalement, dans ces conditions, on ferme la page et on passe à autre chose... mais c'est mal me connaître ! J'ai cherché d'où pouvait provenir ce trouble !... Et, bien sûr, j'ai trouvé !...

Il est dit dans tous les manuels de photographie que pour donner plus de force à une image, il ne faut pas craindre de découper notre sujet pour en faire un plan serré. Et ce n'est pas moi qui dirai le contraire ! Seulement il faut savoir que, psychologiquement, il y a des découpages acceptables et des découpages inacceptables (ce que j'appelle du charcutage !).

Il n'est pas nécessaire de remplir une page entière pour parler de la chose, donc je me suis fendu d'un petit schéma récapitulatif. Désolé pour la qualité du dessin, ce n'est peut-être pas un hasard si j'ai préférer la photographie au dessin ... Au passage, ne tenant pas à passer pour sectaire, j'ai dessiné (tout aussi maladroitement !) un représentant des deux sexes !...

Comme vous pouvez le constater, j'ai représenté les traits de découpe considérés comme acceptables en représentation humaine. ATTENTION : ne pas considérer ces traits comme les limites de découpes de tranches (!!!! - sauf la tranche consistant à couper le haut du crâne et arrêter le portrait au menton !) on part du principe qu'il s'agit d'un portrait au départ que l'on peut élargir jusqu'au corps entier ou alors arrêter au niveau d'une de ces lignes vertes de découpe acceptable.

Si vous le permettez, je vais prendre un exemple :

Voilà une découpe peu orthodoxe mais acceptable. Le haut du crâne a disparu, le menton a été conservé. Je ne dis pas que la photo est bonne ou belle, je ne parle que du découpage. Cette découpe limite (qui n'aurait pas été acceptable avec un visage adulte car déjà trop serré) plus le très léger flou volontaire laisse penser à un enfant effacé de la réalité, perdu dans ses rêves, pourquoi pas. Voyons ce qu'aurait pu donner un découpage inacceptable :

Je ne dis pas que cette image est plus nulle que la précédente... je dis simplement qu'elle induit une dimension différente qui sort du cadre du portrait dit « classique » (même si l'image originale était déjà limite !). Ici, on induit une situation d'enfermement et on ne sait plus vraiment s'il y a une explication à la pose ou non.

Voyons un autre exemple :

Cette image beaucoup plus classique (pour un portrait), bien que découpée serrée est très acceptable. Voyons une découpe inacceptable (ablation des oreilles par exemple) :

Cette fois, la même photo n'a plus le moindre intérêt, on reconnait un visage humain mais... quelque chose de dérangeant nous parvient...

Bien sûr, les règles sont faites pour ne pas être respectées MAIS si on veut photographier un portrait humain, il est préférable de suivre les grandes lignes de découpe :
- milieu du front
- milieu du cou
- limite des épaules
- tiers inférieur des bras (rien sur les avant-bras ni les mains)
- milieu du corps (un peu en dessous des dernières côtes)
- crête du bassin
- tiers inférieur des cuisses
- tiers inférieur des jambes (rien en dessous)

Je m'aperçois que je n'ai fait figurer aucune verticale, et c'est tant mieux, une découpe verticale créera systématiquement un moignon ou une tranche disgracieuse !...

Sinon, il existe une véritable règle de découpage ininterprétable et non modifiable pour créer un portrait, mais, franchement, je ne la recommande pas :
...
...
...
...
...
...
...


...
Allez, bonnes études photographiques...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


LA COULEUR !

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Voilà des années que www.thydelor.eu existe et cela fait des années que je me pose la question de savoir s'il faudrait ou non traiter de la couleur ! D'aucun diront « pourquoi pas » mais traiter de la théorie de la couleur pourrait largement occuper la totalité d'un site !... J'ai traité du noir et blanc en quelques lignes sur d'autres pages, mais là, la tâche est beaucoup plus ardue !...

J'ai donc fini par craquer... ce paragraphe est beaucoup trop important pour être passé sous silence !... Donc, désolé si le contenu de cet article sera relativement indigeste, je vais essayer de simplifier au maximum, mais les notions exposées ici sont indispensables pour la photographie au sens large du terme :
— composition d'une photo couleur
— message véhiculé par les couleurs de la photographie
— réussite des tentatives de traitement hors norme des images couleur
— développement et/ou post traitement de nos photographies couleur
— correction des dominantes colorées difficiles
— etc, etc...

Je ne vais pas traiter ici de tous les aspects de la couleur !... Je laisse le soin à des auteurs plus versés que moi en la matière de vous donner les autres clés. Vous pourrez lire (au minimum) l'article de wikipedia et si cela ne suffisait pas, chercher d'autres sites plus pointus sur la couleur avec votre moteur de recherche préféré... mais théoriquement, vous devriez pouvoir trouver sur ma page tout l'indispensable, même si mon article sera loin d'être exhaustif !...

En fait la couleur a cela de complexe qu'elle ne peut être définie de manière univoque ! Il y a ce que la science a apporté, ce que la religion a déformé, ce que la tradition a modifié, ce que le spectateur perçoit réellement, ce que la psychologie du spectateur modifie de la perception et même plus encore : la couleur ne veut pas du tout dire la même chose dans la bouche d'un peintre que dans la bouche d'un photographe !!! Et je pourrai même pousser encore plus loin en disant que la couleur n'a pas la même réalité chez une personne qui fait une photographie numérique couleur et, chez la même personne qui décide d'imprimer sa photographie numérique couleur !... GALÈRE !...

L'homme semble avoir porté une attention à la couleur en visualisant l'arc-en-ciel. Newton, le grand scientifique que l'on connait a décrit ces couleurs de l'arc-en-ciel, il en a trouvé 6. Mais puisque le nombre obligatoire défini par les autorités religieuses était le 7 (7 jours par semaine, 7 notes par octave en musique sacrée, etc...), il a tout naturellement ajouté une 7ème couleur à son arc-en-ciel (alors qu'en réalité, l'arc-en-ciel est constitué d'une infinité de couleurs, car il s'agit du spectre total du soleil) ! Et voilà, ça commence déjà très mal !... Les philosophes (Goethe) s'y sont également mis, disant que d'une part la couleur est la manifestation d’un obscurcissement de la lumière, et que d'autre part, la couleur est un éclaircissement de l’obscurité... Comment voulez-vous vous en sortir ? Surtout que tout cela est vrai, même si apparemment contradictoire !...

LES COULEURS PAR SYNTHÈSE SOUSTRACTIVE

Je viens de dire que Goethe décrivait la couleur comme la manifestation de l'obscurcissement de la lumière. Et j'avoue que j'aime assez la vision Goethéenne puisqu'elle est très proche de la réalité scientifique ! Pourquoi n'ai-je utilisé que la moitié de sa définition ? Vous comprendrez un peu plus tard...

J'ai également dit plus haut que la notion de couleur était différente pour un peintre ou un photographe... je vais donc commencer par parler de la vision du peintre (mais peut, dans certaines condition, être celle d'un photographe s'il se place dans la peau d'un éclairagiste ou lorsqu'il décide d'imprimer ses images numériques ou de tirer ses négatifs couleur sous agrandisseur).

Pour ces personnes, l'obtention des couleurs se fait en soustrayant des teintes du blanc (toile, papier, lumière blanche, etc) d'où le nom de synthèse soustractive !...

Pour soustraire des teintes, ils utilisent des pigments (peinture, encre ou filtre coloré).

Il a été décrit des couleurs primaires à partir desquelles on pouvait créer toutes les autres couleurs du spectre visible en retirant certaines radiations de la lumière blanche (lumière directe ou réfléchie sur une surface blanche (toile, papier, etc.).

Il s'agit du :
ROUGE
JAUNE
BLEU
 

Et oui, j'en entends déjà crier « Mais ? Il ne s'agirait pas plutôt du Rouge / Vert / Bleu ? Comme on nous en rabat les oreilles en permanence ? » Et bien, je ne répondrai pas à la question maintenant !... Cela peut, en effet être R-J-B ou R-V-B selon le contexte dans lequel on se place, mais attendez un peu, vous finirez par tout comprendre !...

Une couleur primaire, que l’on appelle également couleur élémentaire, est une couleur qui ne peut pas être créée par le mélange d’autres couleurs. Et si vous vous amusez à mélanger des peintures, des encres et que sais-je encore, jamais vous ne réussirez à obtenir ni du jaune, ni du rouge ni du bleu, quel que soit votre mélange !... De même, regardez le contenu des cartouches d'encre d'une imprimante couleur de bas de gamme, elles contiendront du jaune et pas de vert... et pourtant elle imprimera du vert sans problème. Donc les couleurs primaires sont effectivement le Rouge, le Jaune et le Bleu !... Mais je vais un peu trop vite en parlant d'imprimante, j'y reviendrai plus tard !... Pour être plus précis (et plus clair), il faudrait dire que dans la synthèse soustractive des couleurs (qui s’applique à la peinture, les encres, les imprimantes) les trois couleurs primaires sont le Jaune, le Rouge et le Bleu. Le mélange de ces 3 couleurs primaires à parts égales, donne le noir (en théorie... car en pratique la somme des 3 couleurs donne un brun très foncé mais pas un noir -qui, au passage n'est pas une couleur-, c'est pourquoi les imprimantes contiennent toujours une encre noire !).

Pour "simplifier" les choses, il est indispensable de souligner ici un point capital : les couleurs primaires sont la donnée d'au moins deux couleurs permettant, par leur mélange, l'obtention d'autres couleurs. On utilise généralement 3 couleurs primaires, la troisième étant choisie de telle manière qu'on ne puisse pas l'obtenir par le mélange des deux autres... Notez bien qu'on n'est pas limité à trois couleurs primaires. Par exemple, certaines imprimantes ont 4 cartouches de couleurs différentes ou plus (on ne compte pas les différents gris ou le noir) qui deviennent 4 (ou plus) couleurs primaires.... mais je sens que je vous perds, donc je vais m'arrêter là !!!!

Qui dit couleur primaire dit couleur secondaire. Lorsque l’on mélange deux couleurs primaires à parts égales, on obtient une couleur secondaire. Le Orange est la couleur secondaire issue du mélange des couleurs primaires Jaune et Rouge. Le Violet est la couleur secondaire issue du mélange des couleurs primaires Rouge et Bleu. Le Vert est la couleur secondaire issue du mélange des couleurs primaires Bleu et Jaune.

En synthèse soustractive, c'est à dire lorsqu'on souhaite colorer un support blanc (papier, toile, etc..., voire colorer une lumière blanche...), les couleurs primaires Jaune, Rouge et Bleu, apparentées 2 par 2 en proportions identiques, donnent les couleurs secondaires Orange, Violet et Vert (le noir central est théorique). C'est ainsi que fonctionnent les imprimantes.

Mais on peut encore aller plus loin ! On définit les couleurs tertiaires... Une couleur tertiaire résulte soit du mélange à parts inégales de deux couleurs primaires soit du mélange à parts égales d'une couleur secondaire et d'une couleur primaire. Je n'en dirai pas plus, cela présente un intérêt moindre puisque le raisonnement est toujours le même... ainsi, on peut poursuivre à l'infini, couleurs quaternaires, etc, etc...

On peut représenter toutes ces couleurs sur une « roue des couleurs » :

On retrouve, dans le triangle au milieu, les couleurs primaires (toujours en synthèse soustractive) Jaune, Rouge et Bleu, le polygone qui l'entoure reproduit les couleurs secondaires Orange, Violet et Vert, et tout autour, la roue des couleurs tertiaires, puis quaternaires, etc... la seule limite étant la capacité de discrimination de l'œil humain !... Notez que la roue se place sur un fond blanc, en effet, en synthèse soustractive (je le répète) on retire des teintes du blanc pour obtenir les couleurs !...

Il peut également être intéressant d'introduire une dernière notion : la complémentarité ! Chaque couleur trouve sa couleur complémentaire exactement à l'opposé sur la roue des couleurs :

Ainsi, toujours en synthèse soustractive, la complémentaire du Rouge est le Vert, la complémentaire du Jaune est le Violet, la complémentaire du Bleu est le Orange... Ainsi, les couleurs complémentaires des couleurs primaires de la synthèse soustractive sont exactement les couleurs primaires de la synthèse additive !...

Quel intérêt de parler des complémentaires ? C'est une notion capitale puisque cette complémentarité de couleurs entraine ce qu'on a appelé le contraste simultané des couleurs !... Ainsi, pour obtenir en photographie couleur, un contraste maximum, il faut et il suffit de rassembler deux couleurs complémentaires : par exemple une fleur rouge sur le fond vert de l'herbe ! (remarque au passage : c'est exactement le contraire en noir et blanc puisque sur une photo monochrome le rouge et le vert sont représentés par la même valeur de gris !!! voir ici et ici).

Je pourrais également parler de la relativité des couleurs mais cela nous emmènerait trop loin et n'aurait pas grand intérêt en photographie... l'article de wikipedia (ou un autre site) vous en parlera si cela vous intéresse...

REMARQUE IMPORTANTE : cela ne va pas simplifier les choses, désolé, mais je vais un peu revenir sur les couleurs primaires en synthèse soustractive ! Selon le type et la qualité du pigment (peinture, encre, etc...) les couleurs primaires ne seront pas forcément exactement le Rouge, le Jaune, et le Bleu mais des variantes moins franches telles le Cyan, le Magenta, et le Jaune comme ce que l'on retrouve dans les imprimantes couleur bas de gamme... Mais cela n'est pas encore tout à fait exact puisque sur les imprimantes couleur haut de gamme, on a été amené à utiliser 10 ou 12 couleurs intermédiaires d'encres pour une reproduction plus fine de tous les tons !... Mais dans le fond, qu'importe RJB ou CMJ, ce n'est pas fondamentalement différent !... Sans compter que, si on veut être vraiment scientifique, CMJ ne fonctionne pas franchement mieux que RJB.

Et si on en revenait à la remarque de début d'article concernant les couleurs RVB ? Et bien, vous savez quoi ? Accrochez-vous bien ! Les couleurs primaires de la synthèse soustractive sont exactement les couleurs qui absorbent le RVB !... Le Magenta (ou le Rouge) absorbe le Vert, le Jaune absorbe le Bleu et le Cyan (ou le Bleu) absorbe le Rouge.

Voilà, c'est tout ce que je dirai sur la synthèse soustractive des couleurs. Si vous ne voulez pas vous noyer, souvenez-vous simplement que la synthèse soustractive utilise des pigments (peinture, encre, etc...) qui absorbent certains rayonnements (les complémentaires) et qui renvoient les rayonnements de leur propre couleur lorsqu'ils sont éclairés par de la lumière blanche.

LA SYNTHÈSE ADDITIVE

J'ai dit plus haut que Goethe décrivait la couleur comme la manifestation de l'éclaircissement de l’obscurité.

J'ai également dit plus haut que la notion de couleur était différente pour un peintre ou un photographe... je vais donc parler maintenant de la vision du photographe... On a vu jusqu'ici ce qu'il fallait utiliser pour transformer le blanc en couleurs (synthèse soustractive), nous allons maintenant envisager le cas de la transformation de l'absence de couleur (= noir) en couleurs par la synthèse additive !... Dans le cadre de la synthèse additive, on n'utilise plus des pigments mais des rayonnements lumineux colorés qui, combinés, créent les différentes couleurs. Ça ne parait pas comme ça mais ça change tout !...

En synthèse additive,

les couleurs primaires sont :
ROUGE
VERT
BLEU

Ces trois couleurs que tout le monde connait !... Vous commencez donc à comprendre pourquoi je disais en introduction à mon article que « la couleur n'a pas la même réalité chez une personne qui fait une photographie numérique couleur et, chez la même personne qui décide d'imprimer sa photographie numérique couleur »... Quand ce photographe crée sa photographie, il la crée en Rouge / Vert / Bleu, lorsqu'il la visualise sur l'écran de son ordinateur (ou sur une télévision, d'ailleurs), il la visualise en Rouge / Vert / Bleu, et à la seconde où il décide d'envoyer sa photographie direction son imprimante photo, il va l'imprimer en Cyan / Magenta / Jaune [plus le noir (voir plus haut pourquoi !) plus quelques couleurs intermédiaires s'il utilise une imprimante haut de gamme]... Et voilà d'où provient toute la difficulté de la photographie. Rassurez-vous, je parlais de photographie numérique mais ce paradoxe apparent est également valable pour le photographe argentique qui crée un film couleur en Rouge / Vert / Bleu, et qui va créer le positif sous l'agrandisseur en utilisant des filtres Cyan / Magenta / Jaune !...

Mais pourquoi doit-on remplacer le Jaune (en synthèse soustractive) par le Vert en synthèse additive ? Parce que l'œil humain voit les couleurs via ce que l'on appelle des cônes (des cellules spécialisées de l'œil) qui sont sensibles soit au Rouge, soit au Vert, soit au Bleu. Tous ceux parmi vous qui avez une connaissance minimum en peinture, vous allez me dire qu'il est impossible de fabriquer du Jaune en utilisant du Rouge / Vert / Bleu... et vous aurez raison MAIS il existe un phénomène physiologique dont je ne parlerai pas (cela n'a pas sa place dans un site de photographie) qui fait que lorsque l'œil humain recoit du Jaune, ses cônes sensibles au Rouge ainsi que ses cônes sensibles au Vert seront stimulés mais pas en même temps !... Il y aura des interférences dues à la rémanence et le cerveau sera berné en voyant du Jaune... DONC pour impossible et illogique que cela puisse paraître, l'œil humain fabriquera du Jaune avec du Rouge et du Vert !!!

Je ne vais pas reprendre toute la démonstration, vous pourrez recréer les couleurs secondaires, tertiaires (et plus !) en suivant le même raisonnement que pour la synthèse soustractive des couleurs MAIS en partant des nouvelles couleurs primaires Rouge / Vert / Bleu :

On obtiendra ainsi une « roue des couleurs » pour le moins différente !...

Notez qu'en synthèse additive, le mélange des 3 couleurs primaires fabrique du blanc. De même, la roue apparait sur un fond noir puisque seuls les rayons colorés sont visibles et créent une sensation visuelle.

Et de la même manière, chaque couleur trouvera sa couleur complémentaire exactement à l'opposé sur la roue des couleurs :


Ainsi, toujours en synthèse additive, la complémentaire du Rouge est le Cyan, la complémentaire du Vert est le Magenta, la complémentaire du Bleu est le Jaune... Ainsi, les couleurs complémentaires des couleurs primaires de la synthèse additive sont exactement les couleurs primaires de la synthèse soustractive !...

Mais attention : si les couleurs primaires (et donc les autres aussi) sont différentes selon le type de synthèse (additive ou soustractive), la complémentaire d'une couleur est toujours la même dans les deux systèmes (additif ou soustractif), seule la couleur résultante du mélange de la couleur et de sa complémentaire variera en fonction du type de synthèse ! Par exemple, si on prend le Bleu, sa complémentaire sera le Jaune dans les deux systèmes de synthèse MAIS Bleu + Jaune = Noir en synthèse soustractive ET Bleu + Jaune = Blanc en synthèse additive !!!! De même, et c'est peut-être encore plus difficile à concevoir : Le Noir est la complémentaire du Blanc MAIS si le Noir est l'absence de couleur en synthèse additive, le Blanc est l'absence de couleur en synthèse soustractive ET le Noir est la somme des couleurs primaires en synthèse soustractive alors que le Blanc est la somme des couleurs primaires en synthèse additive !!!

COULEURS CHAUDES / COULEURS FROIDES / TONS NEUTRES

Bien que la première réaction à la lecture de ce titre soit négative, à type de « mais en quoi un photographe peut être concerné par cette différenciation ? » je dirais que c'est comme pour les couleurs complémentaires, d'emblée ça ne présente aucun intérêt alors que nous verrons plus loin que la réalité est toute autre !...

Je me limiterai donc ici à définir ce que sont les couleurs chaudes et ce que sont les couleurs froides :

Les couleurs chaudes (qu'on peut entendre qualifiées d'actives) sont les couleurs qui avoisinent des teintes orangées (couleurs secondaires, tertiaires ou plus éloignées !) comme le rouge, le rose, le jaune, le bordeaux, le marron, et toutes leurs nuances.

Les couleurs froides (qu'on peut entendre qualifiées de passives) sont les couleurs qui avoisinent les teintes de bleu, vert, violet et toutes leurs nuances.

En fait on parle de couleur chaude lorsqu'elle nous fait ressentir une chaleur, et inversement. La couleur qui exprime le mieux les sensations de chaud est le rouge et pour le froid c'est le bleu. Bien que le vert soit considéré comme froid sa température se réchauffe si on lui ajoute du jaune... idem avec le violet qui se réchauffe si on lui ajoute du rouge... À l’inverse, le rouge est chaud et se refroidit quand on lui ajoute du bleu.

Existe-t-il une correspondance entre température de couleur et couleur chaude/froide ? C'est très simple, voici la température (en degré Kelvin) de quelques couleurs :

Plus la lumière est « froide », plus elle tirera vers le bleu et plus sa température Kelvin sera élevée. Plus elle est « chaude », plus elle tirera vers le rouge /orange, et plus sa température Kelvin sera basse. Donc à première vue, le rapport teinte/température de couleur est inversé et ce n'est pas en convertissant la température Kelvin dans une autre unité que cela changera quoi que ce soit (1.000 °K = 726,85 °C et 12.000 °K = 11726,85 °C) !!! MAIS alors pourquoi parler de température de couleur mesurée en Kelvin s'il n'y a aucun rapport ? Et bien, il y a un rapport !... La température exprimée en degrés Kelvin correspond à la température à laquelle une certaine substance (le corps noir) doit être chauffée pour émettre une onde lumineuse d'une certaine couleur... Ainsi, chauffer cette substance à 1.000°K nous permet de décrire un rayonnement rouge orangé, cette couleur sera dite couleur 1.000°K mais sera une couleur chaude alors que chauffer cette substance à 12.000°K nous permettra de décrire un rayonnement bleu, cette couleur sera dite couleur 12.000°K mais sera une couleur froide !... C'est con, mais c'est ainsi !... Une couleur est dite chaude si sa composition fait appel à du jaune (exception faite du rouge !) sinon elle est dite froide !... Donc on trouvera des couleurs chaudes et des couleurs froides dans chaque "famille" de couleurs ! Ainsi, dans la famille des rouges, le rouge tomate est une couleur chaude, le rouge framboise une couleur froide, dans la famille des verts clairs, le vert pistache est une couleur chaude, le vert émeraude une couleur froide, dans la famille des bleus foncés, le bleu encre est une couleur chaude, le bleu marine une couleur froide, etc, etc...

On parle de ton neutre pour qualifier les teintes issues du beige, du blanc, du noir, du gris et de toutes leurs nuances.

LES HARMONIES DE COULEUR

Voilà encore des notions qui peuvent paraîtres inutiles aux photographes, et pourtant... Essayez de créer une nature morte sans connaître les harmonies... vos chutes seront considérables...

Il existe plusieurs types d'harmonies :

LES COULEURS ADJACENTES [1] C'est l'association de 3 couleurs contigües sur la roue chromatique. Je n'ai fait figurer qu'un exemple sur le schéma, mais si vous faites tourner (de 3 valeurs !) le pointeur autour de l'axe de la roue chromatique, vous serez toujours dans l'harmonie... N.B. on parle également de couleurs analogues.

LES COULEURS COMPLÉMENTAIRES À DEUX TONS [2] Ce sont 2 couleurs complémentaires (voir plus haut) donc diamétralement opposées sur le cercle chromatique. Ce sont les couleurs qui créent le plus fort contraste (voir plus haut). Je n'ai fait figurer qu'un exemple sur le schéma, mais si vous faites tourner le pointeur autour de l'axe de la roue chromatique, vous serez toujours dans l'harmonie...

LES COULEURS COMPLÉMENTAIRES À TROIS TONS [3] sont composées d'une couleur X associée aux deux couleurs adjacentes à la complémentaire de la couleur X. J'ai bien peur de ne pas être très clair ici, donc voyez le schéma. Je n'ai fait figurer qu'un exemple sur le schéma, mais si vous faites tourner le pointeur autour de l'axe de la roue chromatique, vous serez toujours dans l'harmonie...

L'HARMONIE À TROIS TONS [4] est obtenue en associant 3 couleurs formant un triangle équilatéral sur le cercle chromatique. Là aussi, il est préférable de se référer au schéma. Je n'ai fait figurer qu'un exemple sur le schéma, mais si vous faites tourner le pointeur autour de l'axe de la roue chromatique, vous serez toujours dans l'harmonie...

L'HARMONIE À QUATRE TONS [5] est obtenue en associant 4 couleurs formant un rectangle sur le cercle chromatique. J'ai bien peur de ne pas être très clair ici non plus, donc voyez le schéma. Je n'ai fait figurer qu'un exemple sur le schéma, mais si vous faites tourner le pointeur autour de l'axe de la roue chromatique, vous serez toujours dans l'harmonie...

D'AUTRES HARMONIES existent mais je ne parlerai ici que de l'harmonie sur un ton qui est principalement utilisée avec des couleurs pastel claires (high key) l'harmonie ton sur ton est romantique. Il est surtout à noter que plus une couleur est saturée et plus elle a du mal à s'harmoniser avec une autre !... Pour le reste, n'oubliez pas que si ce que je vous livre ici représente les canons classiques de l'art, violer ces canons est également une forme d'art... aussi, libre à vous de créer des harmonies quitte à ce qu'en réalité elles ne soient que dissonances !...

LA « DISTANCE » DES COULEURS

Quand on regarde une image (une photo), certaines couleurs semblent être au premier plan et d’autres en arrière-plan, même si les objets colorés sont placés à exactement la même distance de l'objectif... Donc on peut dire que les couleurs ont une distance. Les couleurs chaudes sembleront plus proches de nous que les couleurs froides qui sembleront plus lointaines... Ce phénomène étant encore accentué si les bords de l'objet aux couleurs froides sont flous. Le phénomène s’observe autant dans la nature que sur l'image d'exemple ci-dessous !...



LA « TAILLE » DES COULEURS

Corolaire à la distance des couleurs, il nous semblera que parmi un groupe d'objets de taille et de forme identiques, ceux colorés de couleurs chaudes sembleront plus grands que ceux arborant une couleur froide.

LE « POIDS » DES COULEURS

Aussi incroyable que cela puisse paraître, les couleurs ont un « poids » !... Les couleurs donnent une impression de poids supérieur si elles sont foncées, et à l’inverse une couleur claire semblera plus légère. Cela permet de créer un certain équilibre dans l’image et/ou de donner une ambiance, car si une couleur sombre exprime la solidité et la force, une couleur plus claire exprimera la délicatesse et la légèreté.

LA « FORCE » DES COULEURS

Chaque couleur s'exprime différemment selon sa luminance et sa force. Les couleurs lumineuses comme le jaune ont une présence affirmée sans avoir besoin d'occuper de grandes surfaces. Le rouge est puissant et il semble sortir de l'image, une simple tâche rouge suffit pour attirer notre attention. Il a ainsi été attribué des valeurs décroissantes de luminosité aux couleurs : jaune 9, orange 8, rouge et vert 6, bleu 4 et violet 3.
9
8
6
6
4
3
Vous pouvez constater que le rouge et le vert ont la même valeur de luminance (un bleu ciel d'été aura également la même valeur). Cela ne vous étonnera nullement si vous avez déjà lu mes pages concernant le noir et blanc ici (entre autre !), je vous invite d'ailleurs vivement à (re)lire ces articles !...

Les rapports d'équilibre de couleurs peuvent se définir selon leurs valeurs de luminance. Plus une couleur a une valeur de luminance élevée et moins elle aura besoin de surface pour s'exprimer, et inversement. En surfaces égales, les couleurs complémentaires se heurtent, se combattent et se nuisent... On a ainsi pu déterminer des proportions idéales :
— Le orange est bien plus lumineux que le bleu, sa force d'attraction est bien supérieure. Si on accole une surface orange et une surface bleue, on ne verra que le orange... quelle que soit la quantité de orange par rapport au bleu jusqu'à atteindre une proportion 1/3 de surface de orange et 2/3 de surface de bleu où les deux couleurs s'équilibrent (elles ont trouvé une force identique !).
— Le rouge et le vert ont une même valeur de luminance. En proportion égale, ils s'harmonisent.
— Le jaune est bien plus lumineux que le violet, il dégage une grande force d'attraction. En proportion 1/3, 2/3 le jaune et le violet s'équilibrent de la même façon que le orange et le bleu.

LA « PSYCHOLOGIE » DES COULEURS

Même si nous n'en soyons pas conscients, les couleurs agissent sur nos émotions et nos états d'âme ! Les couleurs peuvent nous exciter (dans le sens stimuler ou énerver), nous détendre, nous déprimer, nous angoisser même...

Je me souviens de mes premières années de faculté : L'amphithéâtre de première année avait les murs bleus, celui de deuxième année avait les murs rouge. Vous avez certainement vécu une expérience analogue en d'autres circonstances. Cela n'était certainement pas du au hasard !... En première année, l'amphithéâtre était bondé, plein de galopins tout juste sortis de terminale, sûr d'eux (ils ont décroché le sézame !), plein de vie et d'énergie (on avait moins de 20 ans !), tous les paramètres étaient réunis pour amener au chao !... Les murs bleus de l'amphithéâtre (cela aurait également fonctionné avec du violet -couleurs froides-). En deuxième année, l'amphithéâtre était beaucoup moins bondé (un concours était passé par là !), les survivants se sont bien calmés, il fallait donc les stimuler un peu... les murs rouges étaient là pour ça (cela aurait également fonctionné avec du orange -couleurs chaudes-). Celà paraît peut être incroyable mais ça fonctionne !!!

Le rouge fait directement penser à la chaleur, c’est une couleur qui a du caractère et qui représente des émotions différentes et contradictoires. La couleur rouge peut représenter à la fois l’amour et la haine, la vie et la mort. Elle peut symboliser également la passion, la tentation, les émotions, le feu, la force, le luxe, le pouvoir, la puissance, l’énergie, la persévérance, le combat, le sang, l’agressivité, l’interdit, la colère et la détermination, le danger, ce n'est pas pour rien que les zones dangereuses ou les produits dangereux sont signalés en rouge.... Mais il représente aussi la beauté, la fête, le luxe, voire la luxure, tout ce qui a trait au péché dans les sociétés catholiques. Mais en extrême orient c'est plutôt une couleur divine.
Le rouge est une couleur stimulante, comme je l'ai fait remarquer dans l'introduction.

Le orange est également une couleur stimulante. La couleur orange représente l’audace, le rayonnement, l’intelligence, la loyauté, la chaleur, la confiance et la méfiance à la fois. Il est souvent associé à la sensualité, à l'enthousiasme, au confort, au plaisir. Il est censé avoir un effet favorable sur les rapports humains et combattre la dépression. Le orange peut être également un signal d'avertissement de danger mais à un degré moindre que le rouge. Voir les feux tricolores ou les gyrophares sur les lieux de travaux publics ou les véhicules lents.

Le jaune nous fait penser à la chaleur du soleil et à la richesse. Il est associé à l'optimisme, à la confiance en soi, à la joie de vivre, au blé mur, et bien entendu à l'or. Le jaune est une couleur gaie qui représente la joie, la tonicité et la douceur en même temps, l’énergie, l’opulence, l’intelligence, le dynamisme. Cependant, le jaune est aussi la couleur symbolique de la trahison ou du mensonge.

Le vert nous fait directement penser à la nature. Il représente le naturel, la fraicheur, l’équilibre mais il peut également représenter l’optimisme, la jeunesse, le calme, le bonheur, l’énergie, l’harmonie, la réussite, la permission, la sérénité, le repos, l'équilibre, la tranquillité.

Le bleu représente le froid, le calme, la sérénité, et favorise dit-on le travail intellectuel et la réflexion. En fait, quand on parle de bleu, on pense directement au ciel et à la mer. C’est pourquoi la couleur "bleu" représente la paix, le calme, la sérénité, la fraîcheur mais aussi l’infini. La couleur "bleu" reflète la lumière plus qu’elle n’en absorbe, c’est pourquoi même foncée elle garde son côté frais et vivant.

Le violet est une couleur royale qui représente la subtilité, le mystère, le romantisme, l’idéalisme, la protection, la mélancolie, la fraicheur, la pureté, la paix, l'autorité, l'opulence ou encore le luxe. On dit qu'il favorise l'inspiration, la méditation et la contemplation. Le violet foncé représente l’audace, l’assurance, la forte personnalité et l’originalité, il absorbe la lumière (contrairement au violet clair qui reflète la lumière et donne de la clarté) il est plutôt reposant, doux et élégant. S’il est foncé, il donne une impression de chaleur et s’il est clair, il donne, au contraire, une sensation de fraîcheur. En trop grande quantité, il peut susciter l'ennui ou rendre une ambiance étouffante.

Le rose symbolise la féminité, l'amour et la sexualité, le romantisme, le mystère, l’innocence, la séduction, la douceur et la vivacité en même temps, le calme, la paix, la sérénité, la fraîcheur, le sucré, la tranquillité et la confiance. Pâle, il a un effet apaisant mais vif il devient stimulant.

Le noir correspond à l'absence totale de lumière et donc de couleurs. On l'utilise pour mettre en valeur les autres couleurs ou les objets (écrins bijoux). Le noir a surtout des significations négatives dans les pays occidentaux, la couleur associée à la vieillesse et au deuil, à la peur, l’angoisse, l’inconnu, la mort, la perte et le vide. Mais le noir à la particularité de mettre en valeur les autres couleurs, textures ou objets qui se trouvent à ses côtés.

Le blanc par opposition au noir, correspond à la somme de toutes les couleurs réunies. Il évoque la clarté, la pureté, la propreté, le calme, la sérénité, la fraîcheur, l’innocence, la paix, la lumière mais aussi l’équilibre. La couleur blanche est une couleur neutre qui peut être froide ou chaude selon sa nuance mais en excès donne une impression de froid. C'est aussi la couleur du deuil dans les pays asiatiques.

Le gris représente la tristesse, la dépression, le désarroi, la solitude et la monotonie.

Le marron nous fait penser à la nature puisque c’est la couleur de la terre, du tronc des arbres, des feuilles en automnes mais c’est aussi la couleur des fourrures de nombreux animaux. C’est pourquoi d’ailleurs la couleur marron représente la douceur, le naturel, l’assurance, le rustique, la sérénité, le confort, la solidité, la stabilité, le calme et la chaleur. La couleur marron est une couleur neutre chaude.

COMPLICATIONS

Comme si ce n'était pas assez confus comme cela, il faut dire que tout ce que j'ai dit jusque là ne concernait que la lumière blanche MAIS la lumière n'est pas la seule à déterminer la couleur !... Puisque nous sommes sensés parler photographie, la lumière, si capitale soit-elle, ne serait rien sans un objet (un sujet) à photographier... Un objet peut être émetteur de lumière, mais il peut également réfléchir tout ou partie de la lumière qu'il reçoit (cas le plus fréquent !), mais il peut aussi transmettre tout ou partie de la lumière qu'il reçoit et ce de manière plus ou moins fidèle (filtration colorée par exemple), mais plus grave encore, selon sa composition, selon sa surface (lisse ou rugueuse), un objet peut à la fois réfléchir et transmettre la lumière (ou émettre et transmettre) !!!

Prenons un exemple "concret" : une superbe pomme rouge (ou une tomate d'ailleurs !) éclairée par le soleil (ou une source de lumière blanche) nous parait rouge car elle absorbe toutes les couleurs sauf le rouge qu'elle réfléchit. Si on décidait, pour faire de « l'art », d'éclairer cette pomme rouge par une lumière jaune, quelle couleur aura la pomme sur notre photo ? Rouge bien sûr, puisqu'il s'agit de lumière on se retrouve en synthèse additive donc Jaune = Rouge + Vert. Et que fait la pomme ? Elle absorbe toutes les couleurs sauf le rouge qu'elle réfléchit !... Pour « l'art », c'est raté !... Imaginons maintenant que nous décidions d'éclairer notre pomme rouge avec de la lumière bleue (ou verte), de quelle couleur sera notre pomme rouge ? Noire bien sûr ! Nous sommes toujours dans le cadre de la synthèse additive, la lumière bleue (ou verte) sera absorbée par la pomme donc aucune couleur ne sera réfléchie (puisqu'il n'y a pas de rouge dans cet éclairage !) et en synthèse additive l'absence de couleur se traduit par... du noir !... Et vous aurez beau augmenter la puissance de votre lumière bleue, la pomme sera toujours aussi noire... il n'y a là aucune relation avec une luminosité insuffisante !... Donc l'objet intervient directement dans la création des couleurs !...

Une anecdote sympa : pourquoi les substances fluorescentes paraissent très brillantes ? Parce qu'elles ont une couleur différente ? Non, pas du tout ! C'est simplement parce que leur composition chimique permet de rendre visible des radiations normalement invisibles à l'œil nu ! Donc, ces substances seront claires grâce à la réflexion de la lumière visible additionnée de la partie invisible du spectre devenue visible !... C'est le cas des surligneurs qui ne dessinent que de bêtes traits jaunes mais qui sont bien plus lumineux que tous les jaunes que l'on peut imaginer puisqu'une partie des ultraviolets deviendra visible !...

Mais un autre paramètre entre dans le jeu : le spectateur ! En effet, aussi efficace que soit l'œil , il ne percevra la couleur d'un objet qu'en fonction de la couleur environnante ! En fait du contraste entre les couleurs et de la saturation des différentes couleurs. Si l'œil est capable de donner les mêmes résultats qu'un appareil de mesure de la lumière, l'interprétation due au cerveau va entrainer des déformations de la couleur réelle !... Il s'agit d'illusions... Ainsi, un gris sur fond blanc paraîtra plus foncé que le même gris sur fond noir. Une couleur tend à se colorer légèrement de la complémentaire de la couleur d'arrière plan. Les couleurs semblent plus intenses sur fond blanc (même si couleurs claires) et plus lumineuses sur fond noir (même si couleurs sombres).

C'est par la lumière réfléchie qu'un objet nous paraît coloré (je l'ai dit plus haut). Le blanc renvoie toutes les lumières tandis que le noir les absorbent toutes. l'œil peut apprécier la blancheur d'une feuille de papier sous différentes conditions d'éclairage (même coloré) mais les appareils photographiques n'y parviennent pas. Le réglage de l'équilibre (la balance) des blancs de l'appareil photographique numérique propose, dans une certaine limite, de ré-équilibrer les couleurs pour plus de neutralité. L'éclairage artificiel ne reproduit que partiellement la lumière blanche voire induit une forte dominante (par exemple, un éclairage néon induira une forte dominante verte) et même en lumière naturelle on aura des surprises, l'ombre ou le temps gris produisent des images froides légèrement bleutées.

Autre complication pour le photographe, complication probablement encore plus importante (!!!), la photographie imprimée ne correspond plus à ce qu'elle était à l'écran !... Cela est très logique, voyons cela. La photo imprimée est affectée par la lumière sous laquelle elle est visualisée, comme toute chose... Vous pouvez observer le même phénomène lorsque vous achetez du papier peint par exemple. Dans le magasin (souvent éclairé au néon) il aura une certaine couleur, arrivé chez vous il aura une autre couleur et en plein soleil encore une autre couleur !... Cela se produit parce que le spectre lumineux de l’éclairage artificiel comporte des trous. Si les couleurs qui manquent correspondent à celles du papier peint, celles-ci ne seront pas illuminées et apparaîtront sombres... Il est donc indispensable de se placer dans les mêmes conditions pendant toute la phase de création de nos images, du travail à l'écran jusqu'à l'exposition de l'épreuve imprimée !... Je vous donnerai plus loin le modus operandi.

Mais au-delà même des techniques de reproduction des couleurs, il est quasiment impossible de parler de couleurs réelles... Pour juger de l'exactitude d'une reproduction colorée, il faudrait analyser à l'aide d'un spectro-colorimètre les différentes zones des photos et déterminer si elles ont été correctement reproduites. On ne peut pas dire que ce soit faisable donc les couleurs réelles du sujet photographié ne peuvent jamais servir de référence... Dans la vraie vie, c'est le phénomène de mémorisation des couleurs qui nous permet de dire si les couleurs d'une épreuve sont conformes au souvenir que nous avons du sujet original. En photographie noir et blanc, c'est l'absence d'information colorée potentiellement erronée qui donne toute la puissance aux images puisque les couleurs du souvenir se collent parfaitement à l'image physique (la photo imprimée). On sait que les couleurs de mémoire (ou de souvenir) ont des teintes très proches de la couleur réelle mais plus saturée et plus lumineuse. Donc quelle que soit la qualité de la reproduction des couleurs sur nos photographies, le photographe sera toujours frustré puisqu'il ne retrouvera pas cette saturation ni cette luminosité stockées en mémoire !... Et ça va même plus loin puisque des psychologues ont prouvés qu'il existait une troisième vision des couleurs, on les appelle couleurs préférées... Donc, oubliées les couleurs réelles, oubliées les couleurs de souvenir, on recherche tous nos couleurs préférées pour chaque élément de nos photos !...

LE NOM DES COULEURS

Nous avons déjà dit beaucoup de choses au sujet des couleurs, reste à différencier ces couleurs. Le meilleur système de différenciation reste encore le nom ! Donc les couleurs ont des noms !... Le problème c'est que pour une meilleure intégration, il est impossible de se baser sur un système type État Civil !... Je vais donc vous donner ici quelques couleurs avec leur nom "poétique" ainsi que leur nom dans 3 systèmes de palettes le RVB, le TSL et le HTML (j'aurais pu ajouter d'autres systèmes -comme CMJN- mais à quoi bon !). Tous les noms seront associés dans un tableau, pour ce qui est des autres systèmes, j'en reparlerai plus bas dans le paragraphe !...

N.B. : ma représentation des couleurs n'est peut-être pas très exacte, je n'ai pas utilisé de nuancier professionnel ni de colorimètre pour les recréer, mais elle vous donnera un bon aperçu des familles des 3 couleurs primaires RVB (en partie du moins) !...


TEINTES DE ROUGE (OU FAMILLE DE ROUGE) *
Aspect
Nom
RVB
TSL
HTML
 
Alizarine
198-47-37
3-175-118
#C62F25
Amarante
134-51-62
249-114-93
#86333E
d'Andrinople
154-40-19
7-199-87
#9A2813
Anglais
229-65-38
6-195-132
#E24126
Aniline
216-52-31
5-191-124
#D8341F
Bismark
152-51-25
9-183-89
#983319
Bordeaux
116-21-9
5-218-63
#741509
Bourgogne
131-28-37
251-165-80
#831C25
 
Brique
122-52-32
9-149-77
#7A3420
Capucine
236-106-84
6-204-160
#EC6A54
Cardinal
168-51-29
7-180-99
#A8331D
Carmin
136-29-31
254-165-83
#881D1F
Cinabre
200-53-28
6-192-114
#C8351C
Coquelicot
182-44-23
6-198-103
#B62C17
Corail
212-78-31
11-190-122
#D44E1F
Cramoisi
210-54-65
252-147-128
#C93641
Écarlate
232-62-34
7-207-133
#E84322
Écrevisse
173-51-23
8-195-98
#AD3317
de Falun
117-34-28
3-157-73
#75221C
Feu
233-63-34
6-209-134
#E93F22
Fraise
175-63-54
3-135-115
#AF3F36
Fraise écrasée
150-49-41
3-146-96
#963129
Framboise
182-63-76
250-124-123
#B63F4C
Garance
218-55-37
4-181-128
#DA3725
Grenadine
214-75-71
1-162-143
#D64B47
Grenat
100-25-25
0-153-63
#641919
Groseille
189-47-40
2-166-115
#BD2F28
Incarnat
237-122-129
252-194-180
#ED7A81
Mars
226-65-38
6-195-132
#E24126
Nacarat
233-107-98
3-192-166
#E96B62
Passe-velours
134-51-62
249-114-93
#86333E
Ponceau
182-44-23
6-198-103
#B62C17
Pourpre
144-39-67
244-146-92
#902743
Rosso corsa
193-45-26
5-194-110
#C12D1A
Rouge
232-56-33
5-207-133
#E83821
Rouge-violet
182-58-133
229-132-120
#B63A85
Rouille
168-72-29
13-180-99
#A8481D
Rubis
205-57-98
243-152-131
#CD3962
Sang
120-26-15
4-198-68
#781A0F
Sang de bœuf
104-23-6
7-227-55
#681706
Tomate
203-63-38
6-175-121
#CB3F26
Tomette
161-80-56
10-123-109
#A15038
Turc
154-40-19
7-199-87
#9A2813
Terracotta
188-88-95
252-109-138
#BC585F
Vermeil
233-59-48
3-206-141
#E93B30
Vermillon
210-81-62
5-159-136
#D2513E
TEINTES DE VERT (OU FAMILLE DE VERT) *
Aspect
Nom
RVB
TSL
HTML
Absinthe
149-214-81
63-158-148
#95D651
Amande
144-191-111
68-98-151
#90BF6F
Anglais
31-53-32
87-67-42
#1F3520
Anis
174-225-92
59-176-159
#AEE15C
Asperge
130-156-94
60-63-125
#829C5E
Avocat
96-124-19
54-187-72
#607C13
Bouteille
46-102-15
70-190-59
#2E660F
Céladon
139-164-150
104-31-152
#8BA496
Chartreuse
205-240-69
51-217-155
#CDF045
de Chrome
32-54-28
79-81-41
#20361C
Citron
117-245-41
69-232-143
#75F529
d'Eau
190-237-185
81-151-211
#BEEDB9
Émeraude
98-207-93
83-138-150
#62CF5D
Épinard
43-84-48
90-82-64
#2B5430
Gazon
86-151-42
68-144-97
#56972A
Glauque
113-152-136
110-41-133
#719888
de Hooker
40-75-9
65-200-42
#284B09
Impérial
34-82-28
80-125-55
#22521C
Jade
159-228-147
79-153-188
#9FE493
Kaki
123-133-58
48-100-96
#7B853A
Lichen
145-188-128
73-79-158
#91BC80
Lime
180-244-73
58-226-159
#B4F449
Malachite
77-154-87
91-85-116
#4D9A57
Mélèze
69-107-73
89-55-88
#456B49
Menthe
85-176-81
83-96-129
#55B051
Menthe à l'eau
135-241-144
89-202-188
#87F190
Militaire
90-100-68
56-49-84
#5A6444
Mousse
115-154-92
69-64-123
#739A5C
Olive
117-137-43
52-133-90
#75892B
Opaline
167-220-199
111-110-194
#A7DCC7
Perroquet
122-233-84
74-197-159
#7AE954
Pin
52-118-111
123-99-85
#34766F
Pistache
201-239-122
56-200-181
#C9EF7A
Poireau
100-160-110
92-61-130
#64A06E
Pomme
102-193-49
69-152-121
#66C131
Prairie
123-205-68
68-147-137
#7BCD44
Prasin
99-161-108
91-63-130
#63A16C
Printemps
118-246-131
89-224-182
#76F683
Sapin
34-78-39
90-100-56
#224E27
Sauge
116-153-114
83-41-134
#749972
Smaragolin
98-208-93
83-140-151
#62D05D
Tilleul
173-203-89
54-133-146
#ADCB59
Véronèse
93-107-49
53-95-78
#5D6B31
Vert
55-122-15
69-199-69
#377A0F
Vert-de-gris
151-164-149
79-19-157
#97A495
de Vessie
60-113-23
68-169-68
#3C7117
Viride
81-128-110
111-57-105
#51806E
TEINTES DE BLEU (OU FAMILLE DE BLEU) *
Aspect
Nom
RVB
TSL
HTML
Acier
83-143-184
145-106-134
#538FB8
 
Aigue-Marine
155-245-246
128-213-201
#9BF5F6
 
Azur
62-137-252
153-247-157
#3E89FC
 
Azur Clair
139-208-239
141-193-189
#8BD0EF
 
Azurin
184-233-253
140-241-219
#B8E9FD
 
Barbeau
249-250-249
85-23-250
#5B75AC
 
Bleu
23-65-250
162-244-137
#1741FA
 
Bleuet
91-117-172
156-84-132
#5B75AC
 
Bondi
68-148-180
140-115-124
#4494B4
 
Cæruleum
55-124-165
143-128-110
#4494B4
Canard
62-137-152
135-107-107
#3E8998
Céleste
97-194-234
140-195-166
#61C2EA
Charrette
146-164-196
155-76-171
#92A4C4
Ciel
135-184-252
152-243-194
#87B8FC
Cobalt
43-69-121
156-121-82
#2B4579
Cyan
120-251-254
129-251-187
#78FBFE
Denim
49-102-186
154-149-118
#3166BA
Dragée
227-243-255
146-255-241
#E3F3FF
Égyptien
31-64-163
159-174-97
#1F40A3
Électrique
69-128-252
156-247-161
#4580FC
de France
79-145-228
151-187-154
#4F91E4
Fumée
192-210-224
146-87-208
#C0D2E0
Givre
147-206-206
128-96-177
#93CECE
Gris de lin
208-205-235
174-109-220
#D0CDEB
Horizon
130-144-165
153-42-148
#8290A5
Indigo
104-69-251
178-244-160
#6845FB
Klein
23-61-164
159-192-94
#173DA4
Lavande
148-140-234
174-176-187
#948CEA
Majorelle
96-96-217
170-157-157
#6060D9
Marine
6-28-126
162-232-66
#061C7E
Maya
136-196-249
147-231-193
#88C4F9
des Mers du sud

94-200-5202

128-129-148
#5EC8CA
Minéral
44-68-90
148-88-67
#2C445A
de Minuit
19-55-100
151-174-60
#133764
Nuit
15-23-105
166-191-60
#0F1769
Outremer
26-37-152
166-181-89
#1A2598
Paon
53-118-143
139-117-98
#35768F
Pastel
93-117-152
153-61-123
#5D7598
Persan
96-69-251
176-244-160
#6045FB
Pervenche
205-208-253
167-235-229
#CDD0FD
Pétrole
40-71-80
137-85-60
#284750
de Prusse
44-68-90
148-88-67
#2C445A
Saphir
25-65-178
159-192-102
#1941B2
Sarcelle
56-126-128
129-100-92
#387E80
Smalt
21-61-151
157-193-86
#153D97
Tiffany
87-183-180
126-102-135
#57B7B4
Turquin
73-93-137
157-78-105
#495D89
Turquoise
123-248-231
122-229-186
#7BF8E7

* on place généralement le nom de la famille de couleur devant le nom de la couleur DONC, par exemple la couleur Nuit se dit Bleu-Nuit.

LES COULEURS PAR LEUR NOM
Le petit nom des couleurs est sympa et très poétique... seulement voilà, si je vous demandais de dessiner une forme Zinzolin dans votre logiciel de traitement d'image, à quoi penseriez-vous ? (non ! ne le dites pas !). Si je vous demandais maintenant de dessiner une forme RVB(98-34-118), ou une forme TSL(202-141-76) ou une forme HTML : #622276 (ou autre...) cela ne poserait plus le moindre problème à qui que ce soit !... Dans ces conditions, il fallait bien trouver un moyen plus fiable pour définir (et nommer) une couleur puisque même les nuanciers professionnels ne sont pas très parlants : Pantone 527, RAL 4005 (etc...) !!!...

LES COULEURS PAR MÉLANGE Rouge Vert Bleu (ou RVBAlpha) ou Cyan Magenta Jaune Noir
Bien sûr, et vous serez certainement de mon avis, je préfère -et de loin- parler de Bleu-Céleste plutôt que de RVB(97-194-234) !... Mais ce système de nomination et de codage est souverain dès lors que l'on travaille en photographie. Lorsque l'on se penche sur la création d'une image numérique (ainsi que son post traitement) ou de son affichage sur écran, ou que l'on crée un négatif argentique, on ne peut que travailler en RVB puisque nous nous plaçons en synthèse additive des couleurs. Chaque couleur primaire peut avoir une valeur comprise entre 0 et 255. Ainsi en notant RVB(rrr-vvv-bbb) on comprendra que la couleur rouge aura la valeur rrr, la verte la valeur vvv et la bleue la valeur bbb. Il faut préciser, mais c'est moins connu, qu'il existe une autre notation qui prend en compte la transparence de la couleur via la couche Alpha, ce système s'appellera RVBA, la valeur de transparence Alpha est comprise entre 0 et 1. Je n'en dirai pas plus ici. Dès lors qu'il s'agit d'imprimer notre photographie numérique ou de travailler notre négatif sous agrandisseur couleur, on ne travaillera plus en RVB mais en CMJN puisqu'on se placera dans le cadre de la synthèse soustractive des couleurs et on codera les couleurs en CMJN, dans ce cas on obtiendrait CMJN(0,585-0,171-0-0,082) ou CMJN(58-17-0-8) puisqu'il s'agit de pourcentages. Sachez qu'il est possible de traduire les valeurs RVB en CMJN (et inversement) MAIS puisque le codage RVB ne possède que 3 valeurs alors que le codage CMJN en possède 4, la traduction RVB—>CMJN ne posera aucun problème alors que la traduction CMJN—>RVB entrainera une perte d'information aboutissant à l'obtention d'une couleur différente même si similaire !...

LES COULEURS PAR Teinte Saturation Luminosité
Bien sûr, et vous serez certainement de mon avis, je préfère -et de loin- parler de Vert-Émeraude plutôt que de TSL(83-138-150) !... Mais voilà, ce système TSL de nomination et de codage des couleurs est simple et bigrement naturel !!! Pour choisir une couleur, qu'il s'agisse d'encre, de peinture ou de numérique, la logique primitive consisterait à commencer par choisir une teinte (rouge, bleu, vert, jaune, etc...) puis l'intensité de cette teinte (claire, foncée, intense, légère, etc...). Redire tout cela dans un vocabulaire plus technique se traduirait par choix de la teinte, puis de la saturation et enfin de la luminosité. En d’autres termes : TSL... Le système TSL est une représentation de synthèse additive donc de RVB. NB: on peut parler également de TSV (teinte-saturation-valeur).
Comment créer sa couleur en TSL ? C'est simplissime :
1) choisir sa teinte (c'est à dire la couleur primordiale dans le choix des couleurs du spectre lumineux (exemple : rouge ou vert ou bleu ou jaune ou etc...)

2) choisir l'expression de cette teinte, ou en d'autres termes, sa saturation ou sa pureté. Dans cette échelle, on peut faire varier la teinte de sa valeur la plus pure jusqu'à une valeur de gris (soit son expression monochrome).

3) il ne reste plus qu'à choisir la luminosité que doit avoir cette teinte exprimée, elle peu être éblouissante, terne voire totalement éteinte (noir).


LES COULEURS PAR CODE HTML

Bien sûr, et vous serez certainement de mon avis, je préfère -et de loin- parler de Rouge-Corail plutôt que de #D44E1F !... Mais le codage HTML sert à créer les couleurs pour un affichage web qui n'a que faire des jolis noms !... Le codage HTML servant à l'affichage écran, nous sommes dans un système de synthèse additive des couleurs, donc une représentation de RVB. Le code HTML est en fait une simple représentation hexadécimale des valeurs de Rouge/Vert/Bleu, chaque couleur primaire pouvant avoir une valeur allant de 00 à ff (rappel pour ceux qui ne sont pas matheux, en base 16 la numérotation des chiffres est la suivante : 0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F). Ainsi le code HTML se base sur #rrvvbb où le rouge aura la valeur rr, le vert la valeur vv et le bleu la valeur bb.

LES COULEURS DANS D'AUTRES SYSTÈMES
Il existe encore de nombreux autres systèmes mais sans intérêt dans le cadre de cet article donc je n'en parlerai pas...

UTILISATION EN PHOTOGRAPHIE

Bien, je pense avoir livré assez de notions sur les couleurs... voyons maintenant ce que l'on peut en faire dans la pratique photographique courante.

LES SUBTILITÉS EN COULEURS
Si on souhaite pratiquer en couleurs le sport typique de la photographie noir et blanc, à savoir le fort contraste, il faut utiliser le plus possible la juxtaposition des couleurs complémentaires.

AMÉLIORER LE RENDU D'UNE PHOTO
Pour maquiller le modèle dans le cadre de la photographie de portrait, il existe deux techniques :
1) le maquillage direct, comme le ferait chaque femme devant son miroir.
2) le maquillage indirect en utilisant des filtres colorés à placer devant son objectif.
Les rougeurs se corrigeront avec du vert, les hématomes bleutés ou les veines bleues s’atténuent avec de l'orange. Les cernes violacées s’atténuent avec du jaune, etc...

AMÉLIORER LA PROFONDEUR DE CHAMP
Je vous ai parlé des valeurs TSL des couleurs. Pour créer un effet de distance, il suffit de réduire la saturation et la luminosité... cela est faisable en utilisant des filtres, ou, mieux, en modifiant en post traitement informatique ces valeurs. En effet, quand on observe un paysage, les collines situées au loin possèdent des couleurs et une luminosité plus atténuées que les éléments au premier plan. L’effet s’accentue par temps de brume ou de brouillard. Pour reproduire au mieux cette observation, voire pour l'accentuer, il suffit de diminuer la saturation et la luminosité des couleurs du paysage à mesure que le sujet s'éloigne vers l’horizon...

De même, l’œil place inconsciemment les couleurs chaudes devant les couleurs froides. Par exemple, des objets orange placés au premier plan d’une scène paraîtront plus proches que les mêmes objets de couleur bleue. On modifiera donc la température des couleurs pour souligner la distance... Et on peut également donner une sensation de température à une photographie en créant une petite dominante colorée. Là se trouve tout l'intérêt des filtres...

AMÉLIORER LA SENSATION DU TEMPS
On jouera sur la saturation pour souligner (ou créer !) l’heure de la journée : au lever ou au coucher du soleil les couleurs paraissent moins saturées et sont difficiles à distinguer, elles se diluent entre elles ; en plein midi par beau temps, en revanche, les couleurs sont plus saturées et plus nettes.

AMÉLIORER LA SIGNIFICATION D'UNE IMAGE
On peut travailler l’ambiance des photos en employant des bleus et des verts pour donner une impression de calme et de repos. Les rouges et oranges dégagent une atmosphère de passion et d’intensité. Voilà un rôle peu connu de l'utilisation des filtres !... Dans des scènes créées de toute pièce, comme les natures mortes par exemple, on peut créer une famille de couleurs pour unifier les composantes de l'image. En unifiant dans une même image des tons chauds pour le sujet et froids pour le décor, vous crée une atmosphère de tension dans un environnement calme ce qui donnera du temps à la lecture, comme avec un ralenti en vidéo...

De même, donner une légère dominante jaune à une image de sècheresse, augmentera considérablement la sensation de sècheresse. Créer une dominante rouge ou orange à une scène représentant les tropiques (par exemple) augmentera la sensation de chaleur dans l'image. Créer une dominante bleue à une scène de neige augmentera la sensation de froid dans l'image.

COMPRENDRE LA REPRÉSENTATION DES COULEURS
On dit que la nuit, tous les chats sont gris... cela dit bien que les couleurs n'existent que grâce à la lumière, c'est la lumière qui rehausse les couleurs. Un bon éclairage sature les couleurs et un temps de brouillard donne des tons pastel. Le photographe débutant oublie souvent que la connaissance et la maîtrise de la lumière conditionnent le rendu des couleurs tout autant, sinon plus, que la retouche et la gestion des couleurs dans le flux de production (workflow). Essayez d'observer la couleur d'une pelouse dos au soleil et la même pelouse soleil de face et vous comprendrez comment et combien l'éclairage participe à restituer ou à modifier les couleurs...

Une couleur vive retient l'attention. De ce fait, l'abondance de couleurs vives nuit à la compréhension de l'image. De telles compositions sont rares dans la nature ! L'éclairage direct favorise la mise en valeur des couleurs vives. La couleur saturée est un élément de la composition, elle crée une ligne de contour (de luminance ou de contraste) avec la couleur voisine.

Une couleur pastel est plus diluée. Le pastel est souvent associé à un filtre diffus pour créer un flou artistique. Les lignes de séparation sont moins tranchées et les contours moins marqués. Une couleur pastel est révélée par un éclairage diffus ou indirect et des couleurs non saturées.

Le contre-jour dénature et désature les couleurs.

L'alternance ombre/lumière fait basculer une même surface colorée du clair au sombre. Cette variation ombre/lumière, comme en noir et blanc, crée la sensation de relief et donne la profondeur à l'image et plus encore s'il y a accord entre couleurs complémentaires.

Une couleur lumineuse aura besoin d'une petite surface pour s'exprimer alors qu'une couleur sombre nécessitera une grande surface pour s'affirmer. Un violet ne sera jamais lumineux. Le jaune est la couleur la plus lumineuse et il contraste avec une couleur sombre. Le bleu, le vert et le rouge peuvent varier en intensité. Les couleurs vives expriment la gaieté, l'élan et elles donnent du dynamisme à l'image. L'œil est instinctivement attiré par les valeurs claires d'une image d'où la nécessité, en numérique, de bien exposer à droite de façon à conserver le maximum d'information dans les zones claires. L'œil continuera à détailler ces valeurs claires tant qu'il percevra de la matière (texture). Les couleurs cassées sont rencontrées partout mais elles restent moins expressives, ce sont des couleurs d'accompagnement ou d'arrière plan. La couleur métallique est particulière et parfois difficile à traduire. Elle s'accompagne de reflets, non polarisables, elle possède une forte modulation entre l'ombre et la lumière, directement liée à son aspect de surface. La couleur métallique est unique et différente selon qu'elle est vernie, polie, structurée ou lisse... L'éclairage diffus ou rasant met en valeur, selon le cas, la couleur métallique et l'aspect de l'objet.

Les tons chair mettent la peau en valeur. Légèrement chaud, le rendu des tons chair est très difficile, quel que soit le support (pellicule, capteur numérique, imprimante/papier).

Les tons chauds, aussi appelés tons majeurs, mettent également la peau en valeur mais ils affectent l'ensemble de l'image. Les tons chauds varient du jaune à l'orangé jusqu'au rouge et pourpre rouge. Une dominante jaune orangée est celle d'un lever ou d'un coucher de soleil et elle reste agréable. Les tons chauds sont propices à traduire une ambiance intimiste, rassurante, paisible. L'éclairage domestique au tungstène provoque une dominante rouge orangée.

Les tons froids (les bleus, les verts et les violets) aussi appelés tons mineurs, provoquent une sensation de détente ou de mystère. Le violet est souvent associé au sentiment de tristesse. Si l'oeil se satisfait plus aisément de la présence d'une dominante chaude, il détecte la dominante froide pour lui donner un sens. Ce sont les tons des matins brumeux, des fonds sous-marins, de l'ombre. Nostalgie, romantisme, rêverie s'associent aux tons froids.

La lumière d'une fenêtre orientée au nord sera froide et le temps gris augmente la température de couleur donnant des tons bleutés. Enfin le bleu et le vert sont moins dominants, ils constituent souvent des couleurs d'arrière plan. A noter également que les lointains apparaissent naturellement bleutés.

Attention, contrairement à tout ce qui est dit partout, la représentation exacte des couleurs n'est pas (ou ne devrait pas être) la priorité du photographe. L'utilisation de tons chauds ou de tons froids procure une perception différente et modifie le contraste de l'image, c'est de cette façon que le photographe créera une œuvre et ne se contentera pas de faire une bête reproduction de la réalité... L'usage du format RAW facilite grandement la gestion de la température de couleur en post-traitement... encore un bon argument pour ne pas se faire prier de l'utiliser !...

CORRIGER INTELLIGEMMENT UNE DOMINANTE COLORÉE
Vous vous êtes surement déjà retrouvés avec une photo verdâtre due à un éclairage néon (ou orange due à un éclairage public, etc...) ? Nous allons voir comment modifier les couleurs des photos (ratées) en corrigeant simplement ces dominantes de couleur. En fait, la réponse est déjà comprise dans les lignes de cet article, je ne vais donc que la sortir de la masse de données en la reformulant !... Lorsque je prends une photo, mon capteur travaille en synthèse additive des couleurs, il enregistre trois couleurs : le rouge, le vert et le bleu. Ces trois couleurs additionnées forment la lumière blanche. En additionnant 2 à 2 ces couleurs primaires, on obtient 3 nouvelles couleurs : le cyan, le magenta et le jaune. En fait, on a trouvé 3 couleurs complémentaires aux couleurs originales. C’est-à-dire que le cyan est la complémentaire du rouge, le jaune celle du bleu et magenta celle du vert. Et réciproquement (le rouge est la complémentaire du cyan, le bleu celle du jaune, le vert celle du magenta). Pour dire les choses autrement, on peut annuler une couleur en lui adjoignant sa couleur complémentaire. Ainsi, si j’ai une photo avec une teinte verdâtre je vais devoir ajouter du magenta dans mon image afin de neutraliser la dominante verte. Ou, si ma photo est présente une dominante bleue je vais devoir ajouter du jaune pour corriger. C'est aussi bête que ça !... Cet article sur la théorie des couleurs a tout de même du bon !...

Bien sûr, les logiciels de traitement d'image proposent des pipettes pour effectuer une balance des blancs, mais l'efficacité est parfois discutable. On sait maintenant qu'il est plus intelligent de jouer avec d'autres paramètres. La température permet de corriger les dominantes de bleu et de jaune. La teinte permet de corriger les dominantes de vert et de magenta. Bon, vous me direz avec raison que cela ne me permet pas de corriger les dominantes de rouge ou de cyan !... Pas de panique, pour effectuer cela, il reste les courbes qui fonctionnent exactement sur le principe des couleurs complémentaires de la roue chromatique. On retrouve donc dans les courbes les trois couches constituant les couleurs de l'image : rouge, vert et bleu (RVB). Il suffit de sélectionner une des couches (sur laquelle on veut agir). Prenons celle du rouge par exemple. Si on tire le centre de la courbe vers le haut, on va ajouter du rouge dans l’image. Si on le tire vers le bas, on va ajouter du cyan (la complémentaire du rouge) dans l'image. Pour généraliser, si on tire la courbe vers le haut on ajoute la couleur de la couche sélectionnée et si on la tire vers le bas on ajoute la couleur complémentaire de cette couche. C'est aussi bête que ça ! Encore fallait-il le savoir, encore fallait-il y penser !...

TENDRE VERS UNE REPRODUCTION FIDÈLE DES COULEURS
Je viens juste de dire (plus haut) que la reproduction exacte des couleurs ne devrait pas être la priorité du photographe. Certes j'en suis persuadé (sinon je ne l'aurais pas écrit !!! ) mais ceci n'est vrai que lors de la création de son image. Par création, j'entends prise de vue et post traitement. Le passage par l'imprimante (ou l'agrandisseur) est une autre étape et cette étape doit obligatoirement reproduire exactement ce que le photographe a voulu créer lors de la phase de création... sinon à quoi bon créer si le matériel finit par faire ce qu'il veut !...

Tiens, c'est tout de même étrange, non ? Je viens de séparer la naissance d'une image en deux temps... Non ? Rien ne vous choque ? Et bien oui... dans le premier temps on travaille en synthèse additive des couleurs, en RVB, alors que dans le deuxième temps on travaille en synthèses soustractive des couleurs, en CMJN !... Et ensuite vous viendrez me dire que tout cela est simple ? Non, bien sûr, mais il y a moyen de s'en sortir, en prenant quelques précautions et en s'astreignant à une discipline intellectuelle... Voici quelques tuyaux, la règle d'or étant de réfléchir par étape (une réflexion globale nous fait oublier des paramètres !), il faut :
1) Obtenir des couleurs fiables à l’écran
2) Permettre une perception juste des couleurs à l’écran
3) Prévoir le travail de l’imprimante
4) Imprimer dans les règles de l’art
5) Permettre la visualisation des vraies couleurs lorsqu’on observe le résultat
6) Assurer la pérennité des vraies couleurs

Oh que cela semble rébarbatif !... Alors que pas du tout !... Voyons cela :
1) Obtenir des couleurs fiables à l’écran
Vous avez créé une image avec votre vision des couleurs. Mais il faut que ces couleurs se répercutent sur votre œuvre et ne restent pas cantonnées dans votre esprit !... Il faut que vous soyez en mesure de les retrouver sur votre écran d'ordinateur avant de débuter le post traitement !... Et cela nécessite un calibrage pointu de votre matériel ! De l'écran, certes, mais du matériel d'acquisition également !... Eh oui, le photographe a toujours tendance à oublier ce qu'il aime le plus au moment où il ne devrait surtout pas l'oublier !... Il ne faut pas oublier de calibrer son appareil photo numérique (ou son scanner selon le type d'acquisition envisagé).
Je vous ai déjà parlé de tout cela sur d'autres pages... Je ne vais pas y revenir, il est indispensable de se procurer un système de calibration, qui associé à un logiciel, va vous permettre de calibrer aussi bien votre appareil photo que votre scanner que votre écran !!!...

2) Permettre une perception juste des couleurs à l’écran
Tout votre matériel est calibré, mais croyez-vous sincèrement que vous verrez les couleurs affichées à l'écran de façon efficace si vous plongez votre bureau dans un éclairage psychédélique (rouge ou bleu etc...) ? Non bien sûr ! Y aviez-vous pensé avant ? Non bien sûr !... Alors, autant plonger son laboratoire dans le noir... Grand Dieu, non !!!! Si l'ambiance lumineuse de la chambre claire est trop sombre, vous verrez votre écran beaucoup trop clair et vous traiterez vos images de façon à ce qu'elles soient correctes mais... en fin de processus, elles seront trop sombres !... Et inversement si votre ambiance lumineuse est trop claire !... Il est donc indispensable de créer une ambiance lumineuse de couleur neutre (un blanc ~parfait, les ampoules lumière du jour dont j'ai parlé par sur d'autres de mes pages font très bien l'affaire) et d'une intensité identique à la luminosité de l'écran !... Rassurez-vous, le matériel de calibration actuel (mentionné ci-dessus) vous aidera à corriger les petits écarts qui peuvent subsister entre la lumière de la pièce et celle de l'écran. La bonne idée serait de placer une lumière blanche derrière l'écran d'ordinateur de façon à éviter les reflets ET de peindre les murs en blanc !... Voilà les conditions idéales !

3) Prévoir le travail de l’imprimante
Comme je l'ai dit en introduction, on travaille en synthèse additive lors de la première phase, donc on réfléchit en mélanges de lumières colorées, alors qu'une photo imprimée n’émet pas de lumière, elle ne fait que réfléchir la lumière ambiante donc on travaille en synthèse soustractive avec l'encre utilisée... Si, en théorie, il est facile de traduire du RVB en CMJN, on ne peut pas être sûr que le résultat soit identique. Heureusement, les logiciels de traitement d'image (dérawtiseurs et logiciels type Photoshop) permettent une prévisualisation à l’écran de l’aspect de la photo imprimée. Dans ces logiciels, on parle d'épreuvage. Je n'en dirai pas plus puisque selon le logiciel cette fonction fonctionnera de manière différente (et les menus seront différents) mais il faut absolument utiliser cette fonction si on souhaite un résultat acceptable !... Ces logiciels permettent théoriquement de choisir l'imprimante (donc les encres) et le papier à simuler. Au pire, ils feront appel a un profil que vous aurez créé, profil spécifique à un papier et à une marque d'encre (voir plus loin) puisque le résultat sera très différent selon le papier et les encres utilisés.

4) Imprimer dans les règles de l’art
Tout comme vous avez calibré votre appareil et votre écran, il faudra calibrer votre imprimante (en fait on calibre la combinaison encres/papier) également à l'aide d'une sonde de calibration, la même que précédemment qui créera le profil ICC de votre matériel de sortie. Certains fabricants de papier offrent sur leur site internet les profils ICC de leurs papiers pour les principales imprimantes professionnelles, mais il y a de fortes chances que votre imprimante amateur ne soit pas connue de ces fabricants d'où la nécessité de calibration... Au moment d'imprimer, n'oubliez surtout pas d'informer le logiciel en lui fournissant le profil ICC de votre matériel de sortie !!!
Remarquez que si vous n'avez pas les moyens de tout calibrer, réglez toute votre chaine graphique dans l'espace sRVB et laissez faire le matériel... ce sera moins parfait, mais ce sera très acceptable !...

5) Permettre la visualisation des vraies couleurs lorsqu’on observe le résultat
Comme il était nécessaire de réfléchir à l'éclairage autour de l'écran, il sera indispensable de réfléchir à la qualité de la lumière qui sera utilisée pour l'exposition des photographies... Fabriquer vos images sous une lumière parfaitement blanche pour les exposer sous une lumière jaune n'a absolument aucun sens !!! Assurez-vous que le même type d'ampoule sera utilisé pour la création à l'écran et pour l'exposition des épreuves finales...

6) Assurer la pérennité des vraies couleurs
Contrairement à ce que disent les fabricants de papier et d'encre, on n'a, aujourd'hui, aucune idée de la durée de vie d'une photo imprimée, ce qui veut dire que le papier va se décolorer (ou se colorer) et que les encres vont se décolorer avec le temps... Une image parfaitement créée, au bout de quelque temps, même exposée dans les meilleures conditions, ne se présentera plus telle qu'elle a été imprimée !... Il est donc nécessaire de prévoir des mesures de conservations de ses épreuves finales. J'en ai déjà parlé dans une autre de mes pages, je ne vais pas y revenir, allez donc la lire !...

CONCLUSION

OUF, c'était long et parfois ardu, mais on y est arrivé. J'espère que cet énorme article vous a ouvert la voie du travail en couleur, que vous ne considérerez plus les couleurs qui vous entourent comme des paramètres immuables que vous êtes condamnés à utiliser dans l'état ! La photographie noir et blanc rebute de nombreuses personnes puisqu'il s'agit d'un exercice compliqué (et c'est vrai) mais, maintenant, vous savez que la photographie couleur n'est pas plus facile... mais vous possédez toutes les clés pour vous en sortir avec panache !.

J'aurais pu également parler de la correction des couleurs sous l'agrandisseur pour les adeptes de la photographie argentique couleur... mais d'une part, ces adeptes pratiquent de longue date et savent exactement comment utiliser les filtres cyan, magenta, jaune de leur tête couleur et d'autre part, vu le prix et la complexité de la photo argentique couleur à domicile, je ne pense pas que les nouveaux adeptes soient légion !...

Si vous trouvez que cet article est insuffisant (il l'est forcément, j'en suis conscient, il fallait que je limite !), je me permettrai de vous suggérer de visiter les sites qui traitent de peinture... certes, ces derniers travaillent en synthèse soustractive, mais ils vous apporteront beaucoup plus que je ne serai en mesure de vous apporter... Après tout, la photographie est, quelque part, la fille spirituelle de la peinture non ?

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


PHYSIOLOGIE ET MATHÉMATIQUES NE FONT PAS BON MÉNAGE EN PHOTOGRAPHIE...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Oh j'entends déjà vociférer au fond de la salle... « mais où Thierry va encore nous emmener ? »... N'ayez aucune inquiétude, contrairement à ce que pourrait laisser penser le titre de cet article, il ne sera nullement question ici ni d'un cours de physiologie ni d'un cours de mathématiques !...

Débutons par la physiolgie si vous le voulez bien. Vous le savez déjà si vous avez lu mes autres articles sur ce site (sinon vous allez l'apprendre !) l'humain ne voit en aucun cas la réalité mais uniquement une interprétation de la réalite. Je ne prendrai pour preuve qu'une image archi connue signée Edward H Adelson (que l'on peut trouver partout sur le net et ailleurs !) :

Cette image montre un damier qui porte un cylindre. La scène est éclairée de façon à ce que le cylindre marque le damier de son ombre. Et bien, si 100% des humains (et probablement des animaux aussi) voient une différence de teinte entre le carré A et le carré B, la réalité est toute autre (!...), ces deux carrés ont la même teinte !!!

Passons aux mathématiques. L'affirmation précédente sur la différence de teinte est très simple à prouver, on va faire appel à l'ordinateur (lui, applique les mathématiques à la lettre, bien incapable qu'il est d'interpréter quoi que ce soit !). On va ouvrir l'image dans un logiciel de traitement d'image (The GIMP en l'occurence) pour mesurer la teinte des deux carrés. Voici les captures d'écran :


Rien à ajouter, les images parlent d'elles-mêmes... vous pouvez essayer de refaire l'expérience !...

Pourquoi je vous dis tout cela ? Pour vous faire prendre conscience que l'art du photographe, outre la création de l'image, consiste à interpréter ce qu'il souhaite nous monter !...

À l'époque bénie des pellicules argentiques couleur (ce temps n'est pas mort puisque les pellicules couleur semblent renaitre de leurs cendres, voir ici), on obtenait des résultats très différents selon le type et la marque du film (Velvia, Kodakrome), le type et la marque du papier photo ainsi que la chimie de développement utilisés. Chaque procédé choisi permettant des traitements différents de l’image. Ainsi la créativité du photographe pouvait s'exprimer bien au-delà de la composition de l'image...

Mais pourquoi y avait-il de telles différences d'une pellicule à l'autre, d'un papier à l'autre, d'une chimie à l'autre ? Tout simplement parce que les fabricants essayaient tous d’améliorer l’image captée en ajustant la courbe de réponse de la pellicule à la lumière, chacun ayant sa propre recette, sa propre interprétation !

Il existe encore une autre différence fondamentale entre la physiologie et les mathématiques : l'évaluation de l'intensité lumineuse. Faites l'expérience : enfermez-vous dans une pièce noire. Au bout de quelques instants allumez une ampoule de 100W. Au bout de quelques instants, allumez une deuxième ampoule de 100W. Là où un appareil de mesure trouvera une intensité lumineuse multipliée par deux, vous, humain, au mieux vous constaterez une petite augmentation de luminosité et au pire aucune différence ! L'œil n'ayant pas une réponse linéaire à l'intensité lumineuse ! Les films argentiques, sans toutefois réagir comme l'œil, n'avaient pas non plus une réponse linéaire à l'intensité lumineuse. Les capteurs de nos appareils numériques sont extraordinaires MAIS, eux, obéissant à la logique mathématique, ont une réponse totalement linéaire !... Deux fois plus de lumière = deux fois plus de photons = deux fois plus de courant généré = un fichier deux fois plus lourd ! Il est donc indispensable de faire appel à des logiciels (intégrés aux boîtiers quand on crée des JPEG) ou sur l'ordinateur pour retrouver l'image que nous avons voulu capturer !...

Vous me direz avec raison qu'il y a également une interprétation qui s'effectue via ces logiciels. Et, en effet, comme c'était le cas avec les films, chaque logiciel utilise un algorithme particulier qui entraîne une interprétation spécifique des images numériques... Qu'est-ce que celà veut dire ? Que le choix de faire des photos directement en JPEG dans l'appareil vous emprisonne dans l'interprétation qu'à décidé d'implanter le programmeur dans le logiciel intégré ! D'où la nécessité de photographier en RAW... Mais le problème ne s'arrête pas là ! Qui dit utiliser un logiciel pour dématriçer un fichier RAW sous entend qu'il y a également une interprétation logicielle spécifique à chaque dérawtiseur !... Il serait donc indispensable (mais impossible dans la pratique) à tout photographe de posséder, de connaître parfaitement et d'utiliser parfaitement tous les logiciels de dématriçage du marché pour espérer obtenir à coup sûr le résultat correspondant à l'image qu'il a souhaité capturer !... Mais heureusement que les logiciels actuels autorisent une prise en main totale du traitement de l'image de façon à ce que chaque photographe puisse imposer sa propre interprétation de l'image finale. Les logiciels de traitement d'image n'ayant plus alors qu'un intérêt très limité.

Donc, le but de cet article était surtout de vous faire prendre conscience qu'outre la nécessité de pratiquer les lois classiques de la photographie, il est capital de ne pas faire l'impasse sur le traitement des images sorties du boîtier : jouer sur le choix des films, des papiers, de la chimie, du temps et de la température de développement en argentique et de la prise de vue en RAW et l'utilisation raisonnée (et non automatique !) des logiciels de dématriçage en numérique !...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


LES MOYENS DE MISE AU POINT...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

On a déjà vu, dans plusieurs articles de ce site, plus haut mais aussi ici, ici et ici entre autres des notions importantes concernant la mise au point... Ne manquez surtout pas la lecture de ces pages, je ne reprendrai pas leur contenu ici !!! Dans le présent article je vais me polariser sur le fonctionnement des systèmes de mise au point.

Mon site essayant d'embrasser la photographie dans son ensemble, je vais essayer de passer en revue les différents systèmes de mise au point existants, tant sur les boîtiers anciens que sur les boîtiers modernes...

LA MISE AU POINT FIXE

Il s'agit du premier système de mise au point de l'histoire de la photographie. Un objectif simple, généralement constitué d'une seule lentille est réglé à l'hyperfocale, c'est à dire qu'aucun réglage de mise au point n'est nécessaire puisque la profondeur de champs sera maximale. L'appareil n'ayant alors besoin que d'un moyen simple de visée montrant approximativement le cadrage.
Si on remplace l'objectif par un sténopé, la profondeur de champ sera infinie...

LA MISE AU POINT ÉVALUATIVE

Ce système est un peu amélioré par rapport au précédent mais complique sérieusement la tâche du photographe ! Ce système permet l'utilisation d'optiques beaucoup plus évoluées avec diaphragme réglable intégré. Cet objectif a donc besoin d'une mise au point, d'ailleurs il est équipé d'une échelle de distance de mise au point MAIS l'appareil n'est équipé d'aucun système de visualisation donc de vérification de la mise au point... La fenêtre de visée est totalement indépendante, composée elle aussi de lentilles mais ne permettant que l'évaluation du cadrage. Le photographe devant avoir l'œil exercé pour effectuer un réglage efficace de la distance de mise au point.

LA MISE AU POINT REFLEXE MANUELLE



Contrairement à ce que tout le monde pourrait penser, la visée reflexe ne date pas d'hier, la camera clara (1673) était déjà équipée d'une visée reflexe. En effet, qui dit visée reflexe dit visée sur un dépoli. Le principe n'a pas vraiment évolué : l'image délivrée par l'objectif est affichée sur un dépoli. Si l'image paraît nette, elle sera nette (et inversement). La visée directe sur dépoli est utilisée sur les chambres grand format (et la visualisation pointue de la mise au point peut être obtenue en utilisant une loupe), mais également sur les appareils reflex moyen et petit format (et même numériques !)

L'évolution de la technique vient de l'apport d'accessoires complémentaires, une loupe à main (pour les chambres grand format) une loupe intégrée au viseur (pour les reflex moyen format) ou un prisme (pour les reflex moyen et petit format).

Puis sont apparus les stigmomètres et les micropismes qui permettent d'affiner la visualisation de la mise au point :
Si l'image n'est pas nette les lignes sont coupées, sinon elles sont continues. Pour les microprismes, si l'image n'est pas nette elle paraîtra granuleuse.
EXCEPTION : attention, utilisation de dépoli ne signifie pas mise au point reflex !!! En effet, sur le brownie figuré ci-contre la visée se fait sur dépoli mais aucun système de mise au point n'est prévu !...

Le plus grand avantage de la mise au point reflex réside dans le fait que l'on visualise du même coup et le cadrage et la mise au point...

LA MISE AU POINT TÉLÉMÉTRIQUE MANUELLE



La visée télémétrique est une visée très précise (au moins autant que le système reflex), très agréable MAIS extrêmement complexe et très fragile (il est possible de dérégler -ou de casser- un télémètre au moindre choc).

(1) fenêtre de visée où on voit l'image principale (ligne bleue) mais également la lumière (ligne verte) provenant de la fenêtre d'illumination (2) et aussi la lumière (ligne rouge) de la fenêtre de visée secondaire (3) qui crée l'image secondaire qui passe par un miroir rotatif (4) direction un miroir fixe puis un chemin de prismes. La rotation du miroir rotatif est générée par l'entrée/sortie de l'objectif dans/du corps du boîtier. Ainsi, dans l'oculaire, si l'objectif n'est pas réglé à la bonne distance de mise au point on verra une image principale et une image secondaire séparées (ou enchevêtrées) alors que dès que la mise au point est obtenue, les deux images se superposent parfaitement.

Principe de fonctionnement d'un télémètre intégré au boîtier :

1) objet à photographier
2) miroir mobile (commandé par le corps de l'objectif)
3) miroir fixe
4) œil
5) arrière du fût de l'objectif.


Si le système de mise au point télémétrique est extrêmement agréable et précis, il présente toutefois deux énormes défauts :
1) la visée ne traverse pas l'objectif, donc la visualisation du cadrage est approximative
2) le viseur étant indépendant de l'objectif, il montre toujours le cadrage d'un objectif standard, même si un objectif grand angle (ou un téléobjectif) est monté sur le boîtier

Ce principe pourtant très ancien (triangulation en cartographie) adapté à la photographie a fait fureur... au point que de nombreux constructeurs ont fabriqué des télémètres autonomes adaptables aux boîtiers primitivement étudiés pour une mise au point évaluative (voir plus haut).

LA MISE AU POINT AUTOMATIQUE (AUTOFOCUS)

La mise au point automatique n'est pas nouvelle non plus... Les premiers systèmes autofocus étaient 100% mécaniques... Ils étaient utilisés sur les agrandisseurs, le simple fait de monter ou de descendre le corps de l'agrandisseur sur sa colonne, déplaçait automatiquement l'objectif pour au final obtenir systématiquement une image nette. Mais ce principe implacable n'a pas pu être implanté dans les appareils donc ces derniers sont restés à mise au point manuelle.

Puis une avancée technique a autorisé l'autofocus sur les projecteurs de diapositive. Le système était beaucoup plus complexe (et beaucoup plus récent aussi !) et c'est lui qui a ouvert la voie de l'autofocus sur les appareils photographiques...

De nombreux systèmes autofocus, plus ou moins complexes ont été déposés. Mais globalement, il n'y a que 2 grands principes qui ont su s'imposer :

LES SYSTÈMES AUTOFOCUS ACTIFS

C'est le premier système utilisé par les appareils photographiques. L'appareil émet un signal et le récupère. Cela lui permet d'évaluer la distance qui sépare le sujet de l'appareil. Dans un premier temps, on a utilisé le principe du sonar, l'appareil émet des ultrasons et calcule le temps nécessaire pour faire l'aller retour sujet/appareil et de ce fait connait la distance. Ce système ingénieux avait un énorme défaut : le moindre obstacle et la mise au point était faussée !... Photographier à travers une vitre devenait impossible, de même, ce système n'étant pas concentrique à l'axe optique de l'objectif, il pouvait rencontrer un obstacle situé au dessus du sujet et donner une image floue...

Puis, est apparu un système qui fonctionnait en fait comme une adaptation automatique du système télémétrique (voir plus haut). Une cellule émettrice envoie sur le sujet un (ou plusieurs) faisceau(x) infrarouges et une cellule réceptrice reçoit le faisceau renvoyé par le sujet. Cette cellule détecte les angles d'incidences du rayon réfléchi par le sujet. La distance entre l'appareil et le sujet peut ainsi être déterminée par triangulation. Ce principe, sans être parfait, ne présente pas les mêmes défauts que le système par ultrasons.

L'autofocus actif fonctionne bien sur des sujets peu contrastés : neige, mur blanc etc. Bien mieux que l'autofocus passif mais, vu son mode de fonctionnement, l'autofocus actif est surtout apte à mesurer de courtes distances, ce qui est suffisant pour les objectifs standards et grand angles mais peu compatible avec les téléobjectifs.

Ces systèmes appartiennent au passé même si on trouve encore beaucoup d'appareils ainsi équipé sur le marché de l'occasion...

LES SYSTÈMES AUTOFOCUS PASSIFS

Les systèmes passifs, bien plus efficaces, équipent actuellement (et depuis un certain temps !) tous les appareils autofocus.

L'autofocus passif fonctionne sur le principe de la réflexion de la lumière. C'est la lumière réfléchie par le sujet qui permet à l'appareil de faire la mise au point. Il existe deux systèmes passifs disponibles. Chaque appareil est équipé d'un de ces deux systèmes mais souvent, les deux systèmes se retrouvent sur un seul et même boîtier !

Le plus gros avantage de l'autofocus passif sur l'autofocus actif est la mise au point à travers l'objectif donc on est sûr que le point se fera sur le sujet visé (sauf si autofocus tout automatique qui fera le point sur le sujet le plus proche de l'objectif)

Autofocus à détection de phase (ou à contraste de phase). Il utilise un système télémétrique constitué de capteurs CCD placés au fond de la chambre noire. Il reçoit une fraction de la lumière réfléchie vers le bas par le miroir réflex. Son principe est basé sur la corrélation de phase ou de contraste. Les rayons lumineux qui traversent l'objectif sont divisés en deux parties, chacune permet alors de calculer la distance du sujet, et donc sa netteté. Il analyse les rayons créés par les deux parties, chacun formant un point lorsque la mise au point est correcte. Si la mise au point est mauvaise, les rayons forment alors un disque et non un point. Néanmoins, afin d'en améliorer le comportement, certains appareils comportent aussi une cellule émettrice infrarouge qui permet de projeter une mire sur le sujet afin de faciliter le travail de l'AF passif. Ce système est le plus rapide et équipe les reflex.
Bien incapable d'expliquer précisément le fonctionnement, je vous invite à lire cela.

Autofocus à mesure de contraste. Cet autofocus est principalement utilisé sur les compacts. Il est moins coûteux mais moins performant que l'autofocus à détection de phase. Malgré ses faiblesses (comparé à l'autofocus à détection de phase), cet autofocus est également implanté sur les reflex puisque c'est lui qui gère la mise au point en Live View. Ici l'appareil fait la mise au point grâce à l'analyse des contrastes sur le capteur. La théorie est que plus l'image est nette et plus elle est contrastée.
Bien incapable d'expliquer précisément le fonctionnement, je vous invite à lire cela.

Les systèmes passifs ne sont pas la panacée pour autant ! Pas très rapides (limités par les contraintes mécaniques), et limités par le contraste ou la luminosité du sujet photographié. Dans le cas des appareils reflex, on dit généralement qu'un objectif qui n'ouvre pas à un diaphragme plus important que f/5.6 ne permet pas le bon fonctionnement de l'autofocus. Dans le cas des zooms de forte amplitude, l'autofocus qui fonctionne bien à la plupart des focales peut avoir des ratés lors d'un réglage sur la focale maximale généralement où la luminosité est la plus faible. Enfin, à moins de posséder un objectif très lumineux (diaphragme > f/2.8), l'utilisation d'un convertisseur de focale (1,4x ou 2x) est incompatible avec l'autofocus puisque le convertisseur 1,4x fait perdre 1 diaph' et le convertisseur 2x fait perdre 2 diaph'...

Très souvent l'autofocus est pris en défaut donc il a été prévu la possibilité de conserver une mise au point manuelle. Malheureusement, l'apparition de l'autofocus s'est accompagnée de la disparition des aides à la mise au point manuelle comme les stigmomètres et les microprismes, chose que nombre d'entre nous regrettent...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


COMMENT ANALYSE-T-ON UNE PHOTO ?

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Tout le monde (enfin, ceux qui lisent mon site... et quelques autres ) sait que l'on ne regarde pas une photographie mais qu'on la "lit". Ceci permettait d'expliquer qu'en fonction de sa langue écrite, on pouvait donner plusieurs significations à une image. Mais, dès lors qu'il ne s'agit plus de "lire" une photo mais plutôt de l'analyser, on ne savait pas vraiment comment cela fonctionnait.

À l’aide d’un appareil oculo-métrique, Canon® a cherché à découvrir comment les "analyseurs" de photo s'y prenaient. Et tant qu'à lancer une telle recherche, ils ont essayé de voir s’il y avait une différence entre l’analyse d’une photo faite par trois catégories de personnes, un simple citoyen sans connaissance en photo, un étudiant en photo, et un photographe professionnel.

Ils ont donc présenté la photo suivante en grand format aux "analyseurs" étudiés :

Les résultats sont très intéressants :

Pour le commun des mortels, n'y connaissant RIEN en photographie, les yeux effectuaient des déplacements rapides suivant les lignes figurées ci-dessous :

On remarque que, malgré leur méconnaissance du sujet (la photographie), il y avait des "points forts" qui attiraient plus souvent leur regard... En fait, Canon à déterminé 212 mouvements des yeux apparemment désordonnés mais qui reviennent toujours sur certains points.

La même expérience avec des étudiants en photographie, donc plus au fait du sujet (je pense que des amateurs éclairés réagiraient de la même manière), les yeux effectuaient des déplacements rapides suivant les lignes figurées ci-dessous :

On remarque que le même phénomène se reproduit mais que cette fois-ci, on a pu compter 445 mouvements oculaires (2x le nombre des "non spécialistes") avec un nombre de "points forts" plus nombreux et couvrant une plus grande surface de l'image...

Toujours la même expérience mais cette fois avec des professionnels de la photographie :

Il a été compté cette fois 1197 mouvements oculaires (3xle nombre du groupe des étudiants) avec des "points forts" qui couvrent la quasi totalité de l'image !!!

Selon les résultats de cette étude, les photographes professionnels seraient plus obsédés par les détails qu’un étudiant en photo ou une personne ordinaire...

Intéressant, non ? Maintenant nous savons comment le cerveau humain "décortique" une photographie et comment, se modifie le processus en fonction des connaissances que l'on peut avoir du sujet !...

Vous pourrez voir la vidéo originale ici...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


COMMENT FONCTIONNE UN FILM PHOTO NOIR ET BLANC ?

Pourquoi parler ici du film noir et blanc ? Tout simplement parce que j'aime beaucoup le film monochrome, que je stimule mes lecteurs à pratiquer la photographie argentique (et qu'il est très facile, pour un débutant de trouver et de traiter ce genre de film !), mais surtout parce que l'homme la très fâcheuse habitude d'oublier très rapidement ce qu'il n'utilise pas couramment et le numérique a déjà plus de 10 ans... il ne faudrait pas perdre cette connaissance (basique) du film... puisque l'argentique relève la tête !...

Cet article sera très long, très dense, assez difficile à suivre, MAIS, si vous tenez jusqu'au bout, vous connaîtrez tout de la photographie... comment et pourquoi exposer de telle manière plutôt que de telle autre, comment et pourquoi développer de telle manière plutôt que telle autre, vous comprendrez même les tenants et les aboutissants du zone system dont j'ai parlé par ailleurs (ici) et même l'effet Schwartzchild !!!... Tout quoi !...

Pour utiliser convenablement un film, il est indispensable de savoir comment il fonctionne (et c'est valable pour tout... utiliser quelque chose en pratique sans connaître la théorie sur laquelle une technique se base ne mène à rien !)

Le film photographique N&B n'est qu'un morceau de plastique transparent flexible recouvert de gélatine transparente contenant du sel. Non, sans blague, il s'agit bien de sel mais pas de sel de table (!!!) il s'agit d'un sel d'argent (en fait un halogénure d'argent, mais ce terme est-il indispensable à connaitre ?). En effet, certains sels sont sensibles à la lumière (et d'autres non). Pour être utilisable en photographie, le sel doit être un sel métallique, sans métal, la photographie n'aurait jamais été inventée. Oui, mais pour ceux qui connaissent un peu la chimie, on peut dire que le sodium, comme le fer ou l'argent est aussi un métal... laissez tomber, vous allez tout embrouiller !... En photographie, je l'ai dit, on utilise un halogénure d'argent, donc le sel utilisé sera un sel combinant un métal et un halogène (chlore, brome, iode, fluor...). En photo, seuls le chlore, le brome ou l'iode ont un intérêt. Pour les mêmes chimistes que tout à l'heure, oui, le sel de table est aussi un halogénure métallique, mais laissez tomber je vous dis !...

Il est maintenant établi que le film se limite principalement au comportement des sels d'argent (des halogénures). Quand un halogénure d'argent est frappé par la lumière, les deux moitiés se séparent, le métal cesse de faire partie du sel et redevient simplement un métal. La partie halogénée, le chlore ou l'iode ou le brome se retrouvent délaissés. Nous sommes sur le point de commencer la partie que vous devez vraiment connaitre, mais d'abord nous devons revenir brièvement sur les deux autres ingrédients du film.

Le plastique : Le plastique est là parce que la gélatine doit s'asseoir sur quelque chose de rigide. On pourrait créer une couche de gélatine sans plastique, mais elle serait trop fragile et se décomposerait dans les bains de développement du fait de l'agitation. N'importe quel plastique fonctionnerait probablement, mais certains plastiques sont meilleurs que d'autres pour la photographie. Il existe différents types de plastiques utilisés pour faire du film, mais les plastiques réellement utilisés sont choisis principalement pour leur flexibilité, leur permanence, leur stabilité dimensionnelle et leur tendance à ne pas exploser (comme l'ont fait -dans le temps- les films à base de nitrate).

La gélatine. Le film est réalisé avec de la gélatine. La gélatine est fabriquée à partir de pièces animales bouillies (des tendons, des ligaments, que des "déchets de boucherie", en fait tout tissu conjonctif -pour les biologistes -). La gélatine présente des caractéristiques très utiles en photographie. Elle ne sert pas seulement de moyen de transport pour les halogénures d'argent. Elle rend les halogénures d'argent plus sensibles à la lumière. Un halogénure d'argent dissous dans l'eau n'est pas très léger et, en plus, n'est pas sensible à la lumière. De plus, il est très difficile d'obtenir un revêtement d'halogénure d'argent dissout dans de l'eau et le coller sur un morceau de plastique. Mais un halogénure d'argent dissout dans la gélatine tend à devenir non dissout, c'est-à-dire qu'il quitte la solution et forme des cristaux, car la gélatine sèche et durcit, et, en plus, n'a pas de problème d'adhérence à un morceau de matière plastique. Les halogénures d'argent, dans une émulsion photographique à base de gélatine, ne sont pas dissouts dans la gélatine. Ils sont pris au piège. Lorsque l'eau d'une solution d'halogénure d'argent s'évapore, ces molécules d'halogénure d'argent se réuniront pour former des cristaux. Ce sont ces cristaux qui deviennent réactifs à la lumière, en grande partie parce qu'ils sont plus gros que les molécules uniques dissoutes dans l'eau. Plus le cristal est grand, plus il sera sensible à la lumière. Pourquoi ? Parce qu'ils représentent une cible plus grande, il est plus facile pour la lumière de frapper une grande cible. La gélatine est la substance idéale pour la formation de ces gros cristaux, en effet, elle peut contenir beaucoup d'eau avec beaucoup d'halogénures d'argent en solution, à mesure que la gélatine sèche, les halogénures d'argent quittent la solution et forment des cristaux qui s'agglutinent dans la gélatine. La gélatine a la capacité d'absorber beaucoup d'eau. Cette capacité à absorber l'eau signifie que le révélateur (ou développeur si vous préférez, certains disent même développateur) peut "remplir" la gélatine et accéder aux cristaux d'halogénure d'argent insolés qui y sont contenus, afin de les développer.

Maintenant, nous avons les bases. Pour fonctionner efficacement, le film exige que les cristaux d'halogénure d'argent soient conservés dans une substance qui peut être soutenue par une surface plastique. Les halogénures doivent se trouver sous forme de cristaux sans quoi cela ne fonctionnerait pas.

Maintenant, pourquoi les cristaux ne se dissolvent-ils pas quand le film est mis en place dans un révélateur ? Parce qu'il n'y a pas assez de liquide absorbé par la gélatine mince pour dissoudre les cristaux.

Un morceau de plastique revêtu d'une mince couche de gélatine contenant des cristaux de sels d'argent sensibles à la lumière suffit pour faire de la photo... mais pas parfaitement !!! Beaucoup d'autres choses sont ajoutées. Aucune n'est essentielle mais toutes améliorent le résultat. Par exemple, les films modernes ont plusieurs revêtements ou des couches d'émulsions légèrement différentes qui se fondent pour former différents types de comportements améliorés par rapport à ce que peut donner une couche unique. Ils ont également un revêtement au dos appelé couche antihalo qui empêche la lumière de traverser le film, de rebondir et d'exposer à nouveau le film. En outre, la base des films en rouleaux est teintée d'un léger gris (ou rose ou vert ou autre selon les marques). Cela n'a pas d'effet significatif sur la création du négatif mais ce colorant devient très rapidement opaque, bloquant ainsi la lumière qui pourrait pénétrer très loin dans un rouleau de film lorsque la lumière frappe le bord. Ainsi, si vous ouvrez accidentellement le dos de l'appareil, sans avoir rembobiné le film, toutes les images ne seront pas perdues, ce colorant bloquera beaucoup de lumière et protégera certaines des images enroulées près du centre de la bobine réceptrice (mais évitez de tester tout de même !!!)..

Les cristaux d'halogénure d'argent sont plus performants s'ils ne sont pas parfaits. Des impuretés sont intentionnellement incluses dans la fabrication du film. L'or, par exemple, est ajouté en infimes quantités, de même que d'autres impuretés.

Le film N&B n'est naturellement sensible qu'à la lumière ultraviolette et bleue, de sorte que des colorants ajoutent des "pièges" aux couleurs de la lumière auxquelles les cristaux d'halogénure d'argent ne sont normalement pas sensibles et les forcent à réagir à ces couleurs. Un film qui est sensible uniquement à la lumière ultraviolette et bleue est appelé film ordinaire (ou bleu sensible). C'est l'état naturel de l'émulsion photographique basique aux halogénures d'argent. Le film qui est également sensible au vert est appelé orthochromatique. Si le film est sensible à la lumière bleue, verte et rouge, on l'appelle, panchromatique.

Les films N&B modernes d'usage général sont presque tous panchromatiques. Les films orthochromatiques étaient extrêmement populaires à une époque, mais se limitaient principalement à des films spéciaux, qui sont aussi des films à fort contraste. Le film orthochromatique peut être imité avec un film panchromatique en utilisant un filtre (Kodak Wratten # 44) qui bloque la lumière rouge. Il existe également des films spéciaux qui sont sensibles aux parties invisibles du spectre lumineux, telles que l'infrarouge.

La plupart des films N&B sont sensibles à la lumière UV (ultraviolette) d'où l'intérêt d'utiliser des filtres UV sur l'objectif. Mais un filtre couramment utilisé dans les photographies en noir et blanc bloque également les UV, aussi efficacement, donc si vous utilisez des filtres N&B vous aurez rarement besoin d'un filtre UV.

Maintenant que l'ont sait "tout" du film, comment cela fonctionne réellement ?

COMPORTEMENT DU CRISTAL D'HALOGÉNURE D'ARGENT À LA LUMIÈRE

Imaginons, pour simplifier, un film ne contenant qu'un seul cristal d'halogénure d'argent sensible à la lumière. Projetons un seul rayon de lumière, disons même un seul photon (le photon est une "particule" de lumière -et que les physiciens se calment, je ne veux pas entendre les mots particulaire et ondulatoire !). Puisqu'il n'y a rien de plus petit qu'un photon unique, il n'y a pas d'exposition possible avec moins d'un photon. Supposons que le photon rebondit dans la gélatine comme une balle et qu'il manque le cristal d'halogénure d'argent, le fait de frapper la gélatine n'a aucun effet photographique. C'est exactement comme si aucune lumière ne frappait le film. Un photon doit donc toucher le cristal d'halogénure d'argent directement pour être efficace. Projetons un deuxième photon. Celui-ci aura trouvé le cristal d'halogénure d'argent (HA) mais ne pourra réduire qu'une seule molécule d'HA (réduction signifie la séparation du métal de l'halogéné). Gardez à l'esprit que nous n'avons frappé qu'une seule molécule d'HA dans un cristal contenant plusieurs millions de molécules d'HA. Juste un, créant seulement un seul atome d'argent pur qui bloque la lumière et donnera un négatif. Observons notre film, que voyons-nous ? Rien ! Rien ? Rien !!! Comme si notre photon avait manqué le cristal !... Que s'est-il donc produit ? Une quantité extrêmement petite d'HA contenue dans la gélatine a été réduite en argent métal. On ne pourra rien distinguer (logique !). Il faudra donc développer le film... En quoi consiste le développement ? Le révélateur est un produit chimique qui a une forte tendance à transformer les HA en argent métallique. Cette caractéristique des révélateurs n'existe que si un cristal d'HA a été exposé à la lumière. En fait, je simplifie, si vous placez un morceau de film complètement non exposé dans un révélateur et le laissez assez longtemps, il finira par développer complètement tous les halogénures d'argent dans cette émulsion. Tant que j'y suis, je vais introduire une nouvelle notion : le développement normal fonctionne toujours sur un petit pourcentage de cristaux d'HA non exposés. Cela produit une quantité uniforme de grains développés sur l'ensemble du négatif qui ne représentent aucune partie d'une image. C'est ce qu'on appelle le brouillard. Chaque négatif a un faible niveau de brouillard produit par le développement qui n'interfère pas avec l'image. Le brouillard survient parce que certains cristaux d'HA forment spontanément de petites quantités d'argent réduit par eux-mêmes, sans lumière, ce qui les rend développables, le rayonnement cosmique en réduit également certains. Ce brouillard jouera un rôle important plus tard. Mais passons...

Quand un cristal d'HA contient des atomes d'argent (est exposé), le révélateur agira beaucoup plus sur ce cristal, et beaucoup plus rapidement qu'il ne le ferait sur un cristal qui n'a pas été exposé. La raison pour laquelle il fonctionne de cette façon, c'est que l'argent métallique agit comme un catalyseur (un produit qui aide et accélère une réaction chimique qui est normalement beaucoup plus lente). En fait, plus un cristal d'HA exposé contiendra d'atomes d'argent, plus tôt il commencera à se développer. Cela se voit facilement si vous avez accès à une chambre noire. Il suffit d'exposer deux morceaux de papier photo à la lumière. Exposez-en un dix fois plus que le deuxième. Le papier surexposé noircira bien plus tôt que l'autre. De même, les parties les plus sombres de l'image apparaissent en premier parce qu'elles ont reçu plus d'exposition que les parties plus claires (attention : on part d'un négatif et sur un négatif, les parties sombres du sujet sont claires et les parties claires du sujet sont noires !). Une plus grande exposition signifie que le révélateur commence à fonctionner plus tôt. Ce phénomène joue un rôle énorme dans l'utilisation du film.

Revenons à notre film n'ayant reçu qu'un seul photon... Si nous le développons normalement on devrait voir quelque chose ! Rien ! Rien ? Non, toujours rien ! C'est fou, non ? Et bien non, nous n'avons qu'un atome d'argent, le développement va réduire le cristal d'HA mais l'argent métallique qui a quitté un atome d'HA a toutes les chances de se recombiner avec l'halogénure libéré d'un autre atome d'HA !... Résultat : niet, nada, que dalle !... Et même si cet atome d'argent particulier restait sous sa forme métallique, il est impossible de développer le cristal. Du moins pas dans le temps pendant lequel le révélateur est normalement appliqué sur le film. Ce cristal d'HA n'est pas développable. Un cristal d'HA doit avoir une exposition minimale (contenir un nombre minimum d'atomes d'argent métal) avant que n'importe quel révélateur ne puisse agir sur lui pendant un temps raisonnable. Lorsqu'un cristal d'HA a été exposé à une lumière suffisante pour le développer, on aura créé une image latente. Une image qui est là, mais pas visible, jusqu'à ce que le film soit développé. Mais il existe aussi des images sous-latentes. Une image sous-latente est celle qui existe mais qui ne peut pas être développée, du moins pas facilement. Notre unique atome d'argent réduit dans un seul cristal d'HA est donc une image sous-latente. C'est là, mais ça ne sert à rien. L'image sous-latente jouera éventuellement un rôle plus tard.

Chaque émulsion (chaque film) est différente et réagit différemment à la lumière, mais il existe une sorte d'exposition minimale moyenne qui provoque une image sous-latente qui ne peut être développée pour franchir la frontière du visible et devenir une image latente qui, elle, peut être développée. Elle est différente pour chaque émulsion et pour chaque cristal d'HA individuel, mais nous avons besoin d'un certain point de départ, aussi arbitraire que possible, alors nous prétendons que nous connaissons ce nombre et disons qu'il faut quatre atomes d'argent réduits pour faire un cristal d'HA accessible à l'action d'un révélateur. Certains disent que trois suffisent, mais bon, quelle importance, qu'il soit nécessaire d'en avoir 3 ou 100, cela ne change pas grand chose !... tout le raisonnement est strictement identique !...

Ainsi, un, deux ou trois atomes d'argent réduit dans le même cristal d'HA constituent tous une image sous-latente et ne peuvent être développés dans le cadre d'un développement normal. Mais quatre atomes peuvent être développés et constituer une image latente. Bien sûr, comme toute autre chose dans la vie, c'est vraiment plus compliqué que cela. Mais pas beaucoup.

Imaginons un cristal d'HA qui soit carré. Nous l'avons frappé avec quatre photons, comme par hasard, chaque photon a touché un atome d'HA placé aux quatre coins du cristal, formant ainsi quatre atomes d'argent réduit. Si nous sommes chanceux, ils ne se recombinent pas spontanément en HA, ce qu'ils auraient presque certainement fait. Mais chaque atome d'argent persiste et existe dans un coin du cristal carré, donc tous "éloignés" l'un de l'autre. Ce cristal d'HA, en dépit des quatre atomes d'argent (le minimum requis) est encore, non développable. En effet, non seulement il doit y avoir quatre atomes dans le même cristal, mais en plus ils doivent tous être proches. Ils doivent former ce qu'on appelle un centre de développement ou un centre d'image latente ou un centre de sensibilité . Pensez, centre de sensibilité, s'il ne contient pas encore d'argent métallique et l'un ou l'autre des deux autres termes si l'argent est déjà présent. Un groupe d'atomes d'argent tous en un seul endroit. C'est là que nos défauts intentionnellement créés dans le cristal d'HA (dont j'ai parlé plus haut) entrent en jeu. Rappelez-vous que nous avons discuté de l'ajout de petites quantités d'or (ou d'une variété d'autres contaminants comme le soufre ou autre) afin de rendre ces cristaux moins parfaits. Ces imperfections créent des centres de sensibilité : des endroits où les atomes d'argent réduits auront une forte tendance à s'accumuler.

Lorsque la lumière frappe un cristal d'HA, elle forme un atome d'argent métallique. Comme déjà dit, cet atome d'argent a un très fort potentiel à se recombiner en HA, annulant ainsi l'exposition. Mais, s'il y a un défaut dans le cristal, un centre de sensibilité, une réaction au contact de la lumière, n'importe où dans le cristal, a tendance à marquer le défaut le plus proche du cristal et à laisser un atome d'argent là où la lumière a frappé. Avec les centres de sensibilité présents, chaque contact lumineux tend à marquer le centre de sensibilité le plus proche qui sera beaucoup plus susceptible de devenir développable avec quatre atomes d'argent (ou plus) au même endroit. Les atomes d'argent dans un centre de développement ont également tendance à rester beaucoup plus stables, logés dans ce défaut, au lieu de retourner à l'état d'HA.

La plupart des cristaux d'HA exposés auront de multiples centres de développement. Celui qui déclenche d'abord l'action du révélateur sera celui contenant le plus d'atomes d'argent métallique (réduit).

Il existe deux classes d'image latente : l'image latente interne et image latente de surface. Le révélateur peut atteindre l'image latente de surface, mais pas l'image latente interne (créée à l'intérieur du cristal).

Je viens de m'apercevoir que je parle ici de "cristaux" alors que certains appellent cela des "grains". À proprement parler, on désigne par "cristal" les amas d'HA (invisibles) avant développement et par "grain" les amas d'argent métallique (visibles) après le développement... mais ce genre d'approximation ne présente aucun problème dès lors que l'on sait de quoi l'on parle !...

Les cristaux d'HA aplatis (comme les T-grains de Kodak) présentent une surface plus importante et augmentent considérablement la quantité d'image latente susceptible de se former sur la surface du cristal (le cristal a plus de surface et moins d'interstices). Le résultat est l'obtention d'un cristal plus petit qui est plus susceptible de former une image latente en surface, et est donc aussi rapide que les cristaux plus grands mais moins plats, avec une meilleure résolution (grain plus fin). Les cristaux tubulaires donnant un grain plus gros.

Avant de discuter du développement du film dans son ensemble, nous devons faire un léger détour pour discuter du développement d'un seul cristal exposé. Vous vous souvenez que plus il y a d'atomes d'argent réduit dans un centre de développement sur un cristal exposé, plus vite le révélateur commence à agir sur ce cristal. Cette période porte le nom de temps d'induction. Le temps d'induction est le temps qui s'écoule entre le moment du premier contact du révélateur avec le cristal exposé et le moment du début du développement effectif.

Si on parle de temps d'induction également pour le film entier, il y a une différence importante : quand il s'agit d'un cristal, dès que la réduction commence, elle est terminée, il n'est pas possible de repérer une étape de réduction partielle qui se propagerait, c'est exactement l'inverse pour le film entier !... Puisqu'il s'agit d'une réaction en tout ou rien, on pourrait légitimement se demander pourquoi tous les films ne sont pas à "contraste élevé"... et bien, au niveau des cristaux, ils le sont tous ! Un cristal est entièrement développé, ou il n'est pas développé du tout. Mais le film normal peut avoir une tonalité douce et continue car les cristaux d'HA ne sont pas tous de la même taille et ils ne reçoivent pas tous la même quantité de lumière, même si la même quantité de lumière frappe le film dans la même zone. Les films à contraste élevé contiennent des cristaux d'une taille beaucoup plus uniforme. Des cristaux de différentes tailles combinés avec les différents temps d'induction pour différentes tailles des centres de développement génèrent des gammes continues de gris dans le négatif.

LE TEMPS D'INDUCTION : LA CLÉ DE VOUTE DU FONCTIONNEMENT DU FILM

Si vous avez décroché, dormi ou n'avez pas compris ce qu'est le temps d'induction, retournez quelques lignes plus haut, sinon vous allez vous noyer (!...) il n'est pas possible de comprendre comment le film fonctionne vraiment et comment exposer et développer au mieux le film sans saisir complètement la notion de temps d'induction.

Vous vous souvenez que plus l'exposition d'un cristal d'HA a été importante et plus son temps d'induction sera court et plus vite il sera développé. Une fois transformé de cristal en grain par le développement, la zone sensible s'est transformée en un petit point noir dans l'émulsion qui empêche la lumière de traverser le film. Plus il y a de grains et plus une section donnée du négatif bloquera la lumière et donc, plus le positif correspondant à cette zone sera clair. Les parties claires de l'image finale (positif) sont représentées par de gros dépôts de grains d'argent dans les parties sombres de l'image (négatif). Plus précisément, les zones lumineuses du sujet produisent beaucoup d'exposition, ce qui entraîne de grands centres de développement dans les cristaux d'HA et des temps d'induction très courts. Les zones sombres du sujet produisent une exposition beaucoup moins élevée, ce qui entraîne de petits centres de développement dans des cristaux d'HA et des temps d'induction très longs. Les tons intermédiaires, produisent des temps d'induction intermédiaires.

N.B. : Un deuxième type de temps d'induction a lieu dans le développement du film entier et qui précède le temps d'induction que nous avons envisagé jusqu'ici. Il s'agit du temps nécessaire pour que le révélateur liquide brise la tension superficielle de l'émulsion du film (relativement sec) afin qu'il puisse commencer à imbiber la gélatine et atteindre les cristaux d'HA. La tension superficielle n'est pas répartie uniformément sur le film. Par conséquent, le développement commence plus tôt dans certaines parties d'un négatif, que dans d'autres. C'est la raison pour laquelle on prépare un film dans l'eau pendant une minute, avant d'appliquer le révélateur (enfin, c'est ce que je fais... nombreux sont ceux qui ne le font pas !). Ce pré-trempage permet de briser la tension superficielle sur tout le négatif, avant que le révélateur ne soit appliqué. Il est rare que cette rupture inégale de la tension de surface entraîne réellement un défaut significatif du négatif, mais cela peut théoriquement arriver. Ça vaut la peine de gaspiller une petite quantité d'eau et une minute de votre temps. La seule fois de votre vie où la rupture inégale de la tension superficielle affectera réellement l'un de vos négatifs, ce sera -comme par hasard- sur la meilleure image de votre vie... et vous aurez tout gâché...

Avant d'aller plus avant, nous devons énumérer tout ce qui modifie le temps d'induction afin que nous puissions comprendre l'exposition et le développement. Après tout, l'exposition et le développement sont vraiment tout le sujet des temps d'induction :

Le temps d'induction est :

  • Allongé par une diminution de l'exposition et réduit par une plus grande exposition
  • Allongé par des révélateurs plus faibles et raccourci par des révélateurs plus forts
  • Allongé par des révélateurs plus dilués et raccourcis par des révélateurs plus concentrés
  • Allongé par des révélateurs plus froids et raccourci par les révélateurs plus chauds
  • Allongé par une agitation réduite et réduit par une agitation accrue
  • Allongé par un révélateur épuisé et abrégé par un révélateur frais
  • Allongé en approchant de l'achèvement et raccourci en début de traitement

Il existe un concept appelé développement à l'achèvement. Il se réfère à l'ensemble du négatif et non au cristal individuel d'HA puisque, comme nous le savons, tous les cristaux d'HA développés sont complètement développés. Le développement jusqu'à l'achèvement est un état dans lequel un matériau photographique à base d'HA a été développé si longtemps qu'il n'y a plus rien à développer. Tous les cristaux d'HA exposés ont été développés et la seule chose restante est celle des cristaux non exposés qui se développeraient éventuellement après une période de développement encore plus grande, mais cela ne nous intéresse pas ici. Le développement à l'achèvement se réfère uniquement aux parties exposées du film. Enfin, ce type de développement n'est pas souhaitable puisque le négatif serait inutilisable, c'est néanmoins un concept que vous devez saisir.

Maintenant, regardons le développement d'un négatif (complet, pas que le cristal !) du point de vue des temps d'induction. Les zones d'exposition les plus fortes d'un négatif correspondent aux zones claires du sujet et contiendront les plus grands centres de développement et auront donc les temps d'induction les plus courts. Après que notre film soit immergé dans un révélateur, les zones les plus exposées seront les premières à apparaître et bien avant que les zones représentant les ombres du sujet ne commencent à se développer. Une fois que le temps d'induction a été atteint, les zones claires apparaîtront puis continueront à progresser (à "monter" comme on dit souvent), devenant de plus en plus denses.

N.B. : La densité est un terme qui se réfère à l'accumulation de grains d'argent développés. Plus nombreux seront les grains les plus développés dans une zone et plus la densité de la zone sera grande. Et bien sûr, plus la densité sera grande sur le négatif et moins la lumière pourra passer. Donc au transfert en positif, la zone dense sera claire, comme sur la scène originale.

Les zones où l'exposition est la plus importante sur le négatif, celles qui représentent les parties claires d'une scène, présenteront les cristaux d'HA les plus exposés et donc les plus grands centres de développement. Mais tous les cristaux ne sont pas de la même taille et les centres de développement non plus. Plus tôt, nous avons dit que la taille des cristaux varie dans une émulsion mais la quantité des centres de développement exposés aussi. C'est ce qui crée des tons continus plutôt que des zones noires ou blanches tranchées. Étant donné que les zones les plus exposées présentent les temps d'induction les plus courts, elles commencent à se développer très vite, plus tôt que les zones moins exposées et beaucoup plus tôt que les zones représentant les ombres. Dans ces derniers endroits, les temps d'induction sont beaucoup plus longs et on y retrouve une proportion importante de cristaux exposés avec moins de quatre atomes d'argent réduit dans leurs centres de développement ou à peine plus de quatre.

En raison de la nature des centres de développement fortement exposés et des temps d'induction rapide dans ces zones, le développement commence rapidement à ralentir, en partie parce que le révélateur est utilisé en quantité (le rôle de l'agitation est de fournir un apport constant de révélateur frais) et en partie parce que les cristaux exposés restants sont ceux qui ont des centres de développement plus petits. Ces derniers réagiront un peu plus longtemps à peu près jusqu'à atteindre le temps de développement normal du film. Une fois le développement stoppé, il reste encore beaucoup de cristaux d'HA exposés dans les zones claires du négatif qui n'ont pas encore atteint leurs temps d'induction. Si le film est laissé dans le révélateur plus longtemps que la durée normale, ces cristaux seront développés, ce qui entraînera un contraste plus élevé (cela sera expliqué plus loin), un négatif plus dense qui peut être difficile à tirer.

Quand la majorité des cristaux exposés dans les zones claires a déjà été développée, alors seulement certains cristaux exposés dans les zones d'ombre commenceront à atteindre leurs temps d'induction. Quand ils se développeront, ils le feront lentement parce que les grands centres de développement seront utilisés d'abord et tout ce qui subsiste sera les centres de développement ayant eu peu d'exposition. Une grande partie des zones d'ombre ne sera pas suffisamment développée en fin de processus de développement, et une fois le développement normal terminé, il y aura très peu de cristaux d'HA restants dans les zones d'ombre avec une exposition suffisante pour être développable.

Ainsi, le développement du film implique des hautes lumières bien exposés avant le développement, tandis que les ombres moins exposées tentent toujours de rattraper. Tout ce qui empêche les zones d'ombre d'atteindre un développement complet impacte sérieusement le négatif final. Il manquera de densité et de contraste. Cela signifie qu'il sera difficile à tirer (fabriquer un positif) et souvent pas tirable du tout.

Avant d'être fixé, un négatif correctement développé d'un sujet normal a beaucoup de cristaux d'HA exposés mais pas encore développés dans les régions claires. Ces cristaux n'ont tout simplement pas atteint leurs temps d'induction. Mais il y a très peu de ces cristaux dans les ombres. La plupart de ce qui peut être développé dans les zones sombres, a déjà été développé. Si vous deviez continuer de développer intentionnellement au-delà de ce point, vous pourrez obtenir beaucoup plus de densité en recrutant tous les cristaux d'HA non développés restant dans les zones claires, mais il ne reste que peu ou pas à développer dans les ombres. Vous ne pouvez pas développer des cristaux d'HA déjà développés ou présentant des expositions bien inférieures au niveau qui les rend développables.

Cette information sur la façon dont fonctionne le film vous explique pourquoi il n'y a vraiment pas de raison de pousser un film ! La vitesse du film est basée sur les densités dans les zones sombres. Les zones où tout est déjà plus ou moins développé. Pousser le film signifie simplement le développer plus longtemps. Cela augmentera considérablement le développement des cristaux exposés avec des centres de développement plus petits dans les zones claires, mais agira très peu sur les ombres. Le mieux que l'on puisse faire sur l'augmentation de la vitesse du film en le poussant est d'environs un demi diaphragme. C'est-à-dire transformer un film de 400 ISO en un film 600 ISO. Je suppose que, avec le bon film, combiné avec le révélateur adéquat, vous pourriez atteindre quelque chose qui approche un gain de vitesse d'un diaphragme entier, mais c'est assez peu probable. Dans le même temps, vous obtiendrez un négatif trop contrasté et très dense qui sera, au mieux, difficile à tirer. Vous obtenez également beaucoup plus de brouillard qui peut faire penser à des ombres plus denses, mais ce n'est pas le cas. Pousser un film ne fait que dissimuler partiellement le fait que le film a été sous-exposé, en ajoutant de la densité et du contraste à la mauvaise extrémité de la gamme. Mais cela ne cache pas très bien cette sous-exposition. Il n'y a (malheureusement) pas de révélateur magique qui peut modifier les lois de la physique et mettre des cristaux d'HA exposés là où ils n'existaient pas avant.

N.B. : Il existe de longue date une tradition (en photographie et pas uniquement) de perpétuer des absurdités absolues (c'est ce que l'on appelle des légendes urbaines, je crois). Les révélateurs magiques, les méthodes de développement secrètes, les routines d'agitation, les additifs spéciaux pour révélateurs, les films miracles, les gadgets pour chambre noire, etc...
Vous pouvez trouver des milliers de personnes qui vous diront que le film peut être poussé sans pouvoir expliquer pourquoi. Je ne suis pas le premier à dire que le film ne peut pas être poussé (ou du moins pas beaucoup) et j'ai fait des tests... j'avais commencé par pousser un film de 400 ISO à 3600, échec cuisant ! Puis j'ai progressivement diminué l'amplitude mais chaque fois, le gain était décevant et la valeur acceptable était très petite !...

Pousser un film ne permet que d'accroître le contraste de l'image dans le but de cacher la sous - exposition. Mais cela ne signifie pas que le surdéveloppement intentionnel n'est pas utile ! C'est extrêmement utile pour augmenter très sensiblement le contraste ! Il est tout à fait légitime d'étendre le développement du film pour obtenir un contraste optimal quand nécessaire (prise de vue difficile, lumière plate, etc.). Mais cela ne s'appelle pas pousser le film. Dans la langue du zone system, on parle d'expansion. Dans le reste du monde de la photographie, on parle de surdéveloppement ou de développement étendu. Cela se fait exactement comme pour pousser le film MAIS sans la sous - exposition à la prise de vue.

Maintenant, parlons, très brièvement, du film retenu. C'est exactement le contraire du film poussé. Cela signifie réduire le développement pour compenser une surexposition accidentelle du film. La retenue réduit le contraste et diminue le développement de certains cristaux d'HA dans les zones d'ombre, ce qui réduit la densité des ombres. Seulement, le film était juste un peu surexposé, pas trop. Donc, alors que la retenue fonctionne dans les zones d'ombre, elle affaiblit sévèrement le reste de l'image en réduisant le contraste qui n'a pas besoin de l'être, ce qui rend difficile le tirage.

La même approche de retenue du film, l'action de réduire le contraste, peut être utilisée non pour récupérer un film surexposé, mais pour réduire volontairement le contraste. Dans le langage du zone system, réduire le développement et ainsi réduire le contraste est appelé contraction. La contraction est une technique importante en photographie N&B.

Une diminution du développement ou contraction est nécessaire pour les sujets qui présentent une fracture trop brutale entre le noir et le blanc. Imaginez que vous vous trouviez dans un tunnel sombre et que vous regardiez vers l'extérieur, si vous voulez faire une photo qui comprend à la fois les murs faiblement éclairés du tunnel et le paysage ensoleillée à l'extérieur. Le film ne peut pas gérer cela. En fait, les films modernes peuvent probablement tout enregistrer, mais enregistrer n'est pas gérer. (Le numérique jette l'éponge dans ce cas de figure !). Le film a potentiellement accès à une gamme de densité incroyablement large. Mais vous ne pourrez pas tout tirer ou numériser. C'est là que la contraction intervient. Le développement réduit diminue le contraste et "écrase" toutes les zones d'exposition extrême dans une gamme de densités gérable qui peut encore être tirée ou scannée.

Toutes les techniques de réduction du contraste ont plus de cent ans et sont encore utilisées aujourd'hui. Elles font appel à une ou plusieurs recettes parmi :

  • Développement de durée plus courte
  • Utilisation d'un révélateur plus faible
  • Dilution du révélateur classique (ce qui en fait un révélateur plus faible)
  • Réduction de l'agitation (ou absence d'agitation !)
  • Tremper le film dans un révélateur pendant un court instant puis le laisser longtemps dans l'eau
  • Tremper le film dans un révélateur pendant un court instant puis le laisser longtemps dans un stimulateur chimique
  • Tremper le film dans un bain qui ne contient qu'une partie des produits chimiques nécessaires au développement (mais incapable de développer le film dans l'état) puis le plonger dans un bain qui contient les produits chimiques complémentaires pour lancer le développement

Toutes les recettes énumérées ci-dessus (y compris celles que j'ai oubliées) relèvent toutes du même principe (et elles ont toutes exactement les mêmes défauts et risques), même si certaines fonctionnent mieux que d'autres.

Le principe de toutes les techniques de contraction énumérées ci-dessus est de priver les zones claires (les zones les plus exposées) de révélateur, tout en donnant aux zones d'ombre (peu d'exposition) qui nécessitent un développement plus lent le temps de rattraper le retard et de terminer leur développement avant que les zones claires ne soient totalement développées. Cela permettant le tirage ou le scan de son négatif. Comme mentionné précédemment, l'agitation est nécessaire dans le développement afin de fournir un approvisionnement continu en révélateur frais aux zones fortement exposées (claires) où le révélateur s'épuise rapidement à cause des grandes quantités de cristaux d'HA exposés. Le révélateur s'affaiblit ce qui permet de retenir et réduire le développement des zones claires alors que les ombres se développent plus ou moins normalement. C'est ça la promesse de la technique.

Le révélateur affaibli (toutes ces anciennes méthodes de contraction sont des moyens d'affaiblir le révélateur) signifie des temps d'induction plus longs. Les temps d'induction plus longs étendent la gamme d'une image entière. Si les temps d'induction sont allongés dans les zones claires, ils sont également allongés dans les ombres, zones dans lesquelles la dernière chose que l'on veut est une période d'induction plus longue puisqu'elle est déjà très longue... C'est pourquoi la contraction nécessite toujours une augmentation significative de l'exposition. La vitesse du film, et donc les zones d'ombre d'une image, sont perdues lorsqu'un développement de contraste réduit est appliqué. Vous pouvez compenser avec plus d'exposition, mais plus d'exposition signifie plus d'exposition pour l'image entière, pas seulement les ombres. Une plus grande exposition dans les zones claires signifie des centres de développement plus importants et, par conséquent, des temps d'induction encore plus courts et, par conséquent, plus d'efforts pour tenter de retenir les hautes lumières, tandis que les ombres se développent. C'est un cercle vicieux. Plus vous exposez, plus vous devrez gérer le problème d'exposition importante des zones claires. Plus vous essayez de gérer les zones claires surexposées et plus vous perdez des ombres pour les temps d'induction plus lents.

D'autres problèmes sont associés à ces anciennes méthodes. L'un est un développement inégal. Une agitation est nécessaire pour que le développement soit uniforme. Toutes les méthodes qui réduisent ou éliminent l'agitation exposent au risque de développement taché et inégal. Plus le développement est réduit par ces méthodes et plus le risque de négatif ruiné est grand.

Les films noir et blanc d'aujourd'hui, tous sauf peut-être ceux venant des pays communistes ou ex- communistes sont des films à émulsion minces. On les appelle ainsi parce que les émulsions N&B étaient (autrefois et encore récemment dans les pays de l'Est) plus épaisses. Les films en émulsion épaisse réagissent mieux aux méthodes de contraction car ils pouvaient contenir plus de révélateur. Une gélatine plus épaisse peut évidemment conserver plus de liquide et donc plus de révélateur. Ces anciennes méthodes ont été conçues quand il n'y avait pas de film à émulsion mince.

Toutes les méthodes traditionnelles de contraction / réduction du contraste fonctionnent. Elles sont appelées Techniques Sélectives de Manipulation d'Image Latente (TSMIL) et, comme le nom l'indique, ils travaillent sur l'image latente avant que le développement ne débute, permettant ainsi au développement du film d'être normal au lieu d'être modifié par une ou plusieurs des méthodes mentionnées précédemment. En fait, une fois qu'un TSMIL a été appliqué, le négatif peut être développé avec vos autres négatifs normaux car l'image latente du film a été modifiée. Pas besoin de révélateurs exotiques, il suffit de pré-tremper dans un bain de TSMIL tout en préservant vos négatifs normaux en eau ordinaire, puis tous seront ensuite trempés dans le même révélateur pour être traités tous exactement de la même manière : normalement.

EXPOSITION

Cet article n'est pas un chapitre pratique, c'est la théorie du comment cela fonctionne. Donc, je ne dirai pas comment exposer le film mais plutôt comment il est exposé...

Revenons à notre cristal unique d'HA qui a été exposé juste pour nous donner un centre de développement contenant au minimum quatre atomes d'argent réduits. En ignorant pour le moment que ce cristal ne sera probablement pas développé du tout en raison de cette exposition minimale et que son très long temps d'induction ne sera pas atteint au moment où le développement normal de l'ensemble du négatif sera terminé, prétendons qu'il se développe. L'accompagnement est un ensemble d'autres cristaux qui ont des quantités variables d'expositions similaires, qui se développent également. Cela se traduira par une partie négative montrant une légère image correspondant à la scène originale. Vous pouvez voir cette image négative. Ce que vous ne pouvez pas faire, c'est de la tirer !

Il y a des densités dans les négatifs qui peuvent être vues mais qui sont si légères qu'elles ne peuvent pas être tirées. Il existe une gamme de ces densités et elles sont appelées sous-image (Ne pas confondre avec une image sous-latente qui, par définition, n'a pas encore été développée). Elles sont là, dans le négatif, mais ne peuvent pas être utilisées. Les papiers photographiques ne sont tout simplement pas assez sensibles pour les extraire et les tirer en tons distincts. Les densitomètres ne peuvent pas les mesurer non plus parce qu'elles sont généralement plus légères que les capacités de mesure du densitomètre. Seul l'œil peut les distinguer. Alors, pourquoi je vous parle de ces éléments inutilisables du négatif ? Eh bien parce que vous devrez savoir que cette sous-image existe pour pouvoir comprendre…

Il existe une densité négative minimale, beaucoup plus grande que les petites densités contenues dans la sous-image, qui est nécessaire pour être assez dense pour être tirée ou scannée. C'est une densité qui, lorsqu'elle est tirée, créera un noir qui n'est que très légèrement moins noir que le noir le plus noir qu'un papier photographique est capable de produire (ce qui est souvent appelé D-Max ou noir maximum). En fait, pour voir la différence entre le noir le plus noir d'un tirage et le noir que cette densité minimale crée, vous devrez vous "exploser" les yeux. Il s'agit de la quantité minimale d'exposition qu'un négatif doit recevoir avant de pouvoir produire une image qui peut être tirée, avec des tons autres que le noir complet. Toutes les sous-images tirées seront totalement noires, à moins que le papier ne soit volontairement sous-exposé. Cette densité minimale requise pour créer un noir plus léger, à peine perceptible, nécessite beaucoup plus d'exposition que la quantité nécessaire pour créer un centre de développement contenant seulement quatre atomes d'argent. Toutes les expositions supérieures à cette densité minimale produiront des tonalités de plus en plus claires sur un tirage. Pour l'instant, nous allons l'appeler densité minimale et lui attribuer arbitrairement une valeur de un, juste pour simplifier les choses. Pendant que nous y sommes, établissons qu'une exposition d'un diaph' de plus produira une densité de deux. Un autre diaph' de plus, trois et encore un autre, quatre, etc. jusqu'à ce que nous arrivions à neuf, soit plus ou moins la quantité maximale de densité utilisable au-dessus du premier niveau. Le niveau 9 ressemble au niveau 1 s'il est tiré exactement dans les mêmes conditions que le niveau 1, il ne peux être tiré que comme un blanc qui n'est que très légèrement plus foncé que le blanc du papier non exposé. Bien sûr, vous pourriez continuer à ajouter de plus en plus de diaph' d'exposition, mais aucun d'entre eux au-delà de 9 pourraient être tirés.

N. B. : Tous les niveaux de densité et le nombre d'entre eux qui peuvent ou ne peuvent pas être tirés dépend du film que vous utilisez, du type de sujet, du développement et du type de papier utilisé pour le tirage. Et probablement encore plus de choses... Mais ne prenez pas cela pour parole d'évangile, c'est simplement une description de la façon dont les choses fonctionnent en moyenne.

Maintenant, nous devons ajouter deux autres niveaux de densité en tant que points de référence, zéro et dix. 0 est la densité qui est obtenue avec une exposition d'un diaph' inférieure à celle requise pour produire la densité minimale = 1. Un niveau de densité 0 produira une image dans le négatif, mais cette image sera trop faible pour être tirée, elle produira le même noir que le noir maximum que le papier est capable de produire. C'est une sous-image. Le niveau de densité 10 est un diaph' de plus que la densité nécessaire pour tirer le plus léger des gris, de sorte qu'il sera tiré comme le même blanc que le papier non exposé. Pas d'effet du tout. Cependant, contrairement à la densité 0, la densité 10 peut être tirée.

Cela nécessiterait une exposition plus longue du papier, ce qui assombrirait le reste de l'image, poussant le niveau de densité 1 plus bas et le niveau de densité 2 au niveau de densité 1 sur le tirage. Tous les autres niveaux descendront de même. Comme mentionné précédemment, vous pouvez ajouter des densités supérieures à 9 ou 10 mais aucune ne pourrait être tirée, sauf si vous continuez à exposer le papier de plus en plus. Comme les densités supérieures correspondent à des expositions suffisantes pour tirer en gris, les densités les plus basses continueront de tomber et se perdre au tirage. Après un certain temps, les densités tirées comme parties claires de l'image seraient reproduites mais les parties sombres et les parties noires originales apparaitront totalement noires. Le papier ne peut reproduire que des densités de 1 à 9 (À moins que vous ne changiez les gradations de contraste du papier -avec des filtres pour papier multigrade-, mais c'est pour plus tard). Si vous avez 12 densités, toutes espacées d'un diaph' d'exposition, certaines doivent être poussées et d'autres retenues. Bien que les scanners puissent souvent reproduire une plus large gamme de densités, ils souffrent de problèmes similaires. Certains négatifs peuvent avoir une gamme de densité trop large pour le scanner. Le film peut enregistrer avec succès plus que ce que la plupart des scanners peut gérer.

C'est là que le développement réduit intervient. Le développement de contraction est utilisé pour réduire le contraste et réduire ainsi les densités négatives de 10 et plus en densités proportionnellement moindres qui peuvent toutes être tirées.

Maintenant, nous devons revenir à ces niveaux de densité inférieure en commençant par 1. Avec chaque diaph' supplémentaire d'exposition, en commençant par le niveau 1, plus de densité est ajoutée. Bien qu'un autre diaph' d'exposition représente deux fois plus d'exposition, il n'entraîne pas deux fois plus de densité. C'est moins que cela, beaucoup moins en fait. Les valeurs et la façon dont elles fonctionnent ne sont pas importantes pour le moment. Ce qui importe, c'est que les augmentations de densité sont uniformes chaque fois qu'un diaph' supplémentaire d'exposition est ajouté. Elles sont uniformes lors de l'ajout d'un diaph' d'exposition aux niveaux de densité 4 et plus. Chaque diaph' d'exposition ajouté après le niveau de densité 4 ajoute plus ou moins la même quantité de densité et passe au niveau suivant. Malheureusement, cela ne s'applique pas aux niveaux de densité de 1 à 3. Ces premiers niveaux sont un peu faibles pour répondre à la lumière. Le doublement de l'exposition utilisée pour transformer un niveau de densité 1 en un niveau de densité 2 ajoute une densité nettement inférieure à celle du doublement de l'exposition ajouté aux niveaux de densité 4 et plus. Environ la moitié ou légèrement moins. Cela rend un peu difficile de voir beaucoup de différence dans un tirage entre un niveau de densité 1 et un niveau de densité 2. Le problème diminue quelque peu entre le niveau de densité 2 et le niveau de densité 3. L'augmentation de la densité obtenue avec un diaph' d'exposition supplémentaire augmente d'environ 75% de celle obtenue avec l'augmentation d'un diaph' d'exposition à partir du niveau de densité de 4 et plus. Ce que cela signifie, c'est que les parties les plus foncées de votre image (les ombres) se modifient peu suite à une exposition accrue. Le résultat est une forte tendance des ombres à rendre difficile la distinction des différences. Dans un tirage, le niveau d'exposition 0 est reproduit comme complètement noir car il n'est pas assez dense pour créer une différence par rapport à l'absence d'exposition. Le niveau d'exposition 1 est reproduit à peine plus clair, ne montrant aucun détail de la scène, juste une tonalité légèrement inférieure à celle entièrement noire. Le niveau d'exposition 2 sera reproduit un peu plus clair et montrera quelques détails dans l'image, mais pas beaucoup. Enfin, au niveau d'exposition 3, l'image sera encore assez sombre, mais vous aurez peu ou pas de difficulté à voir tous les détails présents dans l'original dans cette zone d'ombre.

N B. : Certaines scènes ne présentent aucune véritable ombre. Le terme "ombre" est couramment utilisé pour désigner les parties les plus sombres d'un sujet, qu'elles soient ou non réellement dans l'ombre. Le terme est également utilisé pour les parties les plus sombres de votre image. Si vous attachez un morceau de velours noir sur un mur blanc éclairé par la lumière direct du plein soleil, vous vous référerez au velours noir comme une ombre sur votre sujet, même si aucune ombre n'est présente.

Les niveaux d'exposition de 1 à 3 sont les niveaux sur lesquels les parties les plus sombres de votre image doivent être exposées. Plus l'exposition est réduite dans cette région du film, plus les parties sombres de votre image seront faibles, il est donc très important de s'assurer que les zones plus sombres et plus claires de votre sujet reçoivent une exposition suffisante pour aboutir à des densités dans cette zone. Tout ce qui est exposé au-dessous du niveau de densité 1 est simplement perdu, le niveau 2 offre seulement un soupçon de détail dans le sujet et le niveau 3 est encore assez sombre, bien qu'il soit plein de détails. Juste un diaph' d'exposition inférieur à celui requis pour obtenir des zones d'image plus foncées importantes exposées à des niveaux de densité utilisables peut entraîner un négatif qui est vraiment très difficile à tirer. Maintenant, vous connaissez la raison pour laquelle on dit depuis des siècles qu'il faut exposer pour les ombres. Si vous n'obtenez pas ces ombres sur le film, et avec une densité suffisante pour être facilement tiré, vous aurez du mal à obtenir un bon tirage de ce négatif. De loin, le plus gros problème rencontré par les photographes (débutants) est la sous-exposition... il n'y a pas de remède contre la sous-exposition.

Clarifions ceci encore plus. Le niveau de densité 3 est le niveau de densité le plus bas qui s'exprime avec les détails du sujet original que vous pouvez effectivement voir assez bien dans un tirage. Tout ce qui se trouve en dessous de ce niveau sera tout simplement un mélange de tout noir (densité 0), presque tout noir (densité 1) et presque tout noir avec une vague impression qu'il pourrait y avoir quelque chose (densité 2). Ainsi, tout ce que vous souhaitez voir dans votre photo doit recevoir une exposition suffisante pour atteindre un niveau de densité 3. Vous ne pouvez pas essayer de créer des niveaux 0, 1 et 2 plus clair sur le tirage afin de voir les détails. Il n'y a aucun détail à révéler. C'est-à-dire que vous pouvez le voir sur le négatif mais le papier pour le tirage ne peut pas le reproduire. Il n'y a rien, pas le moindre détail, c'est une sous-image.

L'exposition fait tout. Les parties plus claires d'une image sont reproduites dans des niveaux de gris clairs, elles peuvent souvent être réparés en cas de problème, mais les ombres sous-exposées sont simplement perdues et quels que soient les efforts déployés au tirage, ils ne les sauveront que très rarement. Très probablement, jamais !... L'intensification n'y fera rien non plus.

La surexposition, d'autre part, est plus simple à rattraper, tant qu'elle n'est pas trop importante. Si vous exposez une partie d'une scène qui appartenait au niveau de densité 3 dans le négatif par un diaph' de plus que nécessaire, en le mettant au niveau de densité 4, alors chaque partie de la scène sera exposée à un diaph' de plus que nécessaire, donc il suffit juste d'exposer le papier un peu plus longtemps pour replacer toute l'échelle des tons à leur bonne place. Pour cette raison, il est préférable de surexposer que de sous-exposer. Et dans certaines circonstances, beaucoup de surexposition peut être très utile.

ÉCHEC DE RÉCIPROCITÉ

Voilà une notion qu'il ne faut pas ignorer même si vous pensez que ce chapitre va être ennuyeux ! Il ne le sera pas !.... Enfin, le moins possible... Malgré tout, pas d'impasse, vous découvrirez que vous pouvez bénéficier grandement de l'utilisation de l'échec à la loi de réciprocité.

Les fabricants n'expliquent jamais complètement l'échec de la réciprocité, ils ne nous disent que ce qu'il faut faire à ce sujet, ce qui se résume à exposer plus et développer moins, et Ilford ne nous parle même pas de la diminution du développement !... Plus l'exposition est prolongée au-delà de la demi-seconde (voire d'une seconde entière), plus vous devez exposer et moins vous devez développer...

La réciprocité se réfère simplement au fait que lorsque vous choisissez un diaph' d'exposition de plus ou de moins, les densités résultantes dans le négatif augmentent ou diminuent par la quantité de diaph' de densité relative. En d'autres termes, ajoutez une valeur de densité et vous en recevrez une gratuite en plus !...

L'échec de la réciprocité correspond à l'inverse de ce que je viens de décrire. Lorsque l'on modifie l'exposition d'un diaph' en plus ou en moins, on ne parvient pas à produire une variation de la densité d'un diaph'. Cela se produit avec des expositions très longues mais aussi très courtes. Avec des expositions courtes, il est nécessaire que l'exposition soit d'un dix millième de seconde ou plus courte, ce que je n'ai jamais vu faire (mais c'est peut-être possible en physique nucléaire !). Les expositions trop longues sont cependant très fréquentes. Pour comprendre l'échec de la réciprocité, revenons à notre cristal unique d'HA...

Plus haut, nous avons parlé de la nécessité d'avoir au moins quatre atomes d'argent qui doivent tous résider dans le même centre de développement du cristal, (etc., etc.), afin que ce cristal d'HA puisse être développé. Ce que je ne vous avais pas dit (pour ne pas vous embrouiller), c'est que l'accumulation de ces atomes d'argent est également limitée dans le temps. S'ils ne sont pas tous exposés dans un court laps de temps (on peut dire en même temps), il est préférable qu'ils reviennent à l'état d'HA et retournent à leur état antérieur à l'exposition. Cela se produit d'abord dans les zones où l'exposition est la plus faible. Niveaux de densité 0, 1, 2, etc. Le premier niveau qui est important est le niveau 1. Avec des expositions de plus en plus longues, les niveaux grimpent jusqu'à ce que tous les niveaux d'exposition soient affectés (dans une certaine mesure).

Ne vous trompez pas. La première étape de l'échec de la réciprocité rend nécessaire d'exposer, par exemple, deux secondes là où le posemètre indiquera qu'une seule seconde est nécessaire. Cela a un effet qui touche plusieurs niveaux de densité inférieurs en réduisant la quantité d'exposition efficace qu'ils reçoivent. Mais cela n'a aucun effet sur les niveaux supérieurs, car ils reçoivent naturellement beaucoup plus d'exposition et ne souffrent donc pas, peu importe le cas, de l'échec de la réciprocité. L'échec de la réciprocité se produit principalement (voire uniquement) dans les zones de densité inférieure du négatif. Le reste du négatif est normal. Mais, si vous exposez d'un diaph' en plus pour compenser l'échec de la réciprocité aux niveaux de densité 1, 2 et 3, vous aurez surexposé tous les niveaux de densité au-dessus de ceux-ci, car ces niveaux supérieurs n'ont pas subi d'échec de réciprocité. C'est pourquoi Kodak vous dit de réduire le temps de développement des négatifs, en raison de l'insuffisance de réciprocité. Chaque fois que vous ajoutez un diaph' d'exposition de plus, en raison d'une augmentation de l'échec de réciprocité, vous augmentez la densité des niveaux de densité supérieurs non affectés, ce qui augmente le besoin de réduire le temps de développement pour compenser...

Si vous utilisez une exposition qui nécessite une compensation pour l'échec de la réciprocité, mais aussi pour une image qui a besoin d'une augmentation de contraste, ajoutez simplement l'exposition supplémentaire, mais ne réduisez pas le développement ! Cela donnera un résultat similaire à celui d'un développement accru pour ajouter de la densité aux niveaux supérieurs. Vous résolvez deux problèmes avec une seule action, ce qui vous permet de réduire le contraste pour une image donnée. Vous pouvez soit obtenir un contraste en augmentant le temps de développement, soit ajuster l'exposition pour provoquer des erreurs de réciprocité et, par conséquent, augmenter les densités des zones claires lorsque vous ne réduisez pas délibérément le temps de développement. Ou, vous pouvez faire les deux pour augmenter considérablement le contraste.

N. B. : Le doublement de l'exposition pour compenser l'échec de réciprocité et le développement standard ultérieur (au lieu de réduire le temps de développement), n'entraîne pas une augmentation du contraste. Cela provoque une augmentation de la gamme des densités du négatif. Seul le temps de développement augmenté, tel que recommandé par Kodak, entraîne une augmentation du contraste. C'est-à-dire qu'une gamme de densités de niveau 0 à 9, devient une gamme de niveau 1 à 10 lorsque ces négatifs d'échec de réciprocité sont développés normalement. Le contraste n'est pas modifié.

L'échec de réciprocité et la compensation requise sont plus ou moins universels parmi les films d'utilisation normale, quel que soit le fabricant. Si vous connaissez un ensemble de règles pour le film X, vous connaissez les règles pour le film Y, à l'exception des films "T-grain". (Je ne joins pas de tableau de compensation de l'échec de réciprocité, on peut les trouver partout et même dans la plupart des notices incluses avec les films).

Les règles pour les films en grains T sont radicalement différentes. Pourquoi ? La conception des films à grain T est telle qu'ils reçoivent l'exposition plus efficacement, qu'ils la conservent mieux et qu'ils construisent des centres de développement plus facilement. Ils sont tout simplement moins sujets à une insuffisance de réciprocité en raison de la conception plate des cristaux. Si vous souhaitez utiliser l'option échec de la réciprocité comme outil, vous ne devrez pas utiliser de films en T-grain. Si vous faites beaucoup de photographies sur des sujets très sombres, les films en T-grain sont de loin la meilleure option, bien meilleure que le mamaillage de l'échec de réciprocité (mais moins intéressant intellectuellement parlant !).

DÉVELOPPEMENT

Pas d'inquiétude, je ne vais pas envisager les techniques de développement, cela sort totalement du cadre du fonctionnement du film ! Je ne vais que faire passer quelques notions génériques importantes. Je devrais parler des révélateurs. Il y a des révélateurs d'usage général, les révélateurs à contraste élevé, les révélateurs à faible contraste, les révélateurs grains fins, les révélateurs à acutance élevée, les révélateurs colorants, les révélateurs pour traitements poussés, les révélateurs monobains et toute une panoplie d'autres qui occuperaient grandement toute une vie de tests pour ceux qui veulent tout essayer et comprendre... pourquoi pas, si c'est ce que vous voulez vraiment faire, cela peut être intéressant, mais si vous préférez faire des photos... Il existe également des révélateurs alternatifs, au café, à la sauge (voir ici), au vin, etc, etc... En fait, il n'y a qu'un seul type de révélateur qui n'existe pas : le révélateur magique !

Il n'y a aucun miracle, il n'y a donc pas de révélateurs miraculeux. S'il y a une forme de magie dans la photographie, elle ne se cachera jamais, mais alors jamais, dans le révélateur. Aucun révélateur ne peut transformer une mauvaise photographie en bonne photographie. La magie ne se cache pas dans le film non plus. Pas plus dans le boîtier. Ni dans l'agrandisseur, ni dans l'objectif. La magie est dans le photographe et sa capacité à capturer une image soigneusement travaillée et de faire un tirage aux petits oignons. Plus précisément, c'est la capacité du photographe à transformer les informations brutes enregistrées sur le film en une nouvelle réalité dans un tirage qui n'est pas une simple représentation littérale de ce qui était en face de l'objectif, mais quelque chose de nouveau dans le monde. Et ce miracle naît des connaissances du photographe, connaissances qu'il puisera dans cet article, dans ce site et dans ses expériences...

Personne ne croit qu'une bonne peinture est le résultat de la marque de la toile ou de tubes de peinture magiques. Pourtant, des millions de photographes pensent que le secret de la réussite se trouve dans le film ou le révélateur, ou l'appareil photo ou l'objectif (c'est encore plus vrai en photo numérique, enfin, pour les deux derniers éléments de la liste).

J'ai utilisé le révélateur HC-110 ou ID-11 pendant des décennies. Pour les films, mes préférences allaient au Tri-X, au FP4+ et au HP5+. Ces combinaisons film/révélateur sont à recommander aux débutants. Il n'y a rien de spécial à propos de cette combinaison. Ce sont de bons films à utilisation générale avec de bons révélateurs à usage général. En plus, ils sont parmi les moins chers. Un bon film et un révélateur à usage général c'est précisément ce que l'on peut souhaiter de mieux. J'utilise également avec bonheur les films Foma, comme quoi il n'est pas nécessaire de se ruiner pour trouver du bon film. Depuis ma découverte du T-Khawanol® (à la sauge, au thym, etc...) j'ai beaucoup de plaisir et de réussite à utiliser ce révélateur alternatif, une fois de plus, inutile de se ruiner. A noter toutefois qu'il n'est pas possible de jouer avec le zone system, ni avec l'échec de réciprocité avec ces révélateurs alternatifs, trop faibles.

Il est également possible de choisir la méthode pouf-pouf. Placez quatre films et quatre révélateurs à usage général dans un chapeau, tirez au sort un film et un révélateur et restez fidèle à cette combinaison, vous trouverez toutes les techniques, même les plus évoluées avec l'expérience... Ne changez de combinaison QUE le jour où vous serez capable de dire « je veux en changer parce que... ». Toute combinaison de film et de révélateur que vous retirez de ce chapeau vous donnera à peu près les mêmes résultats que n'importe quelle autre combinaison.... Un bon film et un bon révélateur sont importants. Quel bon film et quel bon révélateur importe beaucoup moins. Tous les résultats que vous pouvez obtenir avec la combinaison X, vous pouvez également l'obtenir avec la combinaison Y. vos compétences évolueront à mesure que vous utiliserez cette combinaison. Écartez-vous des publicités, travaillez avec votre film et votre chimie, vous en tirerez le meilleur (à la longue).

Il existe d'autres éléments à prendre en compte. En moyen et grand format, un film de 400 ISO est tout simplement plus polyvalent qu'un 100 ou 200 ISO qui eux seront préférables en petit format. Le grain sera rarement envisagé. En fait, une des façons de repérer quelqu'un qui ne sait vraiment pas de quoi il parle est de voir si le grain est une considération importante pour lui. Le grain est un problème du passé... Les films actuels ont tous des grains fins, on peut donc utiliser du 400 ISO sans problème en petit format (même si des sensibilités inférieures sont préférables dans ce format). Tout comme la netteté. Les révélateurs à grains fins et les révélateurs à acutance élevée n'ont plus aucun intérêt. Oui, ils fonctionnent toujours comme annoncé, mais ils ne sont tout simplement plus nécessaires. Les films modernes sont déjà des films à grain fin et ont déjà une grande acutance.

Les films traditionnels pardonneront plus les "petites" erreurs que les films à grains T. Les films à grain T sont beaucoup plus délicats du point de vue du développement et sont beaucoup plus susceptibles de se rayer parce qu'ils n'ont pas de surface de retouche. Les surfaces de retouche tendent à cacher très bien les rayures. Si vous devez absolument utiliser des films à grain-T au début de votre parcours, considérez que le traitement rotatif est votre seule option de traitement car toutes les autres méthodes vous feront des cheveux blancs.

Choisissez un révélateur à usage général, mais si vous ne vous sentez pas capable (ou si vous savez que vous ne réussirez pas à vous astreindre) de gérer l'épuisement de votre révélateur (qui obligera d'augmenter progressivement les temps de développement), une seule solution : utilisez un révélateur sous forme de liquide concentré. Les révélateurs secs (en poudre) fonctionnent tout aussi bien que les révélateurs liquides. MAIS, les liquides concentrés changent généralement de couleur pour vous faire savoir qu'il est à jeter. Le révélateur en poudre qui sera épuisé ressemblera exactement au révélateur en poudre neuf. Le plus grand risque avec l'utilisation de révélateur en poudre est le traitement du film dans le révélateur pas encore complètement dissout. Il semblera dissout alors qu'il ne le sera pas forcément. C'est la raison pour laquelle on mélange le révélateur en poudre dans de l'eau, puis on le laisse reposer pendant la nuit avant de l'utiliser. Il a besoin de temps pour terminer complètement sa dissolution. Le révélateur en poudre, mélangé, puis laissé reposé pendant la nuit, ressemblera exactement à ce même révélateur en poudre, mélangé mais non abandonné toute la nuit au repos !.... Mais le révélateur qui n'aura pas reposé contiendra des grains microscopiques de produits chimiques non dissouts qui ne se dissolveront jamais, et cela peut créer de minuscules taches dans vos négatifs que vous ne pouvez pas voir MAIS ce n'est que lorsque vous effectuez le premier test d'agrandissement que vous les verrez. Peut-être des centaines d'entre eux, sur chaque négatif. Si vous n'êtes pas certain de pouvoir parfaitement dissoudre le révélateur en poudre, ne prenez aucun risque, il existe des révélateurs liquides concentrés tout aussi efficaces qui ne présenteront jamais un tel problème et qui seront plus pratiques à utiliser pour vous. Il y a de fortes chances que vous n'ayez jamais à rencontrer ce problème avec un révélateur en poudre, mais cela peut se produire...

Surtout, n'achetez pas de révélateur en poudre ailleurs que chez un fournisseur digne de confiance, si quelqu'un d'autre le vend, cela signifie qu'il ne fonctionne probablement plus, ce qui signifie qu'il l'a probablement stocké depuis longtemps. Et tant que j'y suis, évitez d'acheter des films hors fournisseurs dignes de confiance, ils peuvent être périmés ou stockés dans de mauvaises conditions... Ces films "hors service" peuvent éventuellement créer des effets intéressants, mais il ne faut pas trop compter dessus !... Il faut considérer le film comme un produit alimentaire, qui, avec toute cette gélatine qu'il contient, est périssable... Les marques ne font pas toutes apparaitre les dates d'expiration sur leurs films (normal, le photographe est sensé savoir comment stocker ses films et les gérer !). Les dates d'expiration sont importantes ! Ne radinez pas sur un film ou un révélateur.

LE PAPIER PHOTO N&B

Vous n'avez pas besoin de beaucoup d'informations à ce sujet. Les papiers N&B argent-gélatine fonctionnent exactement de la même manière que les films, avec les exceptions suivantes :

  • Les tirages sont par nature plus contrastés
  • Les révélateurs papier sont à plus fort contraste que les révélateurs de films
  • Les tirages sont chimiquement protégés contre la formation de brouillard car le brouillard de développement de base apparaîtrait dans les zones claires d'un tirage, pas dans les ombres du film
  • Les papiers photographiques N&B modernes ont tendance à créer une augmentation de la densité globale avec un temps de développement prolongé, et non des augmentations de contraste, comme le film. En d'autres termes, un développement accru du papier N&B augmentera la vitesse du papier, où le surdéveloppement du film N&B ne modifie PAS la vitesse du film

Sinon, tout ce que vous savez sur les cristaux d'HA et l'exposition et le temps d'induction, etc., etc., au sujet du film, est également vrai pour le papier. Ce n'est pas tout aussi important avec le papier qu'avec le film. Si vous gâchez un tirage, vous pouvez simplement sortir un autre morceau de papier et réessayer. Avec le film, vous ne pouvez pas reprendre la photo et même si vous le pouviez, il est probable que la scène sera très différente lorsque vous reviendrez.

La question se pose: « Si le brouillard peut être complètement empêché avec le papier, pourquoi ne pas faire de même avec le film ? » Parce que l'élimination du brouillard de développement qui se produit avec le film réduirait considérablement la vitesse du film. Avec le papier, cela n'a pas d'importance. Avec le film, si !. De plus, le brouillard dans le film peut tout simplement disparaître en le tirant sur papier avec une exposition plus longue. Pas possible avec du brouillard papier. Tout le brouillard du papier serait visible !...

ET PUIS...

Et puis, je crois que je vous ai assez pris la tête avec cet article... je vais m'arrêter là. De toute façon, en tant qu'amateur, il y a 100% de chance pour que vous ne fassiez pas appel aux techniques approfondies, très complexes, tant en théorie qu'en pratique (je ne suis pas arrivé à ce stade de maîtrise non plus !)... donc cela ne servirait à rien d'en parler ici !!!...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


COMMENT FONCTIONNE UN FILM PHOTO COULEUR ?

J'ai (longuement) discuté du fonctionnement du film noir et blanc dans l'article précédent, il est donc tout naturel de parler du fonctionnement du film couleur. C'est exactement ce que je vais faire aujourd'hui, mais pas forcément de la même manière que ce que vous pourrez trouver sur d'autres sites...

En plus, contrairement au chapitre traitant du noir et blanc, vous constaterez rapidement que cet article sera extrêmement court... et pour cause !...

Un film couleur n'est pas fondamentalement différent d'un film noir et blanc, mais, pour reproduire les couleurs, il va devoir proposer un mode de fonctionnement un peu différent. Pour bien comprendre et bien fixer les idées, on va pouvoir dire qu'un film couleur est un film qui regroupe sur un support en plastique, trois films noir et blanc superposés.

Puisqu'il s'agit de trois films noir et blanc superposés, il est évident que tout ce qui a été dit dans l'article plus haut est 100% valide ici. Et c'est exactement pourquoi cet article sera si court (!!!) allez lire l'article précédent avant d'aller plus loin avec les particularités du film couleur. J'adore ce chapitre... c'est vous qui allez travailler, moi, je vais me reposer sur mes lauriers (même si j'ai beaucoup transpiré pour écrire l'article du film N&B) !...

Bon, ca y est ? Vous savez tout du film N&B ? On va alors pouvoir passer au film couleur.

Comme pour le film N&B, il faut le même support de plastique, la même gélatine et les mêmes halogénures d'argent. En plus, il existe également une couche antihalo au contact du plastique et une couche de protection sur le dessus de l'émulsion.

Le film couleur est composé de 3 couches de gélatine imprégée d'halogénure d'argent. Ces trois couches sont en fait 3 films noir et blanc superposés. Ce qui fait la différence c'est que chaque couche devra correspondre à une couleur primaire (Rouge, Vert et Bleu). Il s'agit bien de trichromie (voir également ici).

La couche superficielle est sensible au bleu, c'est donc bien un film N&B classique. Cette couche sensible au bleu repose sur une couche filtre, de couleur jaune, qui bloquera le bleu, l'empêchant d'aller exposer les cristaux d'halogénure d'argent des couches inférieures. Juste au-dessous de ce filtre jaune, se trouvera la couche sensible au Vert puis, tout au dessous, au contact de la couche antihalo, la couche sensible au Rouge.

Dans certains films modernes, une couche supplémentaire est ajoutée entre le filtre jaune et la couche sensible au Vert, elle est sensible au Cyan qui se colorera en magenta clair au développement. Cette couche n'est pas indispensable mais elle améliore le rendu de la chair, point faible des films couleur.

Particularité des films couleur, chaque couche contient des coupleurs qui formeront des colorants au cours du développement. Ces coupleurs se fixant aux atomes d'argent réduits. Lors du développement, ces coupleurs donneront une couleur complémentaire à la couleur de sensibilité de chaque couche (d'où création du négatif). La couche sensible au bleu se colorera en jaune, la couche sensible au vert se colorera en magenta avec un secondaire jaune, la couche sensible au rouge se colorera en cyan avec des secondaires magenta et jaune. Les couleurs des secondaires sont des pollutions qu'il faut éliminer donc on a ajouté un masque aux deux dernières couches, masque jaune pour la couche sensible au vert et masque magenta et jaune pour la couche sensible au rouge. Pour mieux comprendre les couleurs, (re)lire l'article plus haut sur la page, traitant de la couleur.

Autre particularité des films couleur, les atomes d'argent sont éjectés du film lors du développement, ne laissant plus que les colorants dans la gélatine.

Ceci explique pourquoi il est possible de développer un film couleur avec un traitement noir et blanc : les colorants ne sont pas créés et les atomes d'argent sont conservés. On obtient bien un film N&B, dommage que l'on ait gaspillé deux couches de gélatine !...

C'est tout ce que je dirai du film couleur, le plus intéressant est ce qui se produit au niveau moléculaire, donc commun avec le film N&B...

Juste un mot pour être complet. Le film positif couleur (dit diapositive) permet d'obtenir directement une photo observable par transparence ou projection.

Le développement des diapositives se fait suivant des procédés spécifiques aux films inversibles. Dans le cas général des diapositives, chacune des trois couches principales comporte des grains sensibles à la lumière qui forment une image négative (idem qu'au dessus). Celle-ci est inversée par voile chimique avant de faire agir les coupleurs qui formeront le colorant au cours du développement chromogène : la couche sensibilisée au bleu se colore en jaune, la couche sensibilisée au vert se colore en magenta, la couche sensibilisée au rouge se colore en cyan.

Lors de ce développement, les couches filtre et anti-halo deviennent transparentes.

Et oui, je vous l'avais bien dit, cet article est très court, mais si vous le complétez effectivement avec celui traitant du film N&B, vous savez TOUT !...

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page


COMMENT FONCTIONNE UN CAPTEUR NUMÉRIQUE ?

Comme tout ce qui touche à la photographie en général, le numérique représente, jusque dans son fonctionnement de base, une simplification qui peut mener jusqu'à l'ennui... Tout ce qui pouvait paraître magique en argentique devient froid et banal en numérique. Mais puisque je me suis amusé à parler du fonctionnement du film et que je souhaite être complet, je vais tout de même faire une petite parenthèse sur le fonctionnement du capteur numérique, avec beaucoup moins d'enthousiasme, je l'avoue...

Ne me demandez pas un cours d'électronique, cela ne présentera aucun intérêt dans le cadre de cet article. Donc je ne ferai pas de différence entre les CCD et les CMOS qui présentent des fonctionnements quelque peu différents, mais dont le principe de base est le même.

La surface du capteur numérique est constituée de multiples photosites réagissant à la lumière. Ceci imite quelque peu le principe des cristaux d'halogénure d'argent des films, mais sans pour autant en avoir les mêmes caractéristiques. En effet, les photosites ont tous la même taille et sont répartis uniformément sur le capteur. Si vous lisez (ou avez lu) l'article sur le film N&B vous savez déjà que c'est l'irrégularité de taille et de localisation des grains d'halogénure d'argent qui crée les gammes de gris et qui donne l'effet onctueux et vivant des détails... Aussi, on comprend déjà pourquoi l'image numérique est moins vivante car plus systématique !...

Chacun de ces photosites donnera lieu, sur l'image finale, à un point (que l'on appelle pixel). Il ne faut pas confondre, à ce stade, le pixel et le grain d'argent de la photo argentique, même s'il existe une similarité fonctionnelle.

Lorsque les photosites sont touchés par un/des photon/s (les rayons lumineux), ils produisent une impulsion électrique. Alors que les cristaux d'halogénure d'argent ont besoin d'un nombre minimum de photon pour réagir à la lumière ET qu'ils ne peuvent donner qu'une information noir à 100% ou blanc à 100%, pour les photosites, l'information possède une intensité proportionnelle à la quantité de lumière fournie par lesdits rayons lumineux.

Seul point commun aux deux mondes, comme le film argentique, le capteur numérique possède une sensibilité, que les constructeurs expriment en équivalent ISO (pour permettre aux photographes argentistes de s'y retrouver !).

Aussi bizarre que cela puisse paraître à certain, la réaction du photon avec son récepteur est totalement analogique... le numérique n'est que l'étape suivante...

Le photon qui touche le photosite crée une impulsion. L'impulsion est par la suite codée sur un octet (suite de huit bits de valeur 0 ou 1, soit 256 possibilités différentes) grâce à un convertisseur analogique/numérique intégré. 256 est un nombre qui devrait vous parler... 256 est le nombre de niveaux de gris qui existent entre le noir profond et le blanc pur codé sur 8 bits en informatique... En effet, les photosites ne mesurent que la luminance ce qui nous donne une image... monochrome !... C'est exactement ce qui se passe avec tous les boîtiers numériques (uniquement) monochromes, comme le Leica par exemple...

Pour reproduire les valeurs de chrominance (les couleurs), chaque photosite est recouvert d'un filtre coloré, ne laissant passer que les rayons d'une certaine couleur (rouge, vert, bleu en synthèse additive, mais également quelquefois cyan, magenta, jaune et noir si le capteur fonctionne en synthèse soustractive). La plupart des capteurs disposent de filtres disposés de la manière suivante : bleu - vert - bleu - vert... sur une ligne, vert - rouge - vert - rouge... sur la suivante. C'est ce que l'on appelle la trame de Bayer. Ainsi, chaque photosite mesure avec précision l'intensité lumineuse d'une seule couleur primaire.

Tout cela parait simple mais il manque de l'information ! Les valeurs de rouge et de vert pour les pixels correspondant aux photosites recouverts d'un filtre bleu, de bleu et de vert pour ceux pourvus d'un filtre rouge... Et ça c'est un problème !!!

Le processeur intégré à l'appareil doit donc, pour récupérer les valeurs manquantes, réaliser une interpolation de couleurs (!!!). Il calcule les informations manquantes en se basant sur la couleur mesurée par les pixels adjacents. Cette méthode donne de bons résultats dans les conditions moyennes, mais montre rapidement ses limites dans des conditions de fort contraste ou de trame... Cela ruine également les transitions naturelles entre les couleurs...

Puisque chaque canal de couleur est également codé sur un octet, soit 256 valeurs différentes possibles, nous obtenons une étendue de 256 x 256 x 256 = 16,8 millions de couleurs, c'est le mode dit true color ou 24 bits. Mais de plus en plus d'appareils sont capables de gérer des couleurs d'une profondeur plus importante (30 bits, 36 bits ou même 48 bits pour certains modèles professionnels). Cela permet notamment une création plus fidèle et précise des transitions colorées ou des zones sous ou surexposées.

Voilà, comme précisé en début d'article, c'est bien moins glamour que l'argentique, il en va de même pour les résultats, mais le numérique est ainsi fait (à ce jour !).

ATTENTION : L'ENSEMBLE DES TEXTES ET DES IMAGES EST PROTÉGÉ PAR UN COPYRIGHT DE THIERRY DELORRAINE POUR LE SITE www.thydelor.eu

Si vous avez apprécié cet article, merci de soutenir mon site en créant un lien vers « www.thydelor.eu » sur votre site, votre blog (ou ceux de vos amis). Voir également ici.

Retour en haut de la page







Flag Counter
En savoir plus