Retour

La photographie numérique

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

Introduction

La photographie argentique inventée il y a plus de cent cinquante ans a évolué lentement.

Les technologies de la photographie argentique sont liées aux progrès en optique, mécanique et chimie. 

Par contre, la photographie numérique, grâce à la mise au point d'algorithmes de traitement de l'image de plus en plus sophistiqués, connait depuis quelques années des progrès spectaculaires.

La photographie numérique s'est répandue auprès d'un plus large public par la succession de 3 nouvelles technologies successives :

  • Les appareils compacts à la fin des années 1990.
  • Les reflex numériques au milieu des années 2000.
  • Les smartphones à la fin des années 2000.

Repères historiques

  • Antiquité : la chambre noire permet de montrer une image inversée ;

  • 1826 : naissance de la photographie argentique par Niepce ;

  • 1838 : création du daguerréotype par Daguerre (une image fixée sur du métal) ;

  • 1900 : photographie en couleurs ;

  • 1969 : arrivée des premiers capteurs CCD (Charge Coupled Device)  ;

  • 1981 : commercialisation du premier appareil photo numérique par Sony  ;

  • 1995 : invention du capteur CMOS qui équipe maintenant les smartphones ;

  • 2000 : premier téléphone portable commercialisé par Sharp.

  • 2007 : arrivée du smartphone.

Les composants d'un appareil photo numérique

Voici les composants essentiels d'un appareil photo numérique :

  • Le viseur : c'est la partie qui permet de composer l'image.
    Sur les appareils compacts, le viseur est souvent remplacé par l'écran.

  • L'objectif : C'est la source d'entrée de la lumière.
    Quand le déclencheur est activé, l'objectif permet l'ouverture du diaphragme.

  • Le capteur : Il transforme la lumière en impulsions électriques.
    Un capteur est composé de diodes appelées photosites.
    À partir de la quantité de lumière en composante rouge, verte et bleue reçue par le capteur, on compose un point de l'image appelé pixel.

  • Le Convertisseur Analogique Numérique (CAN) : il transforme les données analogiques en données numériques.
    Les impulsions électriques des photosites sont transformées en données numériques.

  • L'écran : L'image traitée s'affiche sur l'écran.
    Sur certains appareils il est possible de retoucher l'image directement à l'aide l'algorithmes de traitement d'image intégrés.

  • Le micro-processeur : il traite numériquement l'image.
    Le micro-processeur reçoit en entrée les informations numériques et effectue un traitement algorithmique afin de reconstituer les pixels de l'image, d'améliorer la netteté de l'image, d'effectuer des corrections d'aberrations optiques.

  • La carte mémoire : elle sauvegarde la photo prise.
    Il s'agit souvent d'une carte SD dotée d'une capacité de sauvegarde de plusieurs Giga-octets.

Les métadonnées d'une photographie numérique

Des métadonnées sont stockées dans les fichiers images sous format EXIF (Exchangeable Image File Format) : modèle de l’appareil, objectif, vitesse, diaphragme, distance de mise au point, auteur, copyright, localisation, etc.

Ce sont des données techniques non modifiables.

Il existe aussi d'autres formats de métadonnées qui sont elles modifiables.

On peut citer par exemple le format IPTC (International Press Telecommunications Council) qui permet notamment d'enregistrer le nom du fichier, le nom de l'auteur, le copyright, des mots clefs.

Couleurs et formats

Les couleurs peuvent être représentées dans différents systèmes.

Les deux plus courants sont :

  • RVB (Rouge, Vert, Bleu) ;
  •  TSL (teinte, saturation, lumière).

On peut enregistrer les images dans des formats :

  • non compressés (RAW) ;
  • compressés sans perte (BMP, TIFF, PNG) ;
  • compressés avec perte (JPEG).

Quelques notions importantes liées à la photographie numérique

  • Le pixel (Picture Element) : point d'une image numérique.
    Un pixel est défini par sa couleur.
    Pour une image en noir et blanc, la valeur d'un pixel est 0 (noir) ou 1 (blanc).
    Pour une image en niveaux de gris, la valeur d'un pixel peut être comprise entre 0 et 255.
    Pour une image en couleurs, un pixel est défini par ses 3 composantes Rouge, Verte et Bleue (comprise chacune entre 0 et 255).

  • La définition d'une image : c'est le nombre de points qui la compose.
    Exemple : une image de 100 pixels de large sur 100 pixels de hauteur aura une définition de 100$\times$100 = 10 000 pixels.

  • La résolution d'une image : c'est le nombre de pixels par unité de longueur (souvent le pouce).
    Elle s'exprime en dpi (dot per inch).

  • L'ouverture et la vitesse du diaphragme : ces deux paramètres permettent de régler finement la quantité de lumière reçue par le capteur photographique.
    Plus l'ouverture est grande et sur une longue durée (faible vitesse) et plus la quantité de lumière reçue par le capteur sera importante.

  • La sensibilité du capteur à la lumière.
    Si la scène est sombre, il faut utiliser une sensibilité élevée.
    Cette sensibilité se définit en ISO.

  • La profondeur de champ : il s'agit de l'étendue de la scène qui sera nette. Ce paramètre dépend de la distance entre les lentilles de l'objectif et le capteur (appelée focale de l'appareil).
    Exemples :
    Pour un téléobjectif, la focale sera grande et la profondeur de champ petite.
    À l'opposé en mode portrait, la focale sera petite et la profondeur de champ grande permettant par exemple un visage net avec un arrière-plan flou.

Les algorithmes de traitement d'image

On peut classer ces algorithmes en 3 catégories :

  • Les aides à la prise de vue permettent les réglages suivants :
    • La netteté avec l'autofocus ;
    • L'exposition ;
    • Le rapport entre ouverture et vitesse :
      • automatique,
      • mode portrait,
      • détection des visages,
      • mode nuit (sensibilité et ouverture maximales),
      • mode sport (vitesse d'obturation élevée),
      • mode rafale (prises d'image avant et après l'appui sur le déclencheur).
    •  La stabilisation de l'image.

  • L'amélioration de l'image :
    • Diminution du bruit (par fusion d'images prises en rafales) ;
    • Correction des aberrations dues à l'optique des objectifs ;
    • Equilibrage des couleurs.

  • Le développement numérique
    Une opération nommée dématriçage permet le passage des données brutes (du format RAW) à un fichier en couleur (JPEG par exemple).

Grâce à ces traitements algorithmiques, la qualité des clichés numériques est maintenant bien supérieure à celle de l'argentique.

🍀 Fiches de révision PREMIUM

PREMIUM

Architecture Client Serveur

PREMIUM

Html et CSS

PREMIUM

Html formulaire

PREMIUM

Les réseaux sociaux

PREMIUM

Le réseau

PREMIUM

Python

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !