Alors, quel est le problème ? Pourquoi le regroupement de pixels n’a-t-il pas été plus courant ?
Pendant des décennies, les astrophotographes utilisant des caméras d’astroimagerie dédiées ont pu activer et désactiver le regroupement de pixels en tant que bascule dans les paramètres de leur caméra ou de leur logiciel.
Alors pourquoi les caméras grand public n’offraient-elles pas le pixel binning jusqu’à récemment ?
La réponse est que les caméras d’astroimagerie sont traditionnellement des caméras monochromes et que les caméras grand public sont en couleur – et le regroupement des pixels devient plus compliqué avec les caméras couleur en raison de la façon dont elles capturent les données de couleur.
Traditionnellement, les astrophotographes créeraient une image couleur en combinant des images prises avec un filtre rouge, un filtre vert et un filtre bleu. Mais comme une roue à filtres n’est pas exactement un accessoire pratique pour un appareil photo de tous les jours, la plupart des appareils photo capturent des données de couleur en incorporant un motif de filtres de couleur rouge, vert et bleu qui couvre chaque photosite (ou pixel) sur le capteur d’image.
En d’autres termes, toutes les caméras couleur sont des caméras monochromes – sous leurs réseaux de filtres.
Jusqu’à récemment, presque tous les appareils photo numériques couleur utilisaient des lignes alternées rouge/vert et bleu/vert qui formaient un motif en forme de damier appelé matrice Bayer. (Une exception notable est la célèbre gamme X d’appareils photo sans miroir de Fujifilm, qui utilise un motif 6×6 non conventionnel.) Le tableau Bayer porte le nom de Bryce Bayer, qui l’a inventé alors qu’il travaillait pour Kodak dans les années 1970.
Dans un tableau Bayer, chaque groupe de pixels 2×2 contient deux pixels verts, situés en diagonale l’un de l’autre, et un pixel rouge et un pixel bleu. Pour déterminer la couleur à un point particulier de l’image, le processeur interne de l’appareil photo échantillonne les pixels environnants pour interpoler les données de couleur RVB complètes pour chaque pixel dans un processus appelé dématriçage.
Mais un tableau Bayer rend le regroupement de pixels beaucoup plus compliqué. Pour ce faire, l’appareil photo additionne normalement les données de chaque grille rouge, verte (2x) et bleue en une seule valeur, mais cela supprime les données de couleur, ce qui donne une image monochrome. Un algorithme plus compliqué serait nécessaire pour regrouper chaque couleur séparément, ce qui introduit des artefacts et annule considérablement le gain de sensibilité.
Pour permettre aux caméras couleur de filtrer plus efficacement les pixels, les fabricants de capteurs de caméras ont réorganisé l’ensemble de la grille de filtres en un motif appelé réseau quad-Bayer (ou quad-pixels, dans la terminologie préférée d’Apple). Dans ce motif, chaque groupe 2×2 est de la même couleur, formant un motif Bayer plus grand avec quatre pixels dans chaque superpixel.
->Google Actualités