Rate this post


L’une des principales raisons pour lesquelles je suis resté fidèle aux téléphones Pixel au cours des dernières années est la qualité des photos. Bien sûr, d’autres téléphones ont offert des résolutions plus élevées, des capteurs plus avancés, mais grâce au traitement intelligent de Google, la qualité des images de la caméra du Pixel a été parmi les meilleures que vous puissiez obtenir. Lequel en tant que photographe, c’est la clé.

Ils continuent de peaufiner ce traitement, et la dernière mise à jour est suffisamment intéressante (pour moi en tout cas) pour justifier qu’un blog s’y plonge, récemment par eux et maintenant par moi. Mais avant d’en arriver là, parlons du HDR en général, car il est partout.

Qu’est-ce que le HDR?

HDR signifie High Dynamic Range. La plage dynamique elle-même est la différence entre les parties les plus sombres d’une image et les plus lumineuses. HDR signifie deux choses différentes, que vous parliez du HDR pour les caméras ou du HDR pour les téléviseurs. J’ai déjà écrit sur cette différence. La version courte est que le HDR pour appareils photo combine plusieurs images avec différentes expositions pour créer une seule image qui semble avoir une plage dynamique plus grande que ce que n’importe quelle image unique pourrait réaliser. Le HDR avec les téléviseurs est une plage dynamique réellement plus grande que ce qui est possible avec les téléviseurs non HDR.

Le moyen le plus simple de faire du HDR avec un appareil photo est de prendre une photo sous-exposée, une photo normalement exposée et une photo surexposée. Ensuite, vous, l’appareil photo ou une application, combinez ces trois images. Il prend les détails clairs (clairs) de la photo sous-exposée et les détails d’ombre (sombres) de la photo surexposée, et les combine avec la photo «correcte». Selon la façon dont ces images sont mélangées, le résultat peut être une photo d’apparence normale avec de meilleurs détails d’ombre et de surbrillance, ou une photo ultra-vibrante et très stylisée comme celle qui faisait fureur il y a quelques années.

Google, avec HDR + dans les caméras Pixel, le fait un peu différemment. Il faut un grand nombre d’images sous-exposées en succession rapide, appelé photographie en rafale, puis utilise un traitement intensif pour les fusionner afin de créer une image avec une plage dynamique plus grande que ce qui semble possible étant donné la petite lentille et le capteur de vieillissement. L’une des nombreuses difficultés de cette méthode est qu’elle est utilisée sur un téléphone, qui ne sont presque jamais parfaitement stables. Ainsi, l’alignement de l’image, la réduction du flou et bien plus encore sont tous nécessaires.

Le résultat, cependant, fonctionne. À tel point que de nombreuses entreprises proposent désormais un traitement similaire sur leurs téléphones et appareils photo. L’un des inconvénients de cette technique est qu’avec certaines images, il y aura un niveau de bruit plus élevé dans les ombres. C’est ce que Google vise à réduire avec «HDR + avec bracketing».

HDR + avec bracketing

La réduction du bruit global d’une image n’est pas un processus simple, du moins pas avec quelque chose qui sera toujours en mouvement comme un téléphone. Si vous aviez un appareil photo de taille normale sur un trépied, vous pourriez facilement prendre des images à faible bruit dans n’importe quelle lumière. Personne n’a la patience d’attendre 60 secondes, tout en restant parfaitement immobile, pour que son téléphone prenne une photo de quelques amis dans une pièce sombre.

La solution semble évidente au premier abord. HDR + avec bracketing comprend une image à exposition plus longue pour le mélange à exposition courte. Cette image aura moins de bruit dans les ombres, ce qui contribuera à réduire le bruit global de l’image finale.

Ce n’est pas vraiment facile, cependant, comme nous l’avons discuté. Même un délai de quelques secondes après avoir appuyé sur le déclencheur peut entraîner un moment manqué ou un photographe frustré. C’est là que ça devient intéressant.

Il s’avère que pour améliorer l’expérience utilisateur avec HDR +, l’appareil photo utilise en fait des données avant même que vous n’appuyiez sur le déclencheur. Il prend déjà la photo, avant de prendre la photo. Ensuite, une fois que vous avez choisi le moment exact que vous voulez, il l’utilise comme base et combine ce qu’il a vu au préalable.

Avec HDR + avec bracketing, il ajoute une image d’exposition plus longue après vous appuyez sur le bouton. Étant donné que la plupart des gens s’attendent à un retard à ce stade, cela n’affecte pas de manière significative l’expérience utilisateur.

Night Sight, le mode impressionnant de Google qui prend des photos très faiblement éclairées, le fait un peu différemment et va encore plus loin. Dans ce cas, toutes les images sont prises après avoir appuyé sur l’obturateur, ce qui est bien car je pense que la plupart des gens s’attendent à ce que ce mode soit plus lent. Il remplace également trois des nombreuses images par des expositions plus longues.

La sauce secrète à tout cela, bien sûr, est le traitement final. Non seulement en exposant correctement l’image finale, avec le moins de bruit possible, mais en réduisant le flou et les images fantômes qui sont fondamentalement inhérents à la photographie portative à exposition multiple. Ils ne creusent pas dans les détails, mais disent que c’est lié au traitement qu’ils utilisent pour leur Zoom super résolution.

Le HDR + avec Bracketing fonctionne déjà sur les Pixel 5 et 4a 5G en mode appareil photo normal, ainsi que les modes Vue nocturne et Portrait. Dans les anciens 4 et 4a, il est actuellement uniquement en mode Night Sight. Je ne serais pas surpris si d’autres entreprises commencent à peaufiner leurs propres versions HDR + / Night Sight pour inclure des expositions plus longues. Je ne serais pas non plus surpris si finalement ils ajoutent cette technique à l’application Google Camera.

Vous pouvez voir plus d’exemples ici et lisez leur analyse approfondie du HDR + avec Bracketing.

.

Leave a Reply