Une controverse avec les appareils photo des téléphones de Samsung a renouvelé la conversation autour de la photographie informatique et met en évidence la différence entre celle-ci et l’approche d’Apple dans iOS.

La photographie informatique d’Apple vise le réalisme

Ce n’est pas un grand secret qu’Apple s’appuie sur des algorithmes avancés et la photographie informatique pour presque tous ses iPhone fonctionnalités de la caméra. Cependant, les utilisateurs commencent à se demander où tracer la ligne entre ces algorithmes et quelque chose de plus intrusif, comme l’altération des pixels après capture.

Dans cet article, nous examinerons la controverse entourant Samsung photos de lunecomment l’entreprise aborde la photographie informatique et ce que cela signifie pour Apple et ses concurrents à l’avenir.

Publicité

Photographie computationnelle

La photographie computationnelle n’est pas un nouveau concept. Cela est devenu nécessaire car les gens voulaient plus de performances de leurs minuscules caméras de smartphone.

L’idée de base est que les ordinateurs peuvent effectuer des milliards d’opérations en un instant, comme après une pression sur l’obturateur d’un appareil photo, pour remplacer le besoin d’éditions de base ou appliquer des corrections plus avancées. Plus nous pouvons programmer l’ordinateur à faire après l’appui sur l’obturateur, meilleure sera la photo.

Cela a commencé avec le système de double caméra d’Apple sur l’iPhone 7. D’autres innovations photographiques avant cela, comme Photos en directpourrait être considéré comme de la photographie informatique, mais le mode Portrait a été le tournant pour Apple.

Apple a introduit le mode Portrait en 2016, qui a pris les données de profondeur des deux caméras de l’iPhone 7 Plus pour créer un bokeh artificiel. La société a affirmé que cela était possible grâce au système à double caméra et au processeur de signal d’image avancé, qui a effectué 100 milliards d’opérations par photo.

Inutile de dire que ce n’était pas parfait, mais c’était un pas vers l’avenir de la photographie. La technologie de l’appareil photo continuerait à s’adapter au facteur de forme du smartphone, les puces deviendraient plus rapides et les capteurs d’image deviendraient plus puissants par pouce carré.

Le mode portrait utilise la photographie informatique pour séparer le premier plan

En 2023, il n’est pas rare de filmer des vidéos floues au cinéma à l’aide de moteurs de calcul avancés avec des résultats mitigés. Photographie computationnelle est partout, du moteur photonique aux styles photographiques – un algorithme traite chaque photo prise sur iPhone. Oui, même ProRAW.

Tout cela était rendu nécessaire par le désir des gens de capturer leur vie avec l’appareil qu’ils avaient sous la main, leur iPhone. Caméras dédiées ont la physique de leur côté avec de grands capteurs et des lentilles géantes, mais la personne moyenne ne veut pas dépenser des centaines ou des milliers de dollars sur une plate-forme dédiée.

Donc, photographie computationnelle est intervenu pour améliorer ce que les minuscules capteurs des smartphones peuvent faire. Des algorithmes avancés construits sur de grandes bases de données informent le processeur de signal d’image sur la façon de capturer l’image idéale, de traiter le bruit et d’exposer un sujet.

Cependant, il existe une grande différence entre l’utilisation de la photographie informatique pour améliorer les capacités de l’appareil photo et la modification d’une image basée sur des données que le capteur n’a jamais capturées.

Le moonshot de Samsung

Pour être clair : Apple utilise des modèles d’apprentissage automatique – ou « IA, intelligence artificielle » pour ceux qui utilisent le nouveau mot à la mode populaire mal inventé – pour la photographie computationnelle. Les algorithmes fournissent des informations sur le contrôle des captures d’images multiples pour produire les meilleurs résultats ou créer des profils de profondeur de champ.

Le processeur d’image analyse le teint de la peau, le ciel, les plantes, les animaux domestiques, etc. pour fournir une coloration et une exposition appropriées, et non un remplacement de pixels. Il ne cherche pas d’objets, comme la lune, pour fournir des améliorations spécifiques basées sur des informations extérieures au capteur de la caméra.

Nous le soulignons parce que ceux qui débattent des photos de la lune de Samsung ont utilisé la photographie informatique d’Apple comme exemple de la façon dont d’autres entreprises effectuent ces modifications photographiques. Ce n’est tout simplement pas le cas.

L’algorithme lunaire de Samsung en action. Crédit : u/ibreakphotos sur Reddit

Samsung a documenté comment les téléphones Samsung, depuis le Galaxy S10, ont traité les images en utilisant la reconnaissance et la modification d’objets. Le Scene Optimizer a commencé à reconnaître la lune avec le Galaxy S21.

Comme le décrit le document récemment publié, « l’IA » reconnaît la lune grâce à des données apprises, et la fonction de moteur d’amélioration des détails est appliquée pour rendre la photo plus claire avec la synthèse multi-images et l’apprentissage automatique.

Fondamentalement, les appareils Samsung reconnaîtront une lune non masquée, puis utiliseront d’autres images et données haute résolution sur la lune pour synthétiser une meilleure sortie. Le résultat n’est pas une image capturée par la caméra de l’appareil, mais quelque chose de nouveau et fabriqué.

Dans l’ensemble, ce système est intelligent car la lune a la même apparence, peu importe où elle est vue sur terre. La seule chose qui change est la couleur de la lumière réfléchie par sa surface et la phase de la lune elle-même. Améliorer la lune sur une photo sera toujours un calcul simple.

Les appareils Samsung et Apple prennent une exposition multi-photos pour des calculs avancés. Les deux analysent plusieurs images capturées pour la meilleure partie de chacune et les fusionnent en une seule image supérieure. Cependant, Samsung ajoute une étape supplémentaire pour les objets reconnus comme la lune, qui introduit de nouvelles données provenant d’autres images lunaires haute résolution pour corriger la lune dans l’image capturée finale.

L’algorithme lunaire de Samsung expliqué. Crédit : Samsung

Ce n’est pas nécessairement une mauvaise chose. Ce n’est tout simplement pas quelque chose que Samsung n’a pas précisé dans sa publicité ou sa commercialisation de produits, ce qui peut semer la confusion chez les clients.

Le problème avec ce processus, et la raison pour laquelle un débat existe, est de savoir comment cela affecte l’avenir de la photographie.

Pour faire court, l’image finale ne représente pas ce que le capteur a détecté et l’algorithme traité. Il représente une version idéalisée de ce qui pourrait être possible, mais ce n’est pas parce que le capteur et l’objectif de l’appareil photo sont trop petits.

La bataille imminente pour le réalisme

De notre point de vue, le principe clé de la photographie sur iPhone a toujours été le réalisme et la précision. S’il existe un milieu parfait de saturation, de netteté et d’exposition, Apple a eu tendance à se rapprocher du centre au cours de la dernière décennie, même si elle n’est pas toujours restée parfaitement cohérente.

Nous reconnaissons que la photographie est incroyablement subjective, mais il semble que la photographie Android, à savoir Samsung, se soit éloignée du réalisme. Encore une fois, pas nécessairement un choix négatif, mais un choix avisé fait par Samsung auquel les clients doivent répondre.

Pour le sujet de cette discussion, les appareils Samsung et Pixel se sont lentement éloignés de ce centre de représentation réaliste idéal. Ils se disputent plus de saturation, de netteté ou d’exposition nocturne la nuit.

L’exemple ci-dessus montre comment le Galaxy S22 Ultra a favorisé plus d’exposition et de saturation, ce qui a entraîné une perte de détails. Des choix innocents et opiniâtres, mais le iPhone 13 Prodans ce cas, rentre chez lui avec une photo plus détaillée qui pourra être modifiée ultérieurement.

Cette différence dans la façon dont les photos sont capturées est définie dans les algorithmes avisés utilisés par chaque appareil. Au fur et à mesure que ces algorithmes progressent, les décisions futures en matière de photographie pourraient conduire à des choix plus avisés qui ne pourront plus être inversés par la suite.

Par exemple, en changeant la façon dont la lune apparaît à l’aide d’algorithmes avancés sans alerter l’utilisateur, cette image est modifiée à jamais pour correspondre à ce que Samsung pense être idéal. Bien sûr, si les utilisateurs savent désactiver la fonctionnalité, ils le peuvent, mais ils ne le feront probablement pas.

Nous sommes enthousiasmés par l’avenir de la photographie, mais en tant que passionnés de photographie, nous espérons qu’elle ne soit pas si invisible. Comme le mode portrait d’Apple, les photos en direct et d’autres techniques de traitement, faites-en l’option avec des bascules évidentes. Aussi, rendez-le réversible.

Appuyez sur l’obturateur dans l’application principale de l’appareil photo d’un appareil pour prendre une photo représentative de ce que le capteur voit. Si l’utilisateur en veut plus, laissez-le choisir de l’ajouter via des basculements avant ou de le modifier après.

Pour l’instant, essayez de prendre des photos du ciel nocturne avec uniquement votre iPhone et un trépied. Ça marche.

Pourquoi c’est important

Il est important de souligner qu’il n’y a aucun problème à remplacer l’horrible boule rougeoyante dans le ciel par une véritable lune, ni à supprimer des personnes ou des ordures (ou des ordures) d’une photo. Cependant, il doit s’agir d’un processus contrôlable, basculable et visible pour l’utilisateur.

La photographie computationnelle est l’avenir, pour le meilleur ou pour le pire

Au fur et à mesure que les algorithmes progressent, nous verrons des images plus idéalisées et traitées à partir de smartphones Android. Les pires contrevenants retireront ou remplaceront carrément les objets sans préavis.

Apple améliorera inévitablement son traitement d’image et ses algorithmes sur l’appareil. Mais, sur la base de la façon dont l’entreprise a abordé la photographie jusqu’à présent, nous nous attendons à ce qu’elle le fasse en respectant le désir de réalisme de l’utilisateur.

Le tribalisme dans la communauté technologique a toujours provoqué des débats parmi les utilisateurs. Ceux-ci ont inclus Mac ou PC, iPhone ou Android, et bientôt, des photos réelles ou idéales.

Nous espérons qu’Apple continuera à choisir le réalisme et le contrôle de l’utilisateur sur les photos à l’avenir. Donner à une entreprise un contrôle total sur ce que l’utilisateur capture dans un appareil photo, jusqu’à modifier les images pour correspondre à un idéal, ne semble pas être un avenir dont nous voulons faire partie.

->Google Actualités

Rate this post
Publicité
Article précédentShaman King Flowers révèle la sortie, le personnel, la distribution et le visuel
Article suivantToo Cute Crisis, Otaku Elf Anime Lead Derniers titres HIDIVE du printemps 2023

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici