Tech reviews and news

Opinion: Pourquoi la Deep Fusion de l'iPhone 11 Pro pourrait en faire un rival du Pixel 4

click fraud protection

Les caméras des iPhones d'Apple sont constamment en retard de quelques pas par rapport à leurs rivaux depuis des années. - et le battage médiatique de l’iPhone 11 Pro autour des nouveaux pouvoirs photographiques de l’iPhone 11 Pro est reconnu cette.

Alors maintenant, le champ de distorsion de la réalité d'hier s'est dissipé, Apple a-t-il vraiment réussi à combler le fossé photographique entre ses iPhones et les pixels de Google?

Je pense qu'il y a de bonnes chances que ce soit le cas, et la raison principale est que sa «fusion profonde» (et dans une moindre mesure, son «mode nuit») signifie que c'est enfin en prenant Google sur son propre jeu de photographie informatique - avec l'aide supplémentaire de quelques modèles traditionnels d'Apple avantages.

iPhone 11 Pro Deep Fusion

Bien sûr, ce "mode nuit" attendu depuis longtemps est simplement un cas où Apple échange tardivement des pièces d'échecs avec le "Night Sight" de Google. Disponible sur tous ses nouveaux iPhones, y compris le moins cher iPhone 11, ce mode semble fonctionner de la même manière que le Pixel 3, fusionnant plusieurs images ensemble pour éclaircir les scènes de nuit et réduire le bruit.

Le mode nuit d'Apple utilise également le bracketing adaptatif, ce qui signifie qu'il réduira le temps d'exposition de chaque image s'il détecte un mouvement sur la photo. Cela signifie que, comme sur le Pixel 4, cela pourrait bien être un mode utile en dehors des scènes de nuit - le look reconnaissable et super propre de Google «Night Sight» est devenu de plus en plus courant car les gens ont appris à aimer sa polyvalence en dehors du noir absolu scènes.

En rapport: iPhone 11 Pro et iPhone 11 Pro Max: date de sortie, prix et spécifications

Deep Fusion: comment ça marche

Mais les modes nuit n'ont rien de nouveau. La fonctionnalité la plus excitante est sans aucun doute «Deep Fusion». Certes, c’est un autre terme marketing ridicule d’Apple à déposer aux côtés des écrans Retina, et ne sera disponible qu’avec une mise à jour ultérieure du micrologiciel. Cependant, la description (relativement clairsemée) d'Apple de son fonctionnement suggère qu'elle pourrait encore aider les iPhones au moins à combler l'écart par rapport à leurs rivaux Google et Huawei.

«Deep Fusion» n’est pas un autre «mode nuit» (comme nous l’avons vu, Apple l’a déjà). Au lieu de cela, cela ressemble beaucoup plus à la technique de super-résolution que Google a utilisée auparavant dans son zoom Super Res. Cela ne signifie pas qu'Apple l'utilisera pour le zoom - il dispose déjà d'un téléobjectif de 52 mm pour cela - mais au lieu de créer des images 24MP de haute qualité et haute résolution que son capteur ne peut tout simplement pas produire sur son propre.

Mode nuit de l'iPhone 11 Pro

Le mode nuit de l'iPhone 11 et de l'iPhone 11 Pro fonctionne de la même manière que le Night Sight de Google, et n'est pas aussi excitant que Deep Fusion

Alors, comment fonctionne Deep Fusion? Tout comme la technique de super-résolution de Google, elle utilise un puissant pipeline de traitement d'image pour combiner les avantages du HDR avec la supercherie Pixel Shift vue sur des caméras plus grandes comme la Sony A7R IV. Le résultat, dans certaines situations, devrait théoriquement produire les meilleures photos iPhone à ce jour, et certaines des meilleures que nous ayons vues depuis un smartphone.

Comme sur le Pixel, "Deep Fusion" verra le iPhone 11 Pro mise en mémoire tampon constante de plusieurs images en prévision de votre pression sur le déclencheur, jetant de côté les images inutilisées pour faire de la place pour de nouvelles images. Le mode HDR + du Pixel met actuellement en mémoire tampon jusqu'à 15 images, tandis que l'iPhone 11 Pro le fera à la place avec neuf - Selon Apple, cela comprendra quatre images courtes, quatre images «secondaires» et votre obturateur final presse.

Jusqu'à présent, donc Smart HDR, mais avec deux fois le nombre d'images tamponnées. Mais là où Deep Fusion prend les choses d'un cran, c'est avec la dernière pression sur l'obturateur, qui est une exposition plus longue, et la façon dont la photo est ensuite assemblée.

iPhone 11 Pro Deep Fusion

On ne sait pas encore si Deep Fusion sera disponible sur les trois caméras de l'iPhone 11 Pro, ou uniquement sur la principale 26 mm.

Premièrement, contrairement aux modes nuit, Deep Fusion sera apparemment un processus en temps réel. Grâce aux vitesses d'obturation relativement courtes des images tamponnées, vous ne devriez pas avoir besoin de rester immobile et d'attendre que la caméra éclate. Il y aura juste le temps d'exposition plus long lorsque vous appuyez sur l'obturateur, plus la seconde que son moteur neuronal prendra pour le traiter.

Ce dernier est également une autre différence clé par rapport au HDR: l'iPhone 11 Pro ne fera pas que calculer la moyenne des images collectées, mais plutôt assembler une image plus grande de 24 mégapixels pixel par pixel, vraisemblablement avec l'aide d'OIS, «pour optimiser les détails et les faibles bruit".

La manière exacte dont il procédera n'est pas claire, mais elle pourrait bien utiliser la technique de Google consistant à diviser chaque image en milliers de tuiles, à les aligner, puis à effectuer un traitement supplémentaire par-dessus. Cela signifierait que de légers mouvements dans votre scène ne devraient pas apparaître comme un flou, ce qui en fait un mode plus polyvalent plutôt qu'une simple photo.

Quoi qu'il en soit, la raison pour laquelle Deep Fusion est un gros problème est qu'il ne s'agit pas simplement d'une sous-fonctionnalité de niche comme l'éclairage de portrait d'Apple - c'est un système de traitement d'image complet, qui se combinera probablement les pouvoirs d'OIS, de la puce A13 Bionic, de l'empilement des expositions et de l'apprentissage automatique de style Google (plus, peut-être même les trois objectifs, comme cela a été dit) pour aider à combler le fossé avec le Pixel entrant 4.

En rapport: Le Pixel 4 a besoin de cette fonction d'appareil photo - et cela n'a rien à voir avec la photographie

Réaction de fusion

Alors dans quelles situations Deep Fusion sera-t-il utile? L'exemple de portrait utilisé par Apple (ci-dessous) contenait une «lumière faible à moyenne», et cela semble être le meilleur scénario pour cela - pas si sombre que vous besoin du mode nuit, mais suffisamment stimulant pour que vous puissiez voir le véritable avantage de tout ce traitement et obtenir une photo plus grande de 24 mégapixels dans le traiter. Pensez aux portraits de personnes, à l'architecture et aux paysages du matin ou du crépuscule.

Cela signifie qu'Apple pourrait mettre Deep Fusion comme option «marche / arrêt» dans les menus de l'appareil photo (avec un avertissement concernant le stockage supplémentaire dont ses clichés de 24 mégapixels auront besoin) ou, comme Google, en faire l'un des principaux appareils photo modes. Nous découvrirons "cet automne", qui est la date de sortie d'Apple pour la date à laquelle Deep Fusion arrivera sur l'iPhone 11 Pro et Pro Max sous forme de mise à jour logicielle.

iPhone 11 Pro Deep Fusion

Cette photo en «lumière faible à moyenne» a été prise à l'aide de Deep Fusion et montre apparemment le niveau de détail auquel on peut s'attendre de ses images de 24 mégapixels.

Le retard et le flou d'Apple autour de Deep Fusion sont sans aucun doute liés à l'annonce imminente de la Pixel 4, qui arrivera à la mi-octobre 2019. Pourquoi ne montrer toutes vos cartes que pour se faire tromper par la nouvelle «science folle de calcul» de Google, comme Apple l'appelait avec suffisance sa nouvelle fonctionnalité d'appareil photo?

Mais il y a suffisamment de promesses dans les détails de Deep Fusion pour suggérer qu'il va, sinon exactement sauter son rivaux, permettez au moins à l'iPhone 11 Pro de se mettre à leur niveau dans les images fixes plus basses, tout en conservant son avance dans vidéo.

Apple a rarement été le premier à proposer une nouvelle technologie. Ce qu'il fait généralement, c'est affiner les éléments existants - comme il l'a fait avec le mode Portrait sur l'iPhone 7 Plus - puis relâchez-les quand ils sont vraiment prêts pour les heures de grande écoute, tout en chantant comment ils étaient en premier lieu le long de.

Google est toujours dans la boîte quand il s'agit de la photographie computationnelle, mais avec Deep Fusion, il semble qu'Apple se prépare enfin à s'engager pleinement dans la fête. Avec une plate-forme solide sous la forme de la puce A13 Bionic et la promesse d'applications comme Filmic Pro et Halide tapping dans ses pouvoirs photographiques, l'iPhone 11 Pro pourrait enfin voir Apple le rattraper avec des rivaux comme le Pixel entrant 4.

Examen du routeur cloud D-Link DIR-868L

Examen du routeur cloud D-Link DIR-868L

SectionsPage 1Examen du routeur cloud D-Link DIR-868LPage 2Examen du rendement et du verdictAvant...

Lire La Suite

Cette fuite Galaxy X pourrait résoudre le grand mystère du téléphone pliable de l'année prochaine

Bien que Samsung ait offert un aperçu substantiel de ce à quoi ressemblera son téléphone pliable ...

Lire La Suite

Anti-piratage: le gouvernement investit 2 millions de livres supplémentaires dans «Get it Right»

En janvier dernier, le gouvernement a adopté une approche beaucoup plus douce pour lutter contre ...

Lire La Suite

insta story