La camera ne ment jamais. Sauf que bien sûr, cela arrive, et cela semble se produire de plus en plus souvent chaque jour qui passe.
À l’ère des smartphones, les ajustements numériques rapides pour améliorer les images sont devenus monnaie courante, depuis l’amélioration des couleurs jusqu’à l’ajustement des niveaux de lumière.
Aujourd’hui, une nouvelle génération d’outils pour smartphones alimentés par l’intelligence artificielle (IA) vient enrichir le débat sur ce que signifie photographier la réalité.
Les derniers smartphones de Google sortis la semaine dernière, les Pixel 8 et Pixel 8 Pro, vont encore plus loin que les appareils des autres sociétés. Ils utilisent l’intelligence artificielle pour modifier les expressions des gens sur les photos.
C’est une expérience que nous avons tous vécue : il y a une personne dans une photo de groupe qui détourne le regard de la caméra ou ne parvient pas à sourire. Les téléphones Google peuvent désormais rechercher dans vos photos pour mélanger et faire correspondre les expressions précédentes, en utilisant l’apprentissage automatique pour dessiner un smiley à partir d’une image différente sur une photo. Google l’appelle la meilleure prise.
Les appareils permettent également aux utilisateurs d’effacer, de déplacer et de redimensionner les éléments indésirables d’une image – des personnes aux bâtiments – en « remplissant » l’espace restant avec un soi-disant Magic Editor. Cela utilise ce qu’on appelle l’apprentissage profond, qui est un puissant algorithme d’intelligence artificielle qui détermine quelles textures doivent combler une lacune en analysant les pixels environnants qu’il peut voir, en utilisant les connaissances acquises grâce à des millions d’autres images.
Il n’est pas nécessaire que les photos soient prises sur l’appareil. Avec le Pixel 8 Pro, vous pouvez appliquer ce qu’on appelle un Magic Editor ou Best Take à toutes les photos de votre bibliothèque Google Photos.
« Mauvais et effrayant »
Pour certains observateurs, cela soulève de nouvelles questions sur la façon dont les images sont prises.
Andrew Pearsall, photographe professionnel et maître de conférences en journalisme à l’Université du Pays de Galles du Sud, reconnaît que la manipulation de l’intelligence artificielle comporte des risques.
« Une simple manipulation, même pour des raisons esthétiques, peut nous conduire sur un chemin sombre », a-t-il déclaré.
Il a déclaré que les risques sont plus élevés pour ceux qui utilisent l’IA dans des contextes professionnels, mais qu’il y a des implications que tout le monde devrait prendre en compte.
« Vous devez faire très attention à la question : « Quand franchissez-vous la ligne ? »
« C’est très troublant maintenant qu’on puisse prendre une photo et supprimer instantanément quelque chose sur son téléphone. Je pense que nous entrons dans une sorte de monde factice. »
S’adressant à la BBC, Isaac Reynolds de Google, qui dirige l’équipe développant des systèmes de caméras sur les smartphones de l’entreprise, a déclaré que l’entreprise prenait au sérieux les considérations éthiques concernant sa technologie grand public.
Il n’a pas tardé à souligner que des fonctionnalités telles que Best Take n’étaient rien de « faux ».
La qualité des appareils photo et des logiciels est essentielle pour une entreprise en concurrence avec Samsung, Apple et d’autres, et ces fonctionnalités d’IA sont considérées comme un argument de vente unique.
Tous les évaluateurs qui ont exprimé des inquiétudes concernant la technologie ont loué la qualité d’image du système de caméra.
« Vous pouvez enfin obtenir cette photo où tout le monde ressemble à ce que vous souhaitez, et c’est quelque chose que vous n’avez pas pu faire sur aucun appareil photo de smartphone, ni sur aucun appareil photo, depuis un certain temps », a déclaré Reynolds.
« S’il y a une copie [of the photo you’ve taken] Là où cette personne sourit, je vais vous le montrer. « Mais s’il n’y a pas de version dans laquelle ils sourient, alors oui, vous ne la verrez pas », a-t-il expliqué.
Pour M. Reynolds, l’image finale devient « une représentation du moment ». En d’autres termes, ce moment spécifique ne s’est peut-être pas produit, mais c’est l’image que vous souhaitiez créer qui a été créée à partir de plusieurs moments réels.
« Les gens ne veulent pas de réalité »
Le professeur Rafal Mantioc, expert en graphisme et en affichage à l’Université de Cambridge, a déclaré qu’il était important de se rappeler que l’utilisation de l’intelligence artificielle dans les smartphones n’avait pas pour but de rendre les images réelles.
« Les gens ne veulent pas capturer la réalité », a-t-il déclaré. « Ils veulent prendre de belles photos. L’ensemble du processus de traitement d’image des smartphones vise à produire de belles photos, pas de vraies photos. »
Les limitations physiques des smartphones font qu’ils s’appuient sur l’apprentissage automatique pour « remplir » les informations qui ne figurent pas dans l’image.
Cela permet d’améliorer le zoom, d’améliorer les photographies en basse lumière et, dans le cas de la fonctionnalité Magic Editor de Google, d’ajouter des éléments aux photographies qui n’étaient jamais là ou d’échanger des éléments d’autres photos, comme remplacer un froncement de sourcils par un sourire.
La manipulation d’images n’a rien de nouveau, elle est aussi ancienne que la forme d’art elle-même. Mais il n’a jamais été aussi simple d’évoluer réellement grâce à l’IA.
Plus tôt cette année Samsung a été critiqué Pour la façon dont il a utilisé des algorithmes d’apprentissage profond pour améliorer la qualité des photos prises de la Lune avec ses smartphones. Les tests ont révélé que, quelle que soit la qualité de la photo que vous avez prise au départ, elle vous donnait toujours une photo utilisable.
En d’autres termes, votre photo de la lune n’était pas nécessairement une photo de la lune que vous regardiez.
La société a reconnu les critiques, affirmant qu’elle s’efforçait de « réduire toute confusion potentielle qui pourrait survenir entre prendre une photo de la vraie lune et une photo de la lune ».
Concernant la nouvelle technologie de Google, Reynolds affirme que la société ajoute des métadonnées à ses photos – l’empreinte numérique de l’image – en utilisant une norme industrielle pour indiquer quand l’IA a été utilisée.
« C’est une question dont nous parlons en interne. Et nous en avons longuement parlé. Parce que nous travaillons sur ce sujet depuis des années. C’est une conversation, et nous écoutons ce que disent nos utilisateurs », dit-il. .
Google est clairement convaincu que les utilisateurs seront d’accord, car les fonctionnalités d’intelligence artificielle de ses nouveaux téléphones sont au cœur de sa campagne publicitaire.
Alors, y a-t-il une ligne que Google ne franchira pas en matière de manipulation d’images ?
Reynolds a déclaré que le débat sur l’utilisation de l’intelligence artificielle était si nuancé qu’on ne peut pas simplement indiquer une ligne dans le sable et dire qu’elle est trop loin.
« Plus vous approfondissez la création de fonctionnalités, vous commencez à réaliser que la police est en quelque sorte une simplification excessive de ce qui finit par être une décision très difficile, fonctionnalité par fonctionnalité », dit-il.
Même si ces nouvelles technologies soulèvent des considérations éthiques sur ce qui est la réalité et ce qui ne l’est pas, le professeur Mantioc a déclaré que nous devons également tenir compte des limites imposées à nos yeux.
« Le fait que nous voyons des images aux couleurs nettes est dû au fait que notre cerveau peut reconstruire des informations et en déduire même des informations manquantes », a-t-il déclaré.
« Donc, vous pourriez vous plaindre du fait que les caméras font de fausses choses, mais le cerveau humain fait en réalité la même chose d’une manière différente. »
More Stories
Apple annonce l’expansion de Vision Pro dans deux pays supplémentaires
Nintendo lance une application musicale avec des thèmes de Mario et Zelda et, plus important encore, une chaîne Wii Shop
C’est le journal que personne n’a lu avant d’annoncer la disparition de la cryptographie moderne.