Vous connaissez cette scène dans Blade Runner où Deckard utilise une technologie futuriste (qui utilise toujours un vieux téléviseur à tube) pour explorer ce qui se passe dans une photographie, même des choses qui ne sont pas réellement dans le photographe? Eh bien, Google et le MIT ont créé ensemble un algorithme qui fait exactement cela. Sorte de. Bon, d’accord, pas vraiment, mais c’est quand même vraiment cool.
Ce que Google et le MIT ont en fait créé est une méthode numérique pour supprimer les obstructions et les reflets des photos qui pourraient autrement être gâchées par eux. Comme on le voit ci-dessous, l’algorithme a la capacité de séparer le reflet de la photo, ce qui est plutôt cool en soi, puis de remplir les informations manquantes dans la photo souhaitée (ou de vous donner une image intéressante d’un reflet sans arrière-plan , si c’est ce que vous recherchez).
Une démonstration de la méthode peut être trouvée dans la vidéo ci-dessous:
L’algorithme fonctionne également avec la vidéo, mais pour moi, tout cela me rappelle le fait que la technologie numérique rend de plus en plus difficile la prise d’une « mauvaise » photo. Reflets, pluie, clôture sur le chemin de votre photo ? Comme démontré, Google peut résoudre ce problème. Photo stupide de la nourriture que vous êtes sur le point de manger ? Appliquez un filtre Instagram dessus et tout à coup, c’est artistique et présentable. C’est quelque chose qui va bien au-delà de la fonction de réduction des yeux rouges de votre ancien appareil photo compact.
Nous vivons dans un monde de plus en plus basé sur l’image. Quelles sont les implications lorsque la technologie et les logiciels peuvent garantir qu’aucune de ces images ne sera mauvaise ?