Le détourage d'objets ou de personnes est l'une des tâches les plus complexes et les plus fastidieuses à réaliser en photographie. Adobe travaille d'arrache-pied pour améliorer les outils de sélection à chaque nouvelle version de Photoshop et des petits bouts d'intelligence artificielle pourraient encore améliorer les résultats.

Processus de détourage deep learningLe processus, en deux parties, de détermination de la couche Alpha.

Depuis de nombreuses années, les développeurs de Photoshop améliorent les procédés de détourage. Il existe désormais de nombreuses possibilités ; de l'outil plume — pour les plus méticuleux — aux options plus ou moins automatisées qui permettent de dégrossir très rapidement 80 % du travail. Toutefois, il n'existe pas encore aujourd'hui de solution parfaite pour détourer des éléments complexes tels que des cheveux sur un fond non uniforme. Les outils traditionnels bloquent et il faut souvent retoucher les clichés à la main : un véritable travail d'orfèvre numérique.

Image trimap. Zone rouge : à conserver. Zone bleue : fond à supprimer et zone verte inconnue.


Adobe et l'université de l'Illinois travaillent sur de nouvelles voies et notamment le deep learning pour améliorer le détourage automatique. Leur méthode fonctionne en deux parties. La première utilise un réseau conventionnel qui utilise une image et la "trimap" correspondante pour déterminer la couche alpha détourée. La trimap est une image présegmentée qui contient 3 parties : la zone à conserver, le fond à supprimer et la zone dite inconnue qui se situe entre les deux et sur laquelle tout le travail de détourage devra être effectué.

La seconde partie du traitement utilise un réseau neuronal convolutif (convolutional network) dont les connexions et le fonctionnement sont inspirés par le cortex visuel des animaux. Les réseaux neuronaux convolutifs ont de larges applications dans la reconnaissance d'image et vidéo. Ce traitement permet d'améliorer la précision de la couche alpha avec des bords encore plus précis. En outre, le système est "nourri" par plus de 49 300 images de référence pour encore améliorer les résultats.

Comme vous pouvez le visualiser sur les — trop — petites images ci-dessous, les résultats sont d'ailleurs impressionnants. Les chercheurs sont toutefois peu loquaces sur le temps de traitement et les machines nécessaires pour faire tourner ces algorithmes. Les progrès semblent réellement significatifs et nous sommes impatients de voir les premières implémentations dans les prochaines versions de Photoshop.

De gauche à droite : image de test, trimap, détourage conventionnel et détourage avec deep learning.

Source : Université Illinois

Renaud Labracherie

Rédacteur en chef de Focus Numérique. Grand évangéliste du RAW. Ses publications