Google DeepMind : une avancée dans les images

L’IA de Google a une nouvelle fois montré son avancée sur les images, DeepMind est maintenant capable de créer des images qui n’ont jamais existé. Par exemple, DeepMind peut générer des photos de chien, champignons ou de plats de spaghettis qui n’existent pas comme le montrent les images ci-dessous :

Ces images de chiens, champignons ou plats de spaghettis n’ont jamais existé, ils ont été créés de toutes pièces par l’IA DeepMind.

 

Il est donc très difficile de distinguer ces images par rapport à de vraies images.

Pour réaliser cet exploit, DeepMind a utilisé un algorithme d’apprentissage non supervisé, les réseaux antagonistes génératifs (Generative Adversarial Networks ou GAN). Dans ce système, deux réseaux neuronaux travaillent en parallèle, le premier réseau crée les images et le second réseau les confronte avec les images réelles. Si l’image est validée, l’algorithme continue sa conception d’image.

Pour que cet algorithme puisse créer des images si réelles, Google a utilisé sa puissance de calcul gigantesque, les équipes de Google parlent d’ailleurs de BigGAN.

En effet, le BigGAN va utiliser 158 millions de paramètres pour la génération des images et 2048 échantillons à chaque comparaison. Les images ainsi générées ont obtenu un IS (Inception Score, qui est un score qui mesure la diversité des images générées) trois fois plus grandes aux précédentes expériences et un FID (Frechet Inception Distance qui estime la distance entre les fausses images et les vraies images) deux fois plus petite.

L’objectif de ces recherches menées par Google DeepMind est de pouvoir générer des images à partir de simples mots. Des exemples d’application pourraient être une IA capable de produire un film à partir d’un scénario, un livre ou des illustrations automatiques de textes.

Cependant, générer des images qui n’existent pas tend à penser qu’une généralisation de fausses informations avec des photos truquées pourrait se produire, mais pour l’instant, il n’y a pas ce risque car la génération de telles images nécessite des puissances de calcul gigantesques.

A titre d’exemple, il faut 24 à 48 heures de calculs avec un module de 512 TPUv3 Google (Tensor Processing Unit ou unité de traitement de tenseur) pour générer une seule image de 512 pixels de large. Comme chaque TPU consomme 200 Wh, chaque image équivaut donc entre 2.457.600 kWh et 4.915.200 kWh. Ce qui représente la consommation électrique moyenne d’un foyer français pendant six mois ou la consommation d’électricité de la ville de Cleveland (386.000 habitants) pour un après-midi.

 

Pour conclure, c’est grâce à une puissance de calculs immense et des réseaux de neurones antagonistes génératifs (GAN), qu’il est possible de créer des photos de toutes pièces. Ce domaine de recherche fait naître une crainte concernant une possible manipulation de fausses informations à grande échelle. Cependant, cette technologie n’est pas accessible à tout le monde.

A propos Nicolas Chen 63 Articles
Nicolas Chen est le Fondateur et Président de OpenDeepTech. Il est aussi un ingénieur développement logiciel qui a travaillé dans de nombreuses entreprises de divers secteurs tels que l'automobile, l'aéronautique, le médical, la robotique, la data science, le machine learning et le deep learning.

Soyez le premier à commenter

Laisser un commentaire