Pour se démarquer de ses concurrents dans le développement des intelligences artificielles, Google a entraîné des réseaux neuronaux à interpréter des photos pixelisées. Résultat : le programme est maintenant capable de proposer une version très proche de la réalité devant une image brouillée.

Les tentatives pour améliorer la qualité d’une image de faible résolution ne donnaient jusqu’ici rien de vraiment convainquant. Les scientifiques de Google ont donc appliqué une méthode dite d’apprentissage profond à leur programme en soumettant à deux réseaux neuronaux une très grande quantité d’images afin de lui faire comprendre comment ces dernières fonctionnent.

Le premier réseau a pour rôle de confronter les images en basse résolution à leurs originaux et de distinguer ce qui apparaît sur l’image tandis que le deuxième remplace les pixels par des fragments d’image. Le programme peut ainsi générer une proposition qui n’est généralement pas si éloignée du fichier source comme nous pouvons le voir sur les différentes illustrations fournies par Google, la photo du milieu étant la version de Google Brain, celle de droite, la version originale.

Cette innovation impressionnante devrait permettre à Google de se distinguer temporairement de ses autres géants du web quant au développement des intelligences artificielles. Récemment, Facebook avait mis au point un programme capable d’identifier un type de sport apparaissant dans une vidéo parmi 487 catégories tandis que Twitter a lancé son propre outil de modération afin de signaler les contenus inappropriés.

S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments