L’intelligence artificielle s’améliore de jour en jour et parfois dans des domaines inattendus. C’est ce que nous prouve une nouvelle fois cet ordinateur qui peut progresser aux jeux vidéo tout seul en apprenant de ses erreurs ! En effet, grâce à un programme révolutionnaire, cette machine peut progresser aussi bien que nous. SooCurious vous explique comment marche cette machine étonnante. 

Les jeux vidéo anciens n’ont pas seulement de l’intérêt pour les passionnés de retrogaming. Space Invaders, Casse-briques et les autres titres de la grande époque Atari dans les années 1970 ont en effet permis à des scientifiques de créer un ordinateur capable d’apprendre à jouer de la même manière qu’un être humain ! Concrètement, et ce n’est pas récent, IBM a déjà mis au point des ordinateurs capables de jouer aux jeux vidéo, mais pas véritablement d’apprendre à le faire : ces ordinateurs utilisaient des instructions pré-enregistrées.

 

Une console Atari des années 1970 via Shutterstock

 

Deep Q-Network (pourquoi ce nom ? Mystère…) lui, fonctionne totalement différemment : sa seule consigne est d’améliorer son score à chaque fois, ce qui fait qu’en toute logique il essaie, rate, apprend de son erreur, ne la reproduit plus, s’améliore, etc. Cela ne vous rappelle rien ? C’est exactement la manière de fonctionner de l’apprentissage humain, puisque nous apprenons de manière dynamique en apprenant de nos erreurs.

L’ordinateur repère ses erreurs à ses « game over » (ses fins de parties) et agit dans le but d’améliorer son score. Enfin il suit méticuleusement les pixels qu’il peut déplacer à l’écran pour suivre sa progression au sein de la partie. « C’est la première fois que quelqu’un arrive à créer un système d’apprentissage polyvalent capable de maîtriser une grande palette de tâches, en l’occurrence ici un vaste panel de jeux Atari, et de le faire aussi bien voire mieux qu’un être humain », clame Demis Hassabis, neurologue de formation et cofondateur de DeepMind Technologies, la société derrière Deep Q-Network.

 

IBM Deep Blue, un ordinateur pré-programmé pour jouer : 

 

« Il peut apprendre très rapidement à jouer à de nouveaux jeux aussitôt qu’ils sont disponibles pour lui. Cela signifie que nous ne le reprogrammons pas entre chaque jeu auquel il doit s’essayer. Tout ce à quoi il a accès, c’est son score et les numéros des rangées de pixels. À partir de là, il doit comprendre comment manipuler les pixels à l’écran, quel est le but du jeu, et surtout comment maîtriser le jeu uniquement en y jouant », précise Demis Hassabis. Deep Q-Network peut jouer plusieurs centaines de fois au même jeu pour en comprendre totalement les mécaniques, et arrive d’ailleurs parfois au passage à trouver des stratégies plus intelligentes que les humains. Pour plus de la moitié des jeux testés, l’ordinateur a réussi à atteindre environ 75 % du score moyen réalisé par des humains.

« Ce genre de système ressemble aux humains dans le sens où il apprend de la même manière que les humains. Nous apprenons en expérimentant le monde qui nous entoure, à l’aide de nos sens et de notre cerveau qui nous aident ensuite à prendre des décisions dans ce monde que nous percevons grâce à eux. Le système que nous essayons de construire fonctionne sur le même principe », précise Hassabis. « L’avantage de ce genre de système est qu’il peut apprendre et surtout s’adapter à des situations nouvelles lui-même »,conclut-il.

 

Très ingénieux ! À la rédaction, on aimerait bien se mesurer à cet ordinateur pour voir qui de l’humain ou de la machine apprendrait le plus vite ou gagnerait la partie. Cet ordinateur nous a d’ailleurs rappelé ce robot qui apprenait à cuisiner en regardant simplement des vidéos sur Internet. Pensez-vous qu’un jour les capacités d’apprentissage de l’intelligence artificielle surpasseront celles des humains ?

S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments