Bien que l’intelligence artificielle générative ait connu une révolution récente, l’évolution de la robotique a été beaucoup plus lente jusqu’à maintenant. Les robots autonomes pilotés par l’IA sont principalement des quadripèdes, comme Spot de Boston Dynamics. Cependant, cela pourrait changer grâce à des chercheurs de Google DeepMind qui ont réussi à enseigner à des robots humanoïdes comment jouer au football.
En ce qui concerne le matériel, les chercheurs ont utilisé des Robotis OP3, de petits robots bipèdes dotés de 20 articulations. Pour l’intelligence artificielle, ils ont utilisé l’apprentissage par renforcement profond (Deep RL, pour « deep reinforcement learning »). L’IA a d’abord été entraînée dans des simulations en utilisant le moteur physique MuJoCo, puis a été transférée sur les robots dans le monde réel.
Des résultats prometteurs
Pour la vision dans le monde réel, les chercheurs ont utilisé un champ de rayonnement neuronal (NeRF, pour « Neural Radiance Field »), une IA capable de créer une représentation 3D de la scène à partir de quelques images en deux dimensions. Les matchs se jouent en un contre un, sur un terrain de quatre mètres sur cinq. Les robots ont pour mission de marquer un but tout en empêchant l’autre de marquer. Ils ont dû apprendre des comportements tels que courir, tourner, faire un pas de côté, donner des coups de pied, faire des passes, se relever après une chute et interagir avec un objet.
Grâce à l’approche Deep RL, l’IA a réussi à marquer 10 buts sur 10 dans la simulation et 6 sur 10 dans le monde réel. Comparé à un comportement préprogrammé, le robot a pu marcher 156 % plus vite, mettre 63 % moins de temps pour se relever et donner des coups de pied 24 % plus rapidement. De plus, une vidéo montre que les robots peuvent être poussés plusieurs fois, mais ils réussissent toujours à se relever et à continuer à poursuivre le ballon. Pour les chercheurs, ces résultats sont prometteurs, et des méthodes similaires pourraient être appliquées à des robots plus grands.