
— métamorworks / Shutterstock.com
L’intelligence artificielle avancée créée par DeepMind a découvert une nouvelle façon de multiplier les nombres. Décrite comme la première réalisation du genre depuis plus de 50 ans, cette découverte pourrait augmenter la vitesse de certains calculs de 20 %.
Améliorer le calcul matriciel
La multiplication matricielle, qui consiste à multiplier deux grilles de nombres, est un problème de calcul fondamental utilisé par un large éventail de logiciels, notamment les graphiques, les réseaux de neurones et la modélisation scientifique. Par conséquent, même une petite amélioration de l’efficacité de ces algorithmes peut entraîner des gains de performances significatifs et des économies d’énergie notables.
Pendant des siècles, on a pensé que la manière la plus efficace de multiplier les matrices était liée au nombre d’éléments multipliés, le problème devenant de plus en plus difficile à mesure que la taille des matrices augmentait. Or, le mathématicien Volker Strassen a prouvé en 1969 que multiplier une matrice à deux lignes de deux nombres par une autre matrice de même taille ne nécessite pas nécessairement huit multiplications, et qu’elle peut être réduite à sept par une astucieuse « pirouette ».
Cette approche, connue sous le nom d’algorithme de Strassen, nécessite quelques ajouts supplémentaires, mais reste beaucoup plus efficace car les ordinateurs effectuent ce type d’opérations beaucoup plus rapidement que les multiplications. Largement utilisée depuis plus d’un demi-siècle, elle a récemment été dépassée par la méthode d’intelligence artificielle DeepMind AlphaTensor, plus rapide et mieux adaptée au matériel actuel.

Sans aucune connaissance préalable des solutions actuellement utilisées, AlphaTensor a dû créer un algorithme de travail qui achèverait la tâche en un minimum d’étapes. L’intelligence artificielle a enfin trouvé un moyen de multiplier deux matrices de quatre rangées de quatre nombres en utilisant seulement 47 multiplications, ce qui bat les 49 multiplications de Strassen.
Percée algorithmique en annonçant d’autres
Si les résultats, détaillés dans la revue Nature, s’avèrent mathématiquement valables, ils s’avéreront totalement illogiques pour l’homme. « Actuellement, nous ne savons pas vraiment comment le système y est parvenu », déclare Hussein Fawzi de DeepMind. « Dans un sens, les réseaux de neurones comprennent intuitivement ce qui semble bon et ce qui semble mauvais. Je pense qu’un travail théorique doit être fait à ce sujet pour comprendre exactement comment l’apprentissage en profondeur gère cela. »
Selon Oded Lachish de l’Université de Londres, cette percée algorithmique en annonce d’autres. « Je pense que nous verrons les résultats obtenus avec l’aide de l’IA pour d’autres tâches de même nature. Moins d’opérations signifie non seulement des résultats plus rapides, mais aussi moins d’énergie. »
Aussi impressionnantes que soient les capacités d’AlphaTensor, les avancées réalisées ne signifient pas nécessairement que les programmeurs humains seront bientôt relégués à l’arrière-plan. « Les programmeurs devraient-ils s’inquiéter ? Peut-être dans un futur lointain. L’optimisation automatique est utilisée dans l’industrie de la conception de microprocesseurs depuis des décennies et constitue un autre outil important dans l’arsenal d’un programmeur », conclut Lachish.

Grand fan de mangas et d’animes, je n’aime bien écrire qu’à propos de ses sujets, c’est pour ca que j’écris pour 5 minutes d’actus. Au quotidien de décortique, donne mes avis sur les différents épisodes et chapitres des mangas que j’aime lire.