DeepMind, une société d’intelligence artificielle (détenue par Google), vient de dévoiler sa nouvelle intelligence artificielle baptisée « Gato ». Contrairement aux IA « classiques » qui se spécialisent dans une tâche spécifique, Gato est capable de plus de 600 tâches, souvent bien meilleures que les humains. Les débats commencent pour savoir s’il s’agit bien de la première « intelligence artificielle généralisée » (IAG). Les experts restent sceptiques quant à l’annonce de DeepMind.

L’intelligence artificielle a changé positivement de nombreuses disciplines. D’incroyables réseaux de neurones spécialisés sont désormais capables de fournir des résultats bien au-delà des capacités humaines dans de nombreux domaines.

L’un des plus grands défis dans le domaine de l’IA est la mise en place d’un système qui intègre l’intelligence artificielle générale (IAG) ou intelligence artificielle forte. Un tel système devrait être capable de comprendre et de faire face à toutes les tâches dont une personne est capable. Par conséquent, il pourra rivaliser avec l’intelligence humaine et même développer un certain degré de conscience. Plus tôt cette année, Google a introduit un type d’IA capable de coder comme un programmeur ordinaire. Récemment, dans cette course à l’IA, DeepMind a annoncé la création de Gato, une intelligence artificielle présentée comme la première AGI au monde. Les résultats sont publiés dans arXiv.

Modèle d’agent générique sans précédent

Un seul système d’IA capable de résoudre plusieurs problèmes n’est pas nouveau. Par exemple, Google a récemment commencé à utiliser un système appelé Unified Multitasking Model, ou MUM, pour son moteur de recherche, qui peut traiter du texte, des images et des vidéos pour effectuer des tâches allant de la recherche aux variations inter-langues. mot et association de termes de recherche avec des images pertinentes.

Incidemment, le vice-président principal Prabhakar Raghavan a fourni un exemple impressionnant de MUM en action à l’aide d’une requête de recherche factice : « J’ai escaladé le mont Adams et maintenant je veux gravir le mont Fuji l’automne prochain, que dois-je faire différemment pour me préparer ? MUM a lancé une recherche Google pour montrer les différences et les similitudes entre le mont Adams et le mont Fuji. Il a également évoqué des articles sur le matériel nécessaire pour gravir ce dernier. Rien de particulièrement impressionnant me direz-vous, mais surtout avec Gato, qui est innovant. ainsi est la variété des tâches à aborder, et la méthode d’enseignement, un seul et unique système.

Le principe directeur de la conception de Gato est d’enseigner une gamme de données pertinentes aussi large que possible, y compris diverses applications telles que les images, le texte, la proprioception, les couples articulaires, les pressions sur les boutons, etc. Observations et actions discrètes et continues.

Pour permettre le traitement de ces données multimodales, les scientifiques les codent en une séquence plate de « jetons ». Ces jetons sont utilisés pour représenter les données d’une manière que Gato peut comprendre, permettant au système, par exemple, de déterminer quelle combinaison de mots dans une phrase a un sens grammatical. Ces séquences sont regroupées et traitées par un réseau de neurones transformé couramment utilisé dans le traitement du langage. Le même réseau avec les mêmes poids est utilisé pour différentes tâches, contrairement aux réseaux de neurones traditionnels. En effet, dans ce dernier, chaque neurone se voit attribuer un certain poids et, par conséquent, une importance différente. En termes simples, le poids détermine quelles informations entrent dans le réseau et calcule la sortie.

Dans cette représentation de Gato, il est possible de former et de sélectionner à partir d’un modèle de langage standard à grande échelle sur un grand nombre d’ensembles de données, y compris les expériences d’agents dans des environnements simulés et réels, en plus de nombreux ensembles de données et images en langage naturel. Lors de l’exécution, Gato utilise le contexte pour assembler ces jetons sélectifs afin de déterminer la forme et le contenu de ses réponses.

Un exemple de performance de Gato. Le système « consomme » la séquence de jetons de surveillance et d’action précédemment sélectionnés pour créer l’action suivante. L’agent (Gato) applique une nouvelle action à l’environnement (dans cette illustration, la console de jeu), reçoit un nouvel ensemble d’observations et le processus se répète. © S. Reed et al., 2022.

Les résultats sont très hétérogènes. En matière de dialogue, Gato est loin des prouesses de GPT-3, le modèle de génération de texte d’Open AI. Il peut donner des réponses incorrectes lors des conversations. Par exemple, il répond que Marseille est la capitale de la France. Les auteurs notent que cela pourrait probablement être amélioré avec une mise à l’échelle supplémentaire.

Cependant, il s’est toujours montré extrêmement capable dans d’autres domaines. Ses développeurs affirment qu’en deux fois moins de temps, Gato est meilleur que les experts humains dans 450 des 604 tâches répertoriées dans l’article de recherche.

séquence de jetons gato deepmind

Exemples de tâches effectuées par Gato, sous forme de séquences de jetons. © S. Reed et al., 2022.

Jeu terminé, non ?

Certains chercheurs en intelligence artificielle voient l’IAG comme une catastrophe existentielle pour les humains : un système « superintelligent » qui surpasse l’intelligence humaine remplacera l’humanité sur Terre dans le pire des cas. D’autres experts pensent que de notre vivant, il n’y aura aucune possibilité de voir l’apparition de ces AGI. C’est exactement le point de vue pessimiste exprimé par Tristan Green dans son éditorial sur TheNextWeb. Il explique que Gato est facilement confondu avec le vrai IAG. La différence, cependant, est qu’une personne d’intelligence générale peut apprendre à faire quelque chose de nouveau sans formation préalable.

La réaction à cet article ne s’est pas fait attendre. Sur Twitter, Nando de Freitas, chercheur DeepMind et professeur d’apprentissage automatique à l’Université d’Oxford, a déclaré que le jeu est terminé (« Game Over ») dans la longue recherche de l’intelligence artificielle omniprésente. Il ajoute : « Il s’agit de rendre ces modèles plus grands, plus sûrs, plus efficaces sur le plan informatique, plus rapides à échantillonner, une mémoire plus intelligente, plus de modalités, des données innovantes, en ligne/hors ligne… En résolvant ces problèmes, nous aurons l’AGI. » . .

Les auteurs mettent toutefois en garde contre le développement de ces AGI : « Bien que les agents universels ne soient encore qu’un nouveau domaine de recherche, leur impact potentiel sur la société nécessite une analyse multidisciplinaire approfondie de leurs risques et bénéfices. […] Les outils génériques de réduction des méfaits des agents sont relativement sous-développés et nécessitent des recherches supplémentaires avant que ces agents ne soient déployés.

De plus, les agents universels capables d’effectuer des actions dans le monde physique créent de nouveaux problèmes qui nécessitent de nouvelles stratégies d’atténuation. Par exemple, l’incarnation physique peut amener les utilisateurs à anthropomorphiser l’agent, entraînant une confiance mal placée en cas de défaillance du système.

En plus de ces risques que l’IAG ne devienne une opération préjudiciable à l’homme, il n’existe actuellement aucune donnée démontrant la capacité à produire systématiquement des résultats fiables. Cela tient notamment au fait que les problèmes humains sont souvent complexes, n’ont pas toujours une solution unique et ne font pas l’objet d’apprentissages préalables.

Tristan Green, malgré la réponse de Nando de Freitas, est tout aussi direct dans son opinion sur TheNextWeb : « Ce n’est rien de moins qu’un miracle lorsqu’une voiture effectue des sabotages et des tours de magie à la Copperfield, surtout quand vous réalisez que cette voiture n’est pas plus intelligente que un grille-pain (et évidemment plus stupide que la souris la plus stupide).

Que nous soyons d’accord avec ces déclarations ou non, ou que nous soyons plus optimistes quant au développement de l’IAG, néanmoins, il semble que la mise à l’échelle d’une telle intelligence, en concurrence avec notre esprit humain, soit loin d’être terminée, et le débat s’est éteint. .

archive