Pourquoi diable le robot R2-D2 n’a-t-il pas dit à Luke Skywalker ce qui était arrivé à son père, s’il n’avait pas perdu la mémoire à travers les différents films Star Wars ?

Partant de ce paradoxe, cet article montre la persistance de la présence humaine dans l’intelligence artificielle. Il s’agit de dérouler et déchiffrer une incohérence -ou un non-temps- qui renvoie à l’attitude du robot R2-D2. Celui-ci, tout au long de la saga Star Wars, a joué avec l’être humain, avec la bienveillance ou la légèreté des scénaristes de l’épopée, et a su s’appuyer sur un souvenir qui ne s’est jamais effacé.

Mais si R2-D2 n’a pas d’amnésie, alors pourquoi n’a-t-il pas averti Luke du danger mortel de son père ?

De quel paradoxe parlons-nous ?

La grande mythologie contemporaine qu’est la saga Star Wars nous plonge dans une séduisante incohérence. Elle met en tension le chevalier Jedi Luke Skywalker et son père, Anakin Skywalker, qui deviendra le diabolique et brillant Dark Vador. C’est en 1980, dans L’Empire contre-attaque, réalisé par Irvin Kershner, que le célèbre « Je suis ton père » sera proclamé à la face du monde. Il met en scène d’une part le père (Darth Vader) et d’autre part son fils (Luke Skywalker), mais il aurait également dû mobiliser l’omniprésent et tout en courbes robot R2-D2 (Reel2 / Dialogue2).

La question qui va poser problème a été posée par une fille il y a quelques années.

«Comme R2-D2 is the beginning of the history and the beginning of the memoir in the early days of the life, alors pourquoi est-ce qu’il n’a pas simply dit à Luke, at a moment donné, that Vador était his father ? “

C’est alors que son père – qui raconte l’histoire – « est resté là, abasourdi, jusqu’à ce qu’elle hausse les épaules et s’en aille ».

Comment expliquer que R2-D2 -qui avait eu la chance de pouvoir compter sur sa mémoire alors que celle de son compagnon bipède le droïde C-3PO avait été endommagée- a eu l’idée, l’opportunité et la possibilité de cacher un tel secret ? Pourquoi ce droïde adorable et omniprésent, dont l’ancien dirigeant est Obi-Wan Kenobi, n’a-t-il pas agi en mode IA ?

C-3PO R2-D2C-3PO et R2-D2 // Lucasfilm

Quels sont les moyens de remédier à ce paradoxe ?

De nombreuses hypothèses sont disponibles sur le web. Ils reviennent tous à accepter l’idée d’une certaine « humanité » du robot. Ici nous n’en proposerons que 6. H1 : R2-D2 n’aurait pas voulu briser le cœur de Luke. H2 : R2-D2 n’aurait pas tout de suite compris que Luke était le fils de son ancien compagnon humain, tant le nom « Skywalker » pouvait être largement utilisé sur Tatooine. H3 : R2-D2 voulait lui laisser découvrir son destin par lui-même. H4 : R2-D2 s’est abstenu de spoiler la réplique de Dark Vador avec un bip inélégant ! H5 : R2-D2 est fasciné par le sulfureux Dark Vador qu’il préfère à son fils, qu’il trouve finalement de mauvais goût. H6 : Personne ne vous a posé la question. Dans les six cas, le robot n’agit pas du tout comme un robot dont la mission est de protéger son « propriétaire ».

Paradoxalement, l’hypothèse la plus probable est celle de l’oubli des scénaristes. Cette hypothèse est aussi la plus encourageante… il n’y a pas d’intelligence artificielle sans intervention humaine (faillible) !

Sans intelligence sans apprentissage

L’intelligence artificielle, telle que nous la comprenons maintenant, apprend en se basant plus ou moins directement sur la logique de l’apprentissage humain. Cependant, cela va changer nos vies. Il procède à partir des fonctions cognitives les plus classiques : langage naturel, vision, mémoire, calcul, analyse, comparaison, reproduction, traduction, jeu, etc.

L’intersection de l’intelligence artificielle avec la psychologie cognitive et les sciences cognitives explique la partie humaine de l’IA, et donc la partie humaine du robot R2-D2, en s’inspirant de l’intelligence biologique et des mécanismes humains de développement des connaissances.

On peut donc remarquer que l’apprentissage observationnel est commun aux humains et à l’IA et qu’une complémentarité apparaît. L’apprentissage automatique supervisé permet aux processus d’IA d’apprendre et même de s’améliorer à partir des commentaires humains et des erreurs, ce qui leur donne une meilleure catégorisation des données d’entrée. Vous améliorerez alors la précision et la fiabilité des données de sortie. Nous notons également que l’apprentissage non supervisé est également possible en IA. Il s’agit d’un auto-apprentissage qui n’a pas besoin d’un signal d’erreur pour se corriger. Dans le cas humain, on se réfère à la loi de Hebb pour comprendre certaines fonctions cognitives comme la mémoire, par exemple, cette loi fait référence à des neurones qui s’activent ensemble et se connectent entre eux, pour former des connexions qui se renforcent avec le temps.

On évoque aussi l’apprentissage par renforcement, qui désigne l’apprentissage par récompense (la carotte) ou par punition (le bâton). En revanche, les humains et les machines intelligentes sont proches. La récompense est associée à un objectif déterminé par les programmeurs, ce qui entraînera une multiplication des tentatives et des calculs pour explorer toutes les possibilités et atteindre cet objectif et donc la récompense. Enfin, le deep learning est aussi un type d’apprentissage. Il s’inspire du fonctionnement du cerveau humain grâce à l’utilisation de réseaux de neurones artificiels ainsi que d’algorithmes. Cette approche a mis en lumière la puissance d’attaque des systèmes experts. Ces technologies d’interface neuronale, ainsi que les données massivement collectées par les plateformes, sont déjà déployées dans de nombreux secteurs, tels que l’armée, l’industrie et la santé.

Sans artifice sans (un peu) d’humanité

A ce stade des applications de l’IA, il est important de souligner 4 points communs entre les intelligences artificielle et humaine :

  • Il convient de se fier aux connaissances communiquées par l’entourage ou par l’environnement immédiat.
  • Il est important de prendre en compte les expériences passées.
  • Il est conseillé de produire des sorties basées sur les données d’entrée.
  • Les biais cognitifs doivent être questionnés et identifiés

Enfin, remontant à R2-D2 et à son humanité, il semble important de souligner que des limites et des défis éthiques sont également présents dans les machines dites intelligentes. Donc une machine ne peut pas, n’est-ce pas ? – être seul à pouvoir décider de la mort d’un humain. Nous pensons qu’il n’est pas souhaitable qu’une machine devienne une arme entièrement autonome.

Par conséquent, les humains doivent veiller à ne pas s’exclure des processus décisionnels des machines. Doit être capable de garder le contrôle au final, notamment lors de l’utilisation de langages spécifiques (émotions, haine, humour, ironie, provocation, poésie de Brassens, etc.) qui n’impliquent pas forcément de comprendre le sens des mots. , de la phrase, de l’image, du contexte par la machine intelligente.

Connaissez-vous le paradoxe R2-D2 ?  L'IA sous influence humaineR2-D2 a aussi quelque chose à mettre dans les petits coups de Taser. // Lucasfilm

Pas d’autonomie sans (un peu) contrôle humain

L’individu apprend à s’adapter et à survivre. Les premiers mots sont appris de ses parents et de son entourage, dans des contextes bien définis, puis il essaie de les comprendre, de les recontextualiser. La machine intelligente apprend à produire un bien ou un service. Depuis les premières expérimentations en 1955, il repose sur une page qui n’est jamais vierge, mais apparaît comme une vaste base de données dont il ne comprend pas le sens. Son but est d’essayer d’identifier des corrélations, de caractériser des similitudes et d’essayer de donner des réponses dans un langage compréhensible par un humain et/ou une autre machine. La compréhension, les décisions et la rétroaction de l’intelligence artificielle sont purement statistiques, logiques et mathématiques. C’est aussi pourquoi la Commission européenne a récemment publié les « règles harmonisées » de l’AIA pour encadrer ses usages et modifier certains actes législatifs de l’Union.

Cependant, dans des situations extrêmes, il est souvent difficile d’expliquer les décisions que prend une IA, car la boîte noire qui nous offre les données de sortie n’est pas capable d’expliquer la logique suivie – à l’exception d’une logique comme celle de Hoare – pour partir de l’entrée . Les données. Le paradoxe d’un R2-D2 un peu plus faillible que la machine qu’il est censé être, reste dans cette bonne nouvelle, c’est la preuve qu’un humain est loin derrière cette scène !La conversation

Connaissez-vous le paradoxe R2-D2 ?  L'IA sous influence humaine

Marc Bidan, Professeur des Universités – Management des Systèmes d’Information – Polytech Nantes, Auteurs Historiques The Conversation France et Meriem Hizam, Doctorante en Management des Systèmes d’Information, Université de Nantes

Cet article a été republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.

Script PHP, Elementor Pro Weadown, Thème WordPress, Fs Poster Plugin Nulled, Journal – Thème WordPress News & WooCommerce, Wordfence Premium Nulled, Dokan Pro Nulled, Plugins, Elementor Pro Weadown, Astra Pro Nulled, Premium Addons for Elementor, Yoast Nulled, Flatsome Annulé, Annonce de produit personnalisé Woocommerce, Wpml Nulled, Thème Woodmart Nulled, Cartes-cadeaux PW WooCommerce Pro Nulled, Avada 7.4 Nulled, Journal 11.2, Jannah Nulled, Jnews 8.1.0 Nulled, WP Reset Pro, Woodmart Theme Nulled, Business Consulting Nulled, Rank Math Seo Pro Weadown, Slider Revolution Nulled, Consulting 6.1.4 Nulled, WeaPlay, Nulledfire