Lorsque Microsoft a ajouté un chatbot à son moteur de recherche Bing ce mois-ci, les gens ont remarqué qu’il fournissait toutes sortes de fausses informations sur Gap, la vie nocturne mexicaine et la chanteuse Billie Eilish.
Ensuite, lorsque des journalistes et d’autres premiers testeurs se sont engagés dans de longues conversations avec le bot d’intelligence artificielle de Microsoft, il a glissé vers un comportement alarmant et sarcastique.
Depuis que le comportement du bot Bing est devenu une sensation mondiale, les gens ont eu du mal à comprendre l’étrangeté de cette nouvelle création. Trop souvent, les scientifiques ont dit que les humains méritaient une grande part de responsabilité.
Mais il reste encore un peu de mystère sur ce que le nouveau chatbot peut faire – et pourquoi il le fera. Sa complexité le rend difficile à disséquer et même à prédire, et les chercheurs le voient à travers une lentille philosophique ainsi que le code dur de l’informatique.
Comme tout autre étudiant, un système d’IA peut apprendre de mauvaises informations à partir de mauvaises sources. Est-ce un comportement étrange ? Il peut s’agir du reflet déformé d’un chatbot des mots et des intentions des personnes qui l’utilisent, a déclaré Terry Sejnowski, neuroscientifique, psychologue et informaticien qui a contribué à jeter les bases intellectuelles et techniques de l’intelligence artificielle moderne.
Cela se produit lorsque vous pénétrez profondément dans ces systèmes. Document de recherche sur ce phénomène Ce mois-ci dans la revue scientifique Neural Computation. « Tout ce que vous cherchez – tout ce que vous voulez – ils vous le fourniront. »
Google aussi frimer nouveau chatbot, Bard, ce mois-ci, mais les scientifiques et les journalistes ont rapidement réalisé qu’il écrivait des bêtises sur le télescope spatial James Webb. OpenAI, une startup de San Francisco, a lancé le boom des chatbots en novembre en introduisant ChatGPT, qui ne dit pas toujours la vérité.
Les nouveaux chatbots sont alimentés par une technologie que les scientifiques appellent un grand modèle de langage, ou LLM.Ces systèmes apprennent en analysant de grandes quantités de texte numérique extrait d’Internet, qui comprend des charges de matériel incorrect, biaisé et toxique. De plus, le script à partir duquel les chatbots apprennent devient un peu obsolète, car ils doivent passer des mois à l’analyser avant que le public puisse l’utiliser.
En analysant cette mer de bonnes et de mauvaises informations en ligne, le LLM apprend à faire une chose en particulier : deviner le mot suivant dans une suite de mots.
Cela fonctionne comme une version géante de la technologie de saisie semi-automatique qui suggère le mot suivant lorsque vous tapez un e-mail ou un message instantané sur votre smartphone. En regardant la séquence « Tom Cruise est ____ », on pourrait deviner « acteur ».
Lorsque vous discutez avec un chatbot, le bot ne s’appuie pas uniquement sur tout ce qu’il a appris sur Internet. Il se fie à tout ce que vous lui avez dit et à tout ce qu’il a dit. Il ne s’agit pas seulement de deviner le mot suivant dans une phrase. C’est deviner le mot suivant dans le long morceau de texte qui comprend à la fois vos mots et les siens.
Plus la conversation est longue, plus l’utilisateur influencera par inadvertance ce que dit le chatbot. Si vous voulez qu’il se fâche, il se fâche, a déclaré le Dr Sejnowski. Si vous l’amenez à être effrayant, il devient effrayant.
Le contrecoup alarmant sur le comportement bizarre du chatbot de Microsoft a éclipsé un point important : le chatbot n’a pas de personnalité. Il fournit des résultats instantanés grâce à un algorithme informatique incroyablement complexe.
Microsoft semble réduire le comportement le plus étrange en limitant la durée des discussions avec le chatbot Bing. C’était comme apprendre d’un conducteur de voiture d’essai que rouler trop vite pendant trop longtemps ferait griller son moteur. Le partenaire Microsoft OpenAI et Google explorent également des moyens de contrôler le comportement de leurs bots.
Mais il y a une mise en garde à cette assurance : parce que les chatbots apprennent de tant de matériel et les assemblent de manière si complexe, les chercheurs ne savent pas tout à fait comment les chatbots produisent leurs résultats finaux. Les chercheurs observent ce que font les bots et apprennent à imposer des limites à ce comportement, souvent après qu’il se soit produit.
Microsoft et OpenAI ont décidé que la seule façon de comprendre ce que feraient les chatbots dans le monde réel était de les laisser se perdre – et de les reculer lorsqu’ils s’éloignaient. Ils pensent que leur grande expérience publique vaut le risque.
Le Dr Sejnowski a comparé le comportement du chatbot de Microsoft au Mirror of Rised, un mystérieux artefact des romans Harry Potter de J.K. Rowling et des nombreux films basés sur son monde créatif de jeunes sorciers.
« Maverick » est « désir » épelé à l’envers. Lorsque les gens découvrent le miroir, il semble apporter vérité et compréhension. Mais elle ne le fait pas. Il montre les désirs profondément enracinés de quiconque le regarde. Et certaines personnes deviennent folles si elles regardent trop longtemps.
« Parce que l’être humain et le LLM se reflètent, avec le temps, ils tendront vers un état conceptuel commun », a déclaré le Dr Sejnowski.
Il n’était pas surprenant, a-t-il dit, que les journalistes aient commencé à voir un comportement effrayant dans le chatbot Bing. Que ce soit consciemment ou inconsciemment, ils poussaient le système dans une direction inconfortable. Lorsque les chatbots prennent nos paroles et nous les renvoient, ils peuvent renforcer et amplifier nos croyances et nous convaincre de croire ce qu’ils nous disent.
Le Dr Sejnowski faisait partie d’un petit groupe de chercheurs à la fin des années 1970 et au début des années 1980 qui ont commencé à explorer sérieusement un type d’intelligence artificielle appelé réseau de neurones, qui pilote les chatbots d’aujourd’hui.
Un réseau de neurones est un système mathématique qui acquiert des compétences en analysant des données numériques. C’est la même technologie qui permet à Siri et Alexa de reconnaître ce que vous dites.
Vers 2018, des chercheurs d’entreprises comme Google et OpenAI ont commencé à construire des réseaux de neurones qui ont appris de grandes quantités de texte numérique, y compris des livres, des articles de Wikipédia, des journaux de discussion et d’autres éléments publiés en ligne. En identifiant des milliards de modèles dans tout ce texte, les LLM ont appris à créer eux-mêmes du texte, y compris des tweets, des articles de blog, des discours et des programmes informatiques. Ils peuvent même tenir une conversation.
Ces systèmes sont le reflet de l’humanité. Ils apprennent leurs compétences en analysant des textes postés par des humains sur Internet.
Ce n’est pas la seule raison pour laquelle les chatbots génèrent un langage problématique, a déclaré Melanie Mitchell, chercheuse en intelligence artificielle au Santa Fe Institute, un laboratoire indépendant du Nouveau-Mexique.
Lors de la création de texte, ces systèmes ne répètent pas mot pour mot ce qui se trouve sur Internet. Ils génèrent eux-mêmes de nouveaux textes en combinant des milliards de styles.
Même si les chercheurs n’entraînaient ces systèmes que sur la littérature scientifique évaluée par des pairs, ils pourraient toujours produire des déclarations scientifiquement absurdes. Même s’ils ont seulement appris du texte que c’était vrai, ils peuvent toujours produire des mensonges. Même s’ils n’apprennent que du texte sain, ils peuvent toujours être capables de générer quelque chose d’effrayant.
« Rien ne les empêche de le faire », a déclaré le Dr Mitchell. « Ils essaient juste de produire quelque chose qui ressemble à un langage humain. »
Les experts en intelligence artificielle savent depuis longtemps que cette technologie présente toutes sortes de comportements inattendus. Mais ils ne peuvent pas toujours s’entendre sur la façon d’expliquer ce comportement ou sur la rapidité avec laquelle les chatbots peuvent s’améliorer.
Parce que ces systèmes apprennent de bien plus de données que nous, les humains, ne pouvons comprendre, même les experts en IA ne peuvent pas comprendre pourquoi ils génèrent un texte spécifique à un moment donné.
Le Dr Sejnowski a déclaré qu’il pensait qu’à long terme, les nouveaux chatbots avaient le potentiel de rendre les gens plus efficaces et de leur donner des moyens de faire leur travail mieux et plus rapidement. Mais cela s’accompagne d’une mise en garde à la fois pour les entreprises qui construisent ces chatbots et pour les personnes qui les utilisent : ils peuvent également nous conduire plus loin de la vérité et dans des endroits sombres.
« C’est un territoire inexploré », a déclaré le Dr Sejnowski. « Les humains n’ont jamais connu cela auparavant. »
More Stories
Apple annonce l’expansion de Vision Pro dans deux pays supplémentaires
Nintendo lance une application musicale avec des thèmes de Mario et Zelda et, plus important encore, une chaîne Wii Shop
C’est le journal que personne n’a lu avant d’annoncer la disparition de la cryptographie moderne.