Dakarinfo

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici Manchettes, politique et culture françaises sur la chaîne d'information

Comment savoir si votre IA est consciente

Comment savoir si votre IA est consciente

Avez-vous déjà parlé à quelqu’un « en conscience » ? Comment s’est déroulée cette conversation ? Ont-ils fait un geste mystérieux en l’air avec les deux mains ? Faisaient-ils référence au Tao Te Ching ou à Jean-Paul Sartre ? Ont-ils dit qu’en fait, il n’y a rien dont les scientifiques peuvent être sûrs et que cette réalité est aussi réelle que nous l’imaginons ?

L’ambiguïté et l’imprécision de la conscience ont fait de son étude un anathème pour les sciences naturelles. Jusqu’à récemment au moins, le projet était largement laissé aux philosophes, qui n’étaient souvent que légèrement meilleurs que les autres pour clarifier l’objet de leur étude. Hod Lipson, roboticien à l’Université de Columbia, a déclaré que certaines personnes dans son domaine appellent la conscience « le mot C ». « Il y a eu cette idée selon laquelle on ne peut pas étudier la conscience avant d’être en poste », a déclaré Grace Lindsay, neuroscientifique à l’Université de New York.

Cependant, il y a quelques semaines, un groupe de philosophes, de neuroscientifiques et d’informaticiens, dont le Dr Lindsay, a proposé un modèle pour déterminer si un système d’IA comme ChatGPT pouvait être considéré comme conscient. le un rapportqui explore ce que le Dr Lindsay appelle la science « entièrement nouvelle » de la conscience, rassemble des éléments de six théories expérimentales émergentes et propose une liste de qualités mesurables qui pourraient indiquer une certaine présence dans une machine.

Par exemple, la théorie du traitement récurrent se concentre sur les différences entre la perception consciente (par exemple, étudier activement une pomme devant vous) et la perception inconsciente (par exemple, sentir une pomme voler vers votre visage). Les neuroscientifiques ont soutenu que nous percevons les choses inconsciemment lorsque les signaux électriques sont transmis des nerfs de nos yeux au cortex visuel primaire, puis aux parties plus profondes du cerveau, comme un bâton passé d’un ensemble de nerfs à un autre. Ces perceptions semblent devenir conscientes lorsque le relais revient, des parties les plus profondes du cerveau au cortex visuel primaire, créant ainsi une boucle d’activité.

Une autre théorie décrit des sections spécialisées du cerveau qui sont utilisées pour certaines tâches : la partie de votre cerveau qui peut équilibrer votre corps lourd sur un bâton sauteur est différente de la partie de votre cerveau qui peut s’adapter à un vaste paysage. Nous sommes capables de reconstituer toutes ces informations (on peut sauter sur un pogo stick tout en profitant de la belle vue), mais seulement dans une certaine mesure (c’est difficile). Les neuroscientifiques ont donc émis l’hypothèse de l’existence d’un « espace de travail global » qui permet de contrôler et de coordonner ce à quoi nous prêtons attention, ce dont nous nous souvenons et même ce que nous percevons. Notre conscience peut naître de cet espace de travail intégré et changeant.

READ  L'Ambassadeur de France inaugure la sous-station Adubiliyili de GRIDCo

Mais cela peut aussi découler de la capacité de percevoir votre propre conscience, de créer des modèles virtuels du monde, de prédire des expériences futures et de localiser votre corps dans l’espace. Le rapport suggère que n’importe lequel de ces traits pourrait constituer un élément essentiel de ce que signifie être conscient. Si nous sommes capables de reconnaître ces caractéristiques dans une machine, nous pourrons peut-être la considérer comme consciente.

L’une des difficultés de cette approche est que les systèmes d’IA les plus avancés sont des réseaux neuronaux profonds qui « apprennent » comment faire les choses eux-mêmes, d’une manière que les humains ne peuvent pas toujours expliquer. Nous pouvons extraire certains types d’informations de leur structure interne, mais seulement de manière limitée, du moins pour le moment. C’est le problème de la boîte noire de l’IA. Ainsi, même si nous disposions d’une norme complète et précise en matière de conscience, elle serait difficile à appliquer aux machines que nous utilisons quotidiennement.

Les auteurs du dernier rapport soulignent rapidement que leur rapport ne constitue pas une liste définitive de ce qui rend une personne consciente. Ils s’appuient sur l’interprétation de la « fonction arithmétique », selon laquelle la conscience est réduite à des bribes d’informations qui circulent au sein du système, comme dans un flipper. En principe, selon ce point de vue, un flipper pourrait être conscient, si seulement il était rendu plus complexe. (Ce qui pourrait signifier que ce n’est plus un flipper ; traversons ce pont si nous y arrivons.) Mais d’autres ont proposé des théories qui considèrent nos traits biologiques ou physiques, ou nos contextes sociaux ou culturels, comme des éléments fondamentaux de la conscience. Il est difficile de voir comment ces choses pourraient être codées dans une machine.

READ  KKR lance une offre publique d'achat non contraignante de 12 milliards de dollars sur Telecom Italia

Même pour les chercheurs qui soutiennent largement le fonctionnalisme informatique, aucune théorie existante ne semble adéquate pour la conscience.

« Pour que les conclusions du rapport soient significatives, les théories doivent être correctes », a déclaré le Dr Lindsay. « Et ce n’est pas le cas. » Elle a ajouté que c’était peut-être le mieux que nous puissions faire pour le moment.

Après tout, l’une de ces caractéristiques, ou la totalité d’entre elles prises ensemble, semble-t-elle constituer ce que William James a décrit comme la « chaleur » de l’expérience consciente ? Ou, comme le dit Thomas Nagel, « qu’est-ce que cela signifie » d’être vous ? Il existe un écart entre la manière dont nous pouvons mesurer l’expérience subjective avec la science et l’expérience subjective elle-même. C’est ce que David Chalmers appelle le « problème difficile » de la conscience. Même si un système d’IA dispose de traitements répétitifs, d’un espace de travail global et d’une idée de son emplacement physique, que se passera-t-il s’il lui manque toujours ce qui le rend ? je me sens comme quelque chose?

Lorsque j’ai fait part de ce vide à Robert Long, philosophe au Centre pour la sécurité de l’IA qui a dirigé les travaux sur le rapport, il a déclaré : « Ce sentiment est le genre de chose qui se produit chaque fois que vous essayez d’expliquer scientifiquement des processus physiques ou de réduire eux. » , quelques concepts de haut niveau.

Il a ajouté que les risques sont grands ; Les progrès de l’intelligence artificielle et de l’apprentissage automatique arrivent plus vite que notre capacité à expliquer ce qui se passe. En 2022, Blake Lemoine, ingénieur chez Google, a fait valoir que le chatbot LaMDA de l’entreprise était sensible (bien que la plupart des experts ne soient pas d’accord) ; L’intégration plus poussée de l’IA générative dans nos vies signifie que le sujet pourrait devenir plus controversé. Le Dr Long dit que nous devons commencer à faire des affirmations sur ce qui peut être conscient et déplore la façon « vague et passionnante » dont nous avons procédé, qui confond souvent l’expérience subjective avec l’intelligence ou la rationalité générale. Il a ajouté : « C’est un problème auquel nous sommes confrontés aujourd’hui et dans les années à venir ».

READ  Undertaker parisien vise à introduire une machine à vélo en France

Comme le dit Megan Peters, neuroscientifique à l’Université de Californie à Irvine et auteur du rapport : « Que quelqu’un soit là ou non fait une grande différence dans la façon dont nous le traitons. »

Nous effectuons déjà ce type de recherche sur les animaux, ce qui nécessite un examen attentif avant de pouvoir affirmer que d’autres espèces ont des expériences similaires aux nôtres, voire intelligibles pour nous. Cela pourrait ressembler à une activité amusante à la maison, comme tirer des flèches expérimentales depuis des plates-formes mobiles sur des cibles qui changent de forme, en utilisant des arcs qui se transforment parfois en spaghetti. Mais parfois, nous en prenons un coup. Comme l’écrit Peter Godfrey-Smith dans son livre Metazoa, les céphalopodes ont probablement une expérience subjective puissante mais très différente de celle des humains. Une pieuvre possède environ 40 millions de neurones dans chaque bras. Comment est-ce ?

Nous nous appuyons sur une série d’observations, d’inférences et d’expériences – à la fois structurées et non structurées – pour résoudre ce problème des autres esprits. Nous parlons, touchons, jouons, supposons, provoquons, contrôlons, prenons des radiographies et disséquons, mais en fin de compte, nous ne savons toujours pas ce qui nous rend conscient. Nous savons simplement que nous le sommes.