résumé: Les chercheurs ont révélé des similitudes significatives entre le traitement de la mémoire de l’IA et les fonctions de l’hippocampe humain. Cette découverte, qui relie l’IA et les neurosciences, met en évidence le parallélisme dans la consolidation de la mémoire – un processus crucial dans la conversion des mémoires à court terme en mémoires à long terme – à la fois dans les modèles d’IA et dans le cerveau humain.
L’équipe s’est concentrée sur le modèle Transformer, pierre angulaire des développements de l’IA, et a découvert que ses processus de mémoire imitent le mécanisme du récepteur NMDA dans le cerveau. Cette recherche innovante fait non seulement progresser le développement de l’intelligence générale artificielle (AGI), mais permet également de mieux comprendre les systèmes de mémoire du cerveau humain.
Faits marquants:
- L’étude révèle une similitude frappante entre le traitement de la mémoire de l’IA et les fonctions de l’hippocampe dans le cerveau humain.
- Il a été constaté que le modèle Transformer dans l’IA utilise un processus de contrôle similaire au récepteur NMDA dans le cerveau, qui est crucial pour l’amélioration de la mémoire.
- Cette recherche offre la possibilité de développer des systèmes d’intelligence artificielle de type cérébral plus efficaces et approfondit notre compréhension des mécanismes de la mémoire humaine.
source: Institut des Sciences Fondamentales
Une équipe interdisciplinaire composée de chercheurs du Center for Social Cognition et du Data Science Group de l’Institut des sciences fondamentales (IBS) a révélé une similitude frappante entre le traitement de la mémoire des modèles d’intelligence artificielle (IA) et l’hippocampe du cerveau humain.
Cette nouvelle découverte offre une nouvelle perspective sur la consolidation de la mémoire, le processus qui convertit les mémoires à court terme en mémoires à long terme, dans les systèmes d’intelligence artificielle.
Dans la course au développement de l’intelligence artificielle générale (AGI), menée par des entités influentes telles qu’OpenAI et Google DeepMind, la compréhension et la reproduction de l’intelligence humaine sont devenues un intérêt de recherche important. L’un des développements technologiques les plus importants est le modèle du transformateur, dont les principes de base sont aujourd’hui explorés de manière plus approfondie.
La clé d’un système d’IA puissant est de comprendre comment les informations sont apprises et mémorisées. L’équipe a appliqué les principes de l’apprentissage du cerveau humain, en mettant particulièrement l’accent sur la consolidation de la mémoire via le récepteur NMDA de l’hippocampe, à des modèles d’intelligence artificielle.
Le récepteur NMDA est comme une porte intelligente dans votre cerveau qui facilite l’apprentissage et la formation de la mémoire. Lorsqu’un produit chimique appelé glutamate est présent dans le cerveau, une cellule nerveuse subit une excitation. D’un autre côté, l’ion magnésium agit comme un petit gardien, bloquant la porte.
Ce n’est que lorsque le portier ionique s’écarte que les matériaux peuvent pénétrer dans la cellule. C’est le processus qui permet au cerveau de former et de conserver des souvenirs, et le rôle du gardien (l’ion magnésium) dans l’ensemble du processus est assez spécifique.
L’équipe a fait une découverte remarquable : le modèle Transformers semble utiliser un processus de contrôle similaire au récepteur NMDA dans le cerveau. Cette découverte a amené les chercheurs à étudier si la consolidation de la mémoire de l’adaptateur pouvait être contrôlée par un mécanisme similaire au processus de déclenchement du récepteur NMDA.
Dans le cerveau animal, de faibles niveaux de magnésium sont connus pour altérer la fonction de mémoire. Les chercheurs ont découvert que la mémoire à long terme de Transformer pouvait être améliorée en imitant le récepteur NMDA.
Tout comme dans le cerveau, où les changements dans les niveaux de magnésium affectent la force de la mémoire, l’ajustement des paramètres du transducteur pour refléter le mouvement du récepteur NMDA a amélioré la mémoire dans le modèle d’IA.
Ce résultat surprenant suggère que la façon dont les modèles d’IA apprennent peut s’expliquer par des connaissances bien établies en neurosciences.
« Cette recherche représente une étape cruciale dans le développement de l’intelligence artificielle et des neurosciences », a déclaré C. Justin Lee, directeur spécialisé en neurosciences à l’institut. Cela nous permet d’approfondir les principes de fonctionnement du cerveau et de développer des systèmes d’intelligence artificielle plus avancés basés sur ces connaissances.
« Le cerveau humain fonctionne très bien avec un minimum d’énergie, contrairement aux grands modèles d’IA qui nécessitent d’énormes ressources », explique Cha Myung, data scientist au sein de l’équipe et du KAIST.
« Notre travail ouvre de nouvelles possibilités pour des systèmes d’IA peu coûteux et performants qui apprennent et mémorisent les informations comme les humains. »
Ce qui distingue cette étude, c’est son initiative visant à intégrer des non-linéarités inspirées du cerveau dans l’architecture de l’IA, démontrant des progrès significatifs dans la simulation de l’amélioration de la mémoire de type humain.
La convergence des mécanismes cognitifs humains et de la conception de l’IA est non seulement prometteuse pour la création de systèmes d’IA à faible coût et hautes performances, mais elle fournit également des informations précieuses sur le fonctionnement du cerveau grâce aux modèles d’IA.
À propos de l’actualité de la recherche en AGI et en IA
auteur: William Suh
source: Institut des Sciences Fondamentales
communication: William Suh – Institut des sciences fondamentales
image: Image créditée à Neuroscience News
More Stories
Cette superbe photo du visage d’une fourmi ressemble à un cauchemar : ScienceAlert
SpaceX lance 23 satellites Starlink depuis la Floride (vidéo et photos)
Pendant que l’ULA étudie l’anomalie du booster Vulcan, elle enquête également sur les problèmes aérodynamiques.