Face aux limites énergétiques et matérielles des grands modèles de langage, une équipe de l’Académie chinoise des sciences a développé un système inédit baptisé SpikingBrain. Inspiré directement du fonctionnement du cerveau humain, ce modèle affiche une efficacité impressionnante : jusqu’à 100 fois plus rapide que les approches traditionnelles, tout en nécessitant beaucoup moins de données pour son entraînement.
Une IA qui imite les neurones biologiques
Contrairement aux modèles classiques qui activent l’ensemble de leur réseau à chaque requête, SpikingBrain repose sur des réseaux de neurones à impulsions (SNN). Le principe est le même que dans notre cerveau : les neurones ne s’activent que lorsqu’ils reçoivent un signal spécifique. Résultat, une consommation d’énergie bien moindre et une rapidité d’exécution nettement améliorée.
Deux versions de ce modèle ont déjà vu le jour, l’une avec 7 milliards de paramètres, l’autre avec 76 milliards. Lors d’un test impliquant un prompt de 4 millions de tokens, la plus petite des deux versions s’est révélée plus de 100 fois plus rapide qu’un modèle de langage conventionnel.
Moins de données, plus de résultats
L’un des principaux atouts de SpikingBrain réside dans sa capacité à fonctionner avec une quantité réduite de données. Son entraînement a mobilisé moins de 2 % des corpus habituellement nécessaires pour des LLM comme GPT ou Gemini, tout en affichant des performances comparables.
Une avancée précieuse, car les chercheurs alertent depuis plusieurs années sur la pénurie de contenus exploitables pour l’apprentissage des IA. Selon l’Université d’Oxford, les ressources textuelles disponibles sur Internet pourraient ne plus suffire d’ici la fin de la décennie pour alimenter les modèles actuels.
Une réponse aux contraintes matérielles
Le contexte chinois rend cette innovation encore plus stratégique. Les restrictions d’accès aux puces Nvidia, essentielles pour l’entraînement des modèles géants, freinent les ambitions locales. SpikingBrain, en revanche, a été conçu pour fonctionner sur d’autres processeurs, comme ceux de MetaX, tout en ouvrant la voie à l’informatique neuromorphique, qui reproduit le comportement des neurones directement dans le matériel.
Une piste prometteuse pour l’avenir de l’IA
Les chercheurs allemands avaient déjà exploré la voie des modèles à impulsions plus tôt cette année, mais SpikingBrain franchit un cap décisif en combinant performance, sobriété énergétique et rapidité. Le modèle est même disponible en open source sur GitHub, signe de la volonté de la communauté scientifique de pousser plus loin cette approche.
Avec SpikingBrain, les chercheurs chinois proposent bien plus qu’une alternative technique : ils esquissent un nouveau paradigme pour l’intelligence artificielle, plus proche du fonctionnement naturel du cerveau et, surtout, moins dépendant de ressources colossales.


