ASI-Evolve : une IA vient de concevoir 105 architectures que les humains n'auraient pas trouvées
L'IA qui conçoit de meilleures IA que les humains — c'est sorti de la SF le 31 mars 2026. Des chercheurs de Shanghai Jiao Tong University ont publié les chiffres. Ils sont difficiles à ignorer.
"Researchers built an AI that designs better AI than humans can. It discovered 105 new architectures that beat human-designed models. Nobody guided it. It taught itself." — @heynavtoor (source)
Paper complet : ASI-Evolve: AI Accelerates AI — arXiv:2603.29640, 19 pages, code open-source.
Ce qui s'est passé
ASI-Evolve est un framework agentique à cycle fermé. Il tourne en boucle : learn → design → experiment → analyze. Pas d'humain dans la boucle pour valider chaque itération.
9 chercheurs, 31 mars 2026, un paper qui documente ce que le système a découvert tout seul.
Le résultat le plus immédiat : 105 nouvelles architectures d'attention linéaire, toutes en état de l'art. La meilleure dépasse DeltaNet de +0.97 points. Le gain humain récent le plus significatif sur ce benchmark ? +0.33 points. ASI-Evolve fait 3x mieux que ce que les meilleurs chercheurs humains ont produit récemment.
Comment ça marche — les 2 composants clés
ASI-Evolve n'est pas un simple evolutionary search. Il a deux pièces qui font la différence :
1. La cognition base Elle injecte des priors humains accumulés au début de chaque round d'exploration. Le système ne repart pas de zéro. Il part des meilleures intuitions humaines — et les dépasse.
2. L'analyzer À chaque itération, il distille les résultats expérimentaux complexes en insights réutilisables. Les cycles suivants bénéficient des cycles précédents. C'est un compound effect appliqué à la recherche en IA.
C'est la différence entre un random search et un système qui apprend à mieux chercher.
3 domaines. 3 séries de résultats.
Ce qui est rare dans ce paper : ASI-Evolve ne se spécialise pas. Il couvre les trois axes fondamentaux du développement d'une IA.
1. Architecture design
105 architectures d'attention linéaire découvertes. Toutes en SOTA. La meilleure : +0.97 pts sur DeltaNet, soit 3x le meilleur gain humain récent.
Ce n'est pas un ajustement marginal. C'est une exploration de l'espace des architectures à une vitesse et une profondeur qu'aucune équipe humaine ne peut maintenir.
2. Curation de données de préentraînement
Le pipeline évolué par ASI-Evolve améliore les benchmarks moyens de +3.96 points. Sur MMLU spécifiquement : +18 points.
Pour contextualiser : MMLU est l'un des benchmarks les plus utilisés pour évaluer la compréhension générale d'un LLM. +18 points, c'est la différence entre un modèle compétent et un modèle qui change de catégorie.
3. Algorithmes de reinforcement learning
Les algorithmes découverts battent GRPO — l'un des algos RL les plus utilisés en fine-tuning de LLM — sur tous les benchmarks testés :
- +12.5 pts sur AMC32
- +11.67 pts sur AIME24
- +5.04 pts sur OlympiadBench
Ces benchmarks mesurent le raisonnement mathématique avancé. C'est exactement là où les modèles actuels plafonnent.
Formation
Intégrez AI dans votre workflow
Workshop pratique sur vos cas d'usage. Pas de slides génériques — on build ensemble.
Pourquoi c'est différent des NAS classiques
Le Neural Architecture Search existe depuis des années. AutoML aussi. Alors pourquoi ASI-Evolve mérite attention ?
Trois raisons :
Périmètre. Les NAS classiques optimisent les architectures. ASI-Evolve optimise simultanément les architectures, les données d'entraînement, et les algorithmes d'apprentissage. C'est le premier framework unifié à couvrir les trois.
Cycle fermé. Le système gère lui-même la boucle de recherche longue durée — coûteuse, faiblement supervisée. C'est exactement ce que les systèmes agentiques précédents ne pouvaient pas faire à cette échelle.
Transfert. Les chercheurs montrent des résultats préliminaires en mathématiques et en biomédecine. Le paradigme n'est pas limité à l'IA. C'est un framework de découverte scientifique.
Si tu travailles sur des agents autonomes, on avait déjà couvert les skill graphs pour Claude Code — ASI-Evolve pousse la logique de boucle agentique bien plus loin.
Ce que ça change concrètement
Pour les labs. Le coût de la recherche en architecture va s'effondrer. Pas besoin d'une équipe de 20 chercheurs pour explorer l'espace des designs. Un framework comme ASI-Evolve le fait plus vite, plus systématiquement, et capitalise sur chaque itération.
Pour les builders. Les algos RL découverts par ASI-Evolve vont probablement se retrouver dans des fine-tuning pipelines dans les 6-12 prochains mois. +12.5 pts sur AMC32 sans intervention humaine, c'est le genre de gain qui finit en prod.
Pour la recherche. Le paper mentionne des expériences en biomédecine. Un système qui peut optimiser ses propres données d'entraînement, ses architectures et ses algos — appliqué à la découverte de molécules ou au diagnostic — c'est une autre catégorie d'outil.
L'angle "IA qui dépasse les capacités humaines" n'est pas nouveau sur AIExplorer — on avait couvert Meta qui prédit ton activité cérébrale avant que tu l'aies. Mais ASI-Evolve est différent : il ne prédit pas, il conçoit.
L'objection honnête
ASI-Evolve tourne sur des benchmarks bien définis. L'espace d'exploration est contraint. Les "priors humains" de la cognition base viennent... d'humains.
Ce n'est pas de la recherche entièrement autonome. C'est de l'optimisation agentique à grande échelle dans des domaines où les humains ont déjà posé les bases.
La vraie question : est-ce que le système peut découvrir des paradigmes entièrement nouveaux, ou est-il limité à explorer plus efficacement l'espace que les humains ont déjà défini ?
Le paper ne répond pas. Mais les chiffres sur les 3 domaines sont suffisamment solides pour que la question soit sérieuse.
Tu veux comprendre comment intégrer ces avancées en architecture IA dans ta stack avant tes concurrents ? On décrypte ensemble ce que ASI-Evolve change concrètement pour ton produit — contacte-nous pour un consulting.
Cheat sheet
- ASI-Evolve : framework agentique cycle fermé (learn → design → experiment → analyze)
- 105 architectures SOTA découvertes sans supervision humaine
- +18 pts MMLU, +12.5 pts AMC32, 3x le gain humain sur architecture design
- 3 axes couverts : architectures, données de préentraînement, algos RL — premier système unifié
- Open-source : arxiv.org/abs/2603.29640 — code dispo
- Transférable : premières expériences en maths et biomédecine
Consulting
Besoin d'aide pour implémenter ça ?
30 min de call gratuit. On regarde votre cas, on vous dit si ça vaut le coup.
Pour aller plus loin
Le paper complet fait 19 pages avec 6 figures et 6 tables : PDF téléchargeable.
Si tu buildes des pipelines agentiques, les 4 outils qui corrigent les défauts de Claude Code sont un bon point d'entrée pour comprendre où en est l'état de l'art côté tooling.
La communauté est sur Telegram — rejoins-nous pour suivre ce genre de paper en temps réel.
Communauté
Rejoins les builders IA
Tips, prompts, retours d'expérience. Le Telegram des gens qui buildent avec l'IA.



