Publié le
AGI

7 choses à savoir sur l'AGI (+ une startup qui affirme l'avoir résolue)

Post image placeholder

Introduction

La quête de l'Intelligence Artificielle Générale (AGI) — des systèmes capables de comprendre et d'appliquer des connaissances à travers des tâches diverses avec un niveau humain — est passée de la science-fiction à l'impératif stratégique central de 2025. L'émergence des grands modèles de langage (LLM) a fait voler en éclats les anciennes chronologies, mais à mesure que nous mettons ces systèmes à l'échelle, nous découvrons des "murs" profonds liés à l'énergie, la causalité et l'ancrage physique. Cet article condense le paysage actuel de l'AGI en 7 piliers techniques et sociaux critiques, plus un regard sur un nouvel entrant provocateur qui prétend avoir franchi la ligne d'arrivée.

1. Ce n'est pas binaire : la taxonomie de l'AGI

L'industrie s'est éloignée de l'idée binaire selon laquelle l'AGI "existe" ou "n'existe pas". À la place, nous nous appuyons sur des taxonomies nuancées pour mesurer les progrès. Google DeepMind a formalisé cela fin 2023, en distinguant Performance (compétence) et Généralité (ampleur).

Les modèles de pointe actuels comme ChatGPT 5.2 et Gemini 3 sont classés Niveau 1 : AGI émergente.

  • Niveau 1 (Émergente) : Équivalent ou un peu meilleur qu'un humain non qualifié (par ex., Gemini 3, ChatGPT 5.2).
  • Niveau 2 (Compétent) : Meilleur que le 50e percentile d'adultes qualifiés.
  • Niveau 5 (Superhumain) : Surpasse 100% des humains (par ex., AlphaFold dans des tâches étroites, ASI dans des tâches générales).

Point crucial : l'intelligence est distincte de l'Autonomie. Nous observons actuellement un glissement des "Conseillers" (IA qui fournit des avis) vers des "Agents" (IA qui exécute des workflows à plusieurs étapes sans intervention humaine).

2. Le "perroquet stochastique" et l'écart de raisonnement

Malgré le succès de l'Hypothèse de mise à l'échelle — qui postule que l'intelligence est une propriété émergente de l'échelle — les LLM purs atteignent un "mur de raisonnement". Les critiques soutiennent que les modèles actuels manquent de pensée Système 2.

  • Système 1 : Génération de tokens rapide, intuitive et immédiate (LLM actuels).
  • Système 2 : Vérification lente, délibérative et logique (raisonnement humain).

Parce que les LLM prédisent le probable plutôt que le vrai, ils hallucinent. De plus, ils n'ont pas de Modèle du monde ; ils comprennent la corrélation entre "fumée" et "feu" dans le texte, mais manquent de la compréhension causale de la réalité physique qu'un enfant apprend en laissant tomber un verre.

3. Au-delà des Transformers : architectures émergentes

Pour combler l'écart de raisonnement, 2025 a vu un pivot vers des architectures hybrides. Le Transformer n'est plus le seul jeu en ville.

  1. IA neuro-symbolique : Combine les capacités d'apprentissage des réseaux neuronaux avec la rigueur logique de l'IA symbolique. Cette approche vise à corriger le "déficit mathématique" et les hallucinations en ancrant les sorties dans la cohérence logique.
  2. JEPA (Joint Embedding Predictive Architecture) : Portée par Meta, cette architecture abandonne la prédiction du prochain mot pour prédire l'état abstrait du monde. Elle vise à construire une simulation interne de la physique, une condition préalable à une AGI de niveau 2+.
  3. IA incarnée : Un consensus croissant estime que la véritable généralité requiert un corps. Intégrer des modèles cognitifs à la robotique permet à l'IA d'apprendre à partir des retours physiques (gravité, friction), fournissant des données de "bon sens" que le texte ne peut pas transmettre.

4. La physique de l'intelligence : murs d'énergie et de données

La montée vers l'AGI devient une bataille contre la physique.

  • L'écart énergétique : Le cerveau humain fonctionne à environ 20 watts. Un cluster AGI égalant les capacités humaines exige des gigawatts. Cet immense écart d'efficacité suggère que les architectures actuelles de deep learning sont peut-être trop inefficaces pour passer à la Superintelligence (ASI).
  • Le mur des données : Les textes humains publics de haute qualité devraient être épuisés entre 2026 et 2032.
  • Effondrement du modèle : S'appuyer sur des données synthétiques (données générées par l'IA) pour entraîner de nouveaux modèles comporte le risque d'un "effondrement du modèle", où les modèles amplifient les biais et perdent le contact avec des concepts rares mais critiques, devenant effectivement consanguins sur le plan cognitif.

5. L'effondrement du temps : prévisions

Le calendrier de l'AGI s'est drastiquement contracté.

  • Prévision 2020 : Les experts prédisaient une arrivée de l'AGI autour de 2050.
  • Prévision 2024/2025 : Les marchés de prédiction et les experts ont déplacé la date médiane d'arrivée vers 2027-2031.

Les prévisions agrégées attribuent maintenant une ~25% de probabilité à une arrivée de l'AGI d'ici 2027 et une ~50% de probabilité d'ici 2031. Des dirigeants optimistes de grands laboratoires suggèrent que des systèmes pourraient égaler les capacités humaines dans la plupart des domaines en 3 à 5 ans, tandis que les sceptiques estiment que le "dernier kilomètre" de la compréhension causale prendra des décennies.

6. Géopolitique : une course bifurquée

Le développement de l'AGI est devenu un théâtre majeur de compétition géopolitique, en particulier entre les États-Unis et la Chine.

  • États-Unis : Se concentrent sur la domination de l'IA générative et sur l'"étranglement" de l'accès au calcul via des contrôles à l'exportation sur les GPU haut de gamme (NVIDIA H100/Blackwell). Les régulations de sécurité (Executive Order 14110) exigent désormais des rapports pour les modèles entraînés au-delà de 102610^{26} FLOPs.
  • Chine : Se tourne vers l'IA incarnée (robotique) pour intégrer l'IA à la fabrication, en s'appuyant sur la domination de la chaîne d'approvisionnement. Leur feuille de route 2025 vise une industrie de l'IA dépassant 1.2 billion de yuans, en privilégiant l'efficacité industrielle ("forces productives du monde réel") plutôt que les chatbots grand public.

7. Impact socioéconomique : automatisation cognitive

Contrairement à la Révolution industrielle, l'AGI cible le travail cognitif.

  • Exposition : Goldman Sachs estime que 300 millions d'emplois dans le monde pourraient être exposés à l'automatisation.
  • Le changement : Jusqu'à deux tiers des emplois dans les économies avancées ont un certain degré d'exposition.
  • Risque d'inégalité : Si l'AGI réduit drastiquement le coût de l'intelligence (estimé à une baisse de 40x par an), les parts de revenu pourraient se déplacer décisivement du travail vers le capital, élargissant l'écart de richesse entre ceux qui possèdent l'infrastructure et ceux qui l'opèrent.

8. La revendication de la "première AGI" ?

Alors que l'industrie débat des calendriers, une entreprise a avancé une déclaration audacieuse. Integral AI a dévoilé ce qu'elle appelle le "premier modèle capable d'AGI", remettant en cause la domination de l'approche LLM des "Big Tech".

Selon leur manifeste, ils affirment que la vraie AGI doit satisfaire trois critères rigoureux que les LLM actuels (qu'ils appellent "fermes de données") ne respectent pas :

  1. Apprentissage autonome des compétences : La capacité d'apprendre indépendamment dans de nouveaux domaines sans accompagnement humain constant.
  2. Maîtrise sûre : Apprendre sans défaillances catastrophiques (par ex., un robot cuisinier qui ne met pas le feu à la cuisine).
  3. Efficacité proche de l'humain : Atteindre la maîtrise avec des coûts énergétiques comparables à ceux d'un humain, plutôt qu'un centre de données à gigawatts.

Ils prétendent y parvenir via des Simulateurs universels (modèles du monde) et des Opérateurs universels (agents), en s'éloignant de la mémorisation brute vers l'abstraction hiérarchique. Vous pouvez lire leur revendication technique complète ici.

Conclusion

Nous assistons à une "reconvergence" dans l'histoire de l'IA. L'avenir ne réside pas dans la victoire d'un seul paradigme, mais dans la synthèse des réseaux neuronaux, de la logique symbolique et de l'incarnation. À mesure que l'intelligence se découple de la biologie — et que de nouveaux acteurs comme Integral AI défient les lois de mise à l'échelle établies — les décisions prises au cours de la prochaine décennie sur l'architecture et l'alignement détermineront probablement la trajectoire de l'espèce humaine.

Références


Cette analyse vous a-t-elle été utile ? Laissez un commentaire ci-dessous pour partager vos réflexions sur le calendrier de l'AGI. Un compte GitHub est requis pour rejoindre la discussion.

Continuer la lecture

Articles similaires