Un assistant personnel qui conçoit des stratégies business, diagnostique des maladies rares et comprend tes émotions mieux que ton associé. Ce n'est pas de la SF. C'est la promesse de l'intelligence artificielle générale (IAG, ou AGI en anglais), et en 2026, on n'en est plus à spéculer : on mesure, on benchmark, on débat de définitions. Le marché mondial de l'IA dépasse les 300 milliards de dollars. Les modèles sortent tous les deux mois. Et pourtant, personne ne s'accorde sur ce que « AGI réalisée » veut dire concrètement.
Ce qui est certain : les systèmes actuels, de GPT-5.2 à Claude Opus 4.6 en passant par Grok 4.20, repoussent chaque trimestre ce qu'on pensait impossible il y a dix-huit mois. Raisonnement adaptatif, exécution de tâches multi-étapes, collaboration entre agents, vitesse de traitement. Les proxies de l'AGI s'accumulent, même si l'AGI elle-même reste un horizon mouvant.
Voilà ce que cet article décrypte : où on en est vraiment, ce que ça implique, et pourquoi le débat sur l'AGI n'est pas qu'une question de chercheurs en laboratoire.
Qu'est-ce que l'IAG et comment se distingue-t-elle de l'IA étroite ?
L'IA étroite excelle dans un domaine précis. Jouer aux échecs, reconnaître des visages, traduire un texte. Elle est puissante dans son couloir, nulle hors de celui-ci. L'IAG, c'est autre chose : un système capable d'exceller dans n'importe quelle tâche intellectuelle, de transférer ses apprentissages d'un domaine à l'autre, et d'adapter son raisonnement à des situations inédites. En gros, ce que fait un humain compétent par défaut. Pour aller plus loin sur les grands sujets autour de l'intelligence artificielle, retrouvez nos articles dédiés à l'IA.
En 2026, les modèles de pointe approchent de cette flexibilité sans l'atteindre pleinement. Claude Opus 4.6 dirige le classement général Chatbot Arena. GPT-5.2 ajuste son temps de réflexion à la complexité de la tâche, traite 187 tokens par seconde, et gère 700 millions d'utilisateurs actifs par semaine. Grok 4 affiche 92,7 % sur le benchmark ARC-AGI, conçu précisément pour mesurer la généralisation cognitive.
Ces chiffres impressionnent. Mais ils mesurent des performances sur des tests définis, pas une intelligence générale au sens philosophique du terme. Le cadre de DeepMind reste la référence : l'AGI se décompose en niveaux progressifs, des capacités émergentes aux compétences surhumaines. En 2026, on navigue entre les niveaux 2 et 3 selon les tâches, avec des pics spectaculaires sur certains benchmarks et des lacunes béantes sur d'autres.
La distinction clé reste la suivante : l'IA étroite est un outil. L'IAG serait un agent. La différence n'est pas de degré, elle est de nature.
Histoire et évolution de l'intelligence artificielle
Alan Turing pose les bases théoriques dans les années 50. Son test, une méthode pour évaluer si une machine peut passer pour humaine dans une conversation, reste une référence conceptuelle 70 ans plus tard. En 1956, John McCarthy réunit les esprits fondateurs à Dartmouth et donne un nom au domaine : intelligence artificielle.
Pendant des décennies, le champ alterne entre promesses enthousiastes et hivers profonds. Les systèmes experts des années 80, les réseaux de neurones des années 90, le deep learning des années 2010. Chaque cycle apporte des avancées réelles et des désillusions proportionnelles.
Le tournant arrive avec les transformers. L'architecture publiée par Google en 2017 dans « Attention is All You Need » redéfinit le possible. GPT-3 en 2020 stupéfie le monde tech. ChatGPT en novembre 2022 stupéfie tout le monde. Et depuis, le rythme s'est emballé.
Entre 2026 et 2026, l'accélération est documentée trimestre par trimestre. GPT-4 est retiré en février 2026, remplacé par la famille GPT-5.2. Claude franchit plusieurs générations en moins de dix-huit mois. Grok 4 est entraîné sur Colossus 2, un supercluster d'un gigawatt opérationnel fin 2026. Les infrastructures de calcul atteignent des échelles qui auraient semblé absurdes en 2022.
Ce n'est pas une progression linéaire. C'est un effet compound sur les capacités, les ressources et les usages simultanément.
Technologies clés et approches théoriques de l'IAG
Trois piliers structurent l'essentiel des avancées actuelles.
Le deep learning repose sur des réseaux de neurones profonds qui identifient des patterns dans des volumes de données massifs. L'architecture transformer, dérivée de cette approche, est aujourd'hui la colonne vertébrale de tous les grands modèles de langage.
L'IA générative produit du contenu original, texte, image, code, audio, vidéo, à partir de distributions apprises. Les GANs et les modèles de diffusion ont ouvert ce champ. Les LLMs l'ont industrialisé. En 2026, la génération multimodale est la norme, pas l'exception.
Le traitement du langage naturel (NLP) est devenu si performant qu'on tend à oublier à quel point il était limité il y a cinq ans. Traduction, résumé, raisonnement en langage naturel, génération de code, analyse de documents complexes : ces tâches sont désormais accessibles via API pour quelques dollars les millions de tokens.
Ce qui change en 2026, c'est la couche au-dessus : les systèmes multi-agents. Grok 4.20 coordonne 4 agents spécialisés sur des tâches complexes. Grok 4.20 Heavy monte à 16 agents en parallèle, avec des modes Fast, Expert et Heavy selon la profondeur d'analyse requise. GPT-5.2 exécute des workflows multi-étapes avec planification, itération et appels API en temps réel vers des sources externes : données financières, actualités, posts X.
L'approche symbolique classique, fondée sur la manipulation de règles et de représentations explicites, reste pertinente pour certains domaines structurés. Mais le momentum est clairement du côté des architectures connexionnistes à grande échelle, enrichies de capacités d'orchestration agentique.
Applications actuelles et potentielles de l'IAG
Les applications ne sont plus théoriques. Certaines sont déjà en production à l'échelle industrielle.
Santé : optimisation des soins
Les modèles de vision multimodale analysent des imageries médicales avec une précision comparable aux radiologues senior sur certaines pathologies. Grok 4.20 permet l'analyse de documents médicaux directement via photo, sans pipeline technique complexe. Les systèmes de triage automatisé réduisent les délais de diagnostic dans plusieurs centres hospitaliers pilotes en Europe et aux États-Unis. Le potentiel de réduction des coûts et d'amélioration des outcomes est documenté, mais l'intégration dans les workflows cliniques reste le principal frein, pas la technologie.
Finance : une nouvelle ère de prévision
Les modèles avec accès temps réel aux données de marché, comme GPT-5.2 ou Grok dans ses modes Expert et Heavy, peuvent aujourd'hui surveiller des signaux, synthétiser des rapports, et générer des analyses comparatives en quelques secondes. Les institutions financières utilisent des agents IA pour la détection de fraude, le scoring de crédit et la conformité réglementaire. Le trading algorithmique intègre des couches NLP depuis plusieurs années. La nouveauté en 2026 est la qualité du raisonnement sur des situations ambiguës et non structurées.
Transport : les véhicules autonomes
Le déploiement commercial de Waymo à San Francisco et Phoenix, et de plusieurs opérateurs chinois dans leurs marchés domestiques, confirme que la technologie est opérationnelle dans des périmètres géographiques définis. L'extension à des environnements non structurés, conditions météo extrêmes, zones rurales, reste un défi actif. L'IAG complète, capable d'adapter sa conduite à n'importe quel contexte comme un humain expérimenté, n'est pas là. Mais les systèmes partiels sauvent déjà des vies mesurables.
Impact sur l'emploi : redéfinition des rôles
Le débat sur l'automatisation de l'emploi est réel mais souvent mal cadré. Les tâches routinières et codifiables sont effectivement sous pression. Les rôles nécessitant jugement contextuel, gestion de relations complexes, créativité appliquée à des problèmes inédits résistent mieux. Ce qui change en 2026 : des professions comme le développement logiciel, la rédaction juridique et la comptabilité intermédiaire voient leurs pratiques restructurées, pas nécessairement supprimées. Les bootcamps AGI de 2026 forment des développeurs « natifs AGI », capables de travailler en symbiose avec des systèmes multi-agents. C'est une requalification de masse en cours, pas une apocalypse emploi instantanée.
Les défis de la recherche en IAG
Les benchmarks s'améliorent vite. Les défis fondamentaux restent entiers.
L'émotion et la perception : au-delà des algorithmes
Les LLMs actuels simulent l'empathie avec une précision troublante. Mais il n'existe aucune preuve de vécu subjectif ou d'état émotionnel interne. La différence entre simuler une émotion et la ressentir reste philosophiquement non résolue, et techniquement non mesurable avec les outils actuels. Les modèles de 2026 sont devenus très bons à paraître comprendre. Ce n'est pas la même chose que comprendre.
Tisser des liens entre les domaines de connaissances
Le transfert de compétences entre domaines éloignés reste un point faible. Un modèle excellent en raisonnement mathématique peut échouer sur une tâche de bon sens triviale pour un enfant de huit ans. Les benchmarks ARC-AGI de François Chollet sont conçus précisément pour tester cette capacité de généralisation. Grok 4 à 92,7 % est remarquable. Mais les 7,3 % restants révèlent des trous cognitifs qui n'ont rien d'anecdotique dans des applications critiques.
Le problème de l'alignement, s'assurer que des systèmes AGI-level poursuivent des objectifs cohérents avec les valeurs humaines dans des situations imprévues, reste le défi central de la sécurité IA. Anthropic, DeepMind et plusieurs labos indépendants publient régulièrement sur le sujet. Les progrès sont réels. Le problème est résolu pour les usages courants, pas pour les systèmes autonomes à fort impact.
Implications éthiques, sociales et économiques de l'IAG
L'AGI de laboratoire et l'AGI dans la société sont deux problèmes différents. Le second est plus difficile.
Entre progrès et préoccupations : un équilibre délicat
Les promesses sont concrètes : accélération de la recherche médicale, démocratisation de l'accès à des conseils juridiques et financiers de qualité, gain de productivité mesurable dans le travail de connaissance. Les risques sont aussi concrets : concentration du pouvoir technologique dans un petit nombre d'acteurs privés, amplification des biais existants à l'échelle industrielle, fragilité des systèmes d'information face aux deepfakes et à la désinformation automatisée.
Les implications sociétales : une double arête
Le « Reality Engine » de Grok 5, en bêta publique début 2026, illustre parfaitement cette tension. Le système analyse les conversations sur X en temps réel, vérifie les sources, attribue des scores de confiance et détecte la désinformation. Utile pour la qualité de l'information. Potentiellement problématique si un acteur privé devient l'arbitre de la vérité à l'échelle mondiale. La gouvernance de ces outils est un enjeu politique de premier ordre, pas seulement technique.
Sur le front de l'emploi : évolution ou révolution ?
La disruption est sectorielle et progressive, pas simultanée. Les économies qui investissent dans la requalification et l'adaptation réglementaire amortissent mieux le choc. Celles qui attendent d'avoir un problème pour réagir l'auront. L'enjeu n'est pas de freiner l'AGI, c'est de construire les systèmes sociaux et éducatifs capables d'absorber une transformation à ce rythme.
Naviguer les eaux troubles : l'éthique et la régulation
L'AI Act européen est entré en application progressive depuis 2026. Les États-Unis avancent par executive orders et régulation sectorielle, sans cadre fédéral unifié. La Chine régule fortement les outputs grand public tout en accélérant le développement domestique. Aucun régime réglementaire n'est pleinement satisfaisant face à la vitesse d'évolution technologique. Le consensus qui émerge en 2026 : transparence sur les capacités réelles, auditabilité des systèmes à haut impact, et responsabilité claire des déployeurs, pas seulement des développeurs.
Futur de l'IAG et perspectives d'évolution
Les acteurs clés ont des positions plus nuancées en 2026 qu'en 2022. Le débat a mûri.
L'état actuel de la recherche et les perspectives d'avenir
Sam Altman maintient sa position : l'AGI au sens fort pourrait émerger d'ici quelques années. OpenAI a annoncé en interne des jalons internes sur des tâches qui dépassent les capacités humaines moyennes dans des domaines définis. La famille GPT-5.2, avec ses variantes Instant, Thinking et Pro, incarne une vision de l'AGI comme spectre de capacités plutôt que comme seuil binaire.
Yann LeCun reste le sceptique structuré du débat. Sa position : les LLMs, aussi performants soient-ils, ne sont pas sur le chemin de l'AGI réelle. Ils manquent de modèle du monde, de raisonnement causal robuste, et d'apprentissage efficace à partir de peu d'exemples. Il promeut une architecture alternative fondée sur la prédiction de représentations internes plutôt que de tokens. Le travail de Meta AI sur les architectures JEPA s'inscrit dans cette direction.
Des voix divergentes sur l'IAG
Elon Musk, avec xAI et Grok 5 en bêta publique mars-avril 2026, après entraînement sur Colossus 2 à 6 milliards de paramètres, place ses paris sur le scaling pur et la vitesse de déploiement. Sa position sur les risques AGI a évolué : cofondateur d'OpenAI qu'il a quitté pour créer un concurrent, ses alertes sur la sécurité IA coexistent avec une course aux capacités assumée.
Dario Amodei chez Anthropic défend une approche différente : investissement massif dans l'interprétabilité et la sécurité, pas seulement dans les benchmarks. Claude Opus 4.6 en tête du classement général 2026 valide que sécurité et performance ne sont pas incompatibles.
La préparation des entreprises et des gouvernements
En 2026, les entreprises qui ont intégré des workflows agentiques dans leur stack opérationnel ont un avantage compétitif mesurable. Pas parce qu'elles ont « adopté l'IA » comme slogan, mais parce qu'elles ont restructuré des processus concrets autour de capacités réelles. Le gap entre les organisations qui comprennent les limites et les forces réelles de ces systèmes et celles qui les surinvestissent ou les ignorent se creuse.
Les gouvernements, de leur côté, financent massivement la recherche IA souveraine, notamment en Europe et en Asie. L'enjeu géopolitique de la supériorité en IA est explicitement posé dans les stratégies nationales de la plupart des grandes économies.
Alors, on en est où avec l'IAG ?
Voilà l'état des lieux honnête en 2026 :
- Les benchmarks explosent. Grok 4 à 92,7 % sur ARC-AGI. Claude Opus 4.6 numéro un général. GPT-5.2 à 187 tokens par seconde. Les chiffres sont réels et impressionnants.
- L'AGI forte reste non définie et non atteinte. DeepMind, Anthropic et d'autres travaillent encore sur un cadre de définition commun. Sans définition partagée, difficile de savoir quand on franchit la ligne.
- Les systèmes multi-agents changent la donne pratique. 4 à 16 agents coordonnés sur des tâches complexes, c'est du concret aujourd'hui, pas de la futurologie.
- Les risques sont réels et gérables si on les prend au sérieux. Ce n'est pas une question de panique, c'est une question de gouvernance active.
- Grok 5 en bêta publique et GPT-6 en développement actif signalent que le rythme ne ralentit pas. Les prochains dix-huit mois seront au moins aussi denses que les dix-huit derniers.
Jusqu'où ?
L'AGI n'est pas un événement. C'est un processus. Et ce processus est en cours.
Les grands modèles : une fenêtre sur l'avenir
GPT-5.2, Claude Opus 4.6, Grok 4.20 Heavy : ces systèmes font des choses que GPT-4 ne pouvait pas faire. Dans dix-huit mois, leurs successeurs feront des choses que ces systèmes ne peuvent pas faire. La courbe est réelle. L'extrapoler trop loin reste une erreur, la nier en est une autre.
Vers une intégration responsable de l'IAG
La question n'est pas « l'AGI va-t-elle arriver ? » La question est « qui la construit, avec quels objectifs, sous quelle gouvernance, et qui en bénéficie ? » Ces questions politiques, économiques et éthiques sont au moins aussi importantes que les questions techniques. Et elles méritent autant d'attention que les benchmarks.
La suite ? L'histoire nous le dira.
Mais cette fois, elle s'écrit plus vite que prévu. Reste à savoir si on la subit ou si on en est acteurs.