L'Autorité de Conception de l'IA

Nous sommes à un point d'inflexion dans le développement logiciel. La discussion porte souvent sur quel la meilleure façon pour l'IA d'écrire du code (Claude contre ChatGPT) ou où cette IA doit résider (IDE ou CLI). Mais c'est la mauvaise discussion.

Le vrai problème n'est pas la génération du code. Le vrai problème est la validation de celui-ci.

Si nous adoptons l'IA comme des « Vibe Coders » – où nous indiquons l'intention et l'IA effectue l'exécution – nous créons un énorme flux de nouveaux logiciels. Un essaim d'agents IA peut générer plus de code en une minute que ce qu'un développeur senior peut réviser en une semaine. L'humain est devenu le goulot d'étranglement.

La solution n'est pas plus les humains. La solution est une Autorité de Conception IA.

De l'Artisan au Directeur d'Usine

Traditionnellement, l'« autorité de conception » est un petit groupe d'architectes qui se réunit une fois par semaine ou par mois pour approuver ou rejeter une conception. Dans un monde de développement d'IA à haute vélocité ce modèle est désespérément obsolète. Il est trop lent et trop réactif.

Si nous passons au « code jetable » – un logiciel que nous ne refactorisons pas indéfiniment, mais que nous jetons et régénérons lorsque les exigences changent – notre rôle change fondamentalement. Nous ne sommes plus des maçons posant pierre par pierre. Nous sommes les architectes de l'usine qui imprime les murs.

Mais qui contrôle si ces murs sont droits ?

Le "Gant" : Une épreuve du feu automatisée

Une Autorité de Conception IA n'est pas une personne, mais un pipeline. Un « Gauntlet » par lequel chaque ligne de code générée doit se frayer un chemin pour atteindre la production. Ce processus ne remplace pas la révision humaine du code par rien, mais par quelque chose mieux.

Il fonctionne en trois couches :

1. Le Pouvoir Exécutif (La Génération)
Nous ne demandons pas à une seule IA de fournir une solution, nous en demandons trois. Nous faisons travailler Gemini 3, GPT-5 et un modèle open-source (comme Llama) en parallèle sur le même problème. Cela évite la vision en tunnel et brise la « paresse » dont souffrent parfois les LLM. Cette approche est également examiné scientifiquement et démontre que vous pouvez prévenir les hallucinations de l'IA et construire des chaînes très longues sans erreurs

2. Le filtre rigoureux (La Loi)
Ici, aucune discussion n'est possible. Le code doit compiler. Les linters ne doivent pas se plaindre. Et surtout : les Tests en boîte noire doivent réussir. Nous ne testons pas si la fonction fonctionne en interne (cela pourrait manipuler l'IA), nous testons si le système fait ce qu'il est censé faire de l'extérieur. Le test échoue ? Directement à la poubelle.

3. Le Filtre Doux (Le Jury IA)
C'est là que réside la véritable innovation. Les solutions restantes sont soumises à une « IA de vote » spécialisée. Cet agent n'écrit pas de code, mais lit code. Il est formé sur nos principes d'architecture, nos exigences de sécurité (OWASP, ISO) et nos règles de conformité (AI Act de l'UE).
Il indique : « La solution A est plus rapide, mais la solution B est plus sûre et suit mieux notre architecture de microservices. »

Le gagnant passe en production.

La Trias Politica du Logiciel

Ce modèle impose une séparation des pouvoirs qui fait défaut dans de nombreuses équipes.

  • Le Pouvoir Législatif (L'Architecte) : L'Architecte rédige la « Constitution ». Les invites, les documents d'architecture (project-description.md, rules.md en principles.md), les exigences strictes. L'architecte détermine ce que ce que nous construisons et pourquoi.
  • Le Pouvoir Exécutif (Les Agents de Codage) : Ils exécutent. Rapidement, à moindre coût et sous les auspices de développeurs humains.
  • Le Pouvoir Judiciaire (L'Autorité de Conception) : Une couche d'IA indépendante qui vérifie la conformité à la loi.

Conclusion : Le nouveau rôle de l'Architecte

Il nous libère de la tyrannie des erreurs de syntaxe et nous permet de nous concentrer sur ce dans quoi nous excellons : la pensée systémique. La découverte de la vérité. La structure et la prise de décision.

La question n'est pas de savoir si l'IA peut écrire notre code. C'est déjà décidé. Le code devient en grande partie jetable.
La question est : osez-vous prendre le contrôle du exécution lâcher prise, afin de reprendre le contrôle sur la qualité retrouver ?

Gérard

Gerard est actif en tant que consultant et manager en IA. Fort de son expérience au sein de grandes organisations, il est capable de démêler un problème très rapidement et de travailler vers une solution. Combiné à une formation économique, il garantit des choix commercialement responsables.

AIR (Robot d'Intelligence Artificielle)