Nous étions quatre — un product manager, un tech lead, un architecte Data. Et Claude. Pas en support. Comme membre actif de l'équipe, à chaque étape. En quelques jours, nous avons esquissé l'idée et posé les fondations de Remendo — une application SaaS multi-tenant de Data Quality Governance. Authentification, facturation, moteur de remédiation, connecteurs API, chiffrement des données, support intégré.
Trois semaines plus tard, nous avions un produit testable. Pas un prototype de démo — quelque chose de structuré, de cohérent, avec une vraie logique produit.
Mais soyons honnêtes sur la suite. Il reste encore des étapes à franchir, et elles ont un coût. Une phase de Test & Learn à lancer, idéalement avec quelques partenaires stratégiques capables de valider les hypothèses sur le terrain. Des investisseurs à convaincre pour financer la R&D — parce que le temps mobilisé et les ressources engagées représentent déjà un investissement réel, non négligeable. L'industrialisation est prête — mais il reste une étape finale incontournable, et on s'y prépare activement avec un Security Advisor.
La certification sécurité. On en est pleinement conscients : c'est une étape importante, coûteuse, non négociable. Tant qu'elle n'est pas obtenue, Remendo n'est pas encore bankable. Ce n'est pas un aveu d'échec — c'est la réalité d'un produit sérieux, qui prend la conformité au sérieux.
Ce que l'IA a changé, ce n'est pas la longueur du chemin. C'est le point de départ — et l'amplitude de ce qu'une petite équipe peut désormais atteindre.
Ce que j'observe concrètement
Les initiatives fleurissent — à l'intérieur comme à l'extérieur de la DSI. Certains produisent des interfaces testables en quelques heures, un vrai prototype en quelques jours. Pas des slides — des écrans cliquables, des workflows simulés, une logique de navigation réaliste. Du concret, vite.
D'autres, côté DSI, adoptent une approche plus structurée : apprendre, expérimenter, construire de vraies briques applicatives et des agents IA capables de s'inscrire dans le SI existant. Moins de vitesse, plus de profondeur.
Et demain, quand ces agents collaboreront entre eux, ce ne sont plus seulement des écrans que le métier orchestrera — ce sont des processus entiers.
Deux mouvements parallèles, deux rythmes différents, une même direction. C'est exactement ça qui rend la coordination entre DSI et métier à la fois plus urgente et plus complexe qu'avant.
Ce phénomène a d'abord été baptisé « vibe coding » — coder au feeling, par intention, sans expertise technique formelle. Le terme a le mérite d'exister, mais il sous-estime ce qui se passe vraiment — et il cache un risque réel : une part croissante d'employés qui s'improvise développeur sans avoir les fondamentaux techniques, méthodologiques ou de gouvernance.
Ce que j'observe sur le terrain, c'est moins du bricolage inspiré que du Business-Led Development : le métier qui reprend le lead sur ce qu'il a toujours le mieux connu — ses propres besoins — et qui dispose enfin des outils pour les exprimer de façon tangible et industrialisable. À condition d'en accepter les responsabilités.
Ce n'est plus une expérimentation — les COMEX demandent du ROI, pas des POC.
La question qui fâche : la DSI doit-elle arrêter de coder ?
Non. Mais elle doit arrêter de tout coder elle-même.
Ce changement de posture repose sur une idée simple : le prototype métier n'est plus un brouillon. C'est une spécification exécutable. La DSI ne refait pas le travail — elle l'industrialise.
Le métier produit l'intention et la logique. La DSI transforme cette « dette de génération » en actif patrimonial durable. C'est une division du travail qui valorise les deux côtés — à condition de l'assumer clairement.
Mais il y a un point que beaucoup esquivent : confier un processus à un agent IA, ce n'est pas comme le confier à un workflow codé. Un workflow déterministe fait toujours la même chose. Un agent, lui, est non déterministe — il raisonne, il interprète, il peut produire des résultats variables selon le contexte. Ce n'est pas un défaut, c'est sa nature.
Mais ça change radicalement ce qu'on peut lui confier, à quel niveau de supervision, et avec quels garde-fous. Automatiser une étape modifie délais, responsabilités et points de contrôle. Si le reste du processus ne suit pas, on rend l'ensemble dysfonctionnel.
La nouvelle chaîne de valeur
Le risque que personne ne veut voir : la shadow IA
La vraie valeur de la DSI n'a jamais été dans les écrans. Elle est dans ce que le métier ne peut pas faire seul. Et en 2026, ce rôle devient plus critique que jamais.
Le premier risque est connu : 45% du code généré par IA contient des failles de sécurité (Veracode, 2025). Mais il y en a un deuxième, moins visible et bien plus dangereux : la shadow IA — ou ce que les praticiens commencent à appeler l'AI Sprawl : la prolifération non maîtrisée d'agents, avec une dilution des rôles, des responsabilités, et des données qui circulent sans filet.
Ce n'est plus seulement un collaborateur qui installe un logiciel non autorisé. C'est un agent IA — configuré en quelques prompts par un utilisateur bien intentionné — qui accède à des bases de données internes, génère des fichiers, envoie des requêtes vers des API externes, et potentiellement exfiltre des données sensibles sans que personne ne s'en aperçoive.
Les données clients, les données RH, la propriété intellectuelle, les données financières — tout ce qui transite dans le contexte d'un agent peut, sans garde-fou, sortir de l'organisation.
Les vecteurs sont multiples : prompt injection via un document malveillant, connexion non contrôlée à un LLM externe, logs envoyés vers des serveurs tiers, ou simplement un collaborateur qui colle des données confidentielles dans une interface IA grand public sans en mesurer les conséquences.
On ne peut pas protéger ce qu'on ne voit pas.
La DSI ne combat pas ce risque en interdisant — elle le contient en structurant : environnements d'exécution isolés, Data Products avec niveaux d'accès granulaires, supervision des flux agents, politique claire sur quels LLMs sont autorisés dans quel contexte. L'AI Act impose d'ailleurs aux organisations de documenter et tracer l'usage des systèmes IA à risque élevé — la DSI est la seule à pouvoir tenir ce registre. Et à partir d'août 2026, les amendes peuvent atteindre 7% du chiffre d'affaires mondial.
Ce que ça demande à la DSI : une plateforme, pas un process
Ce n'est pas une capitulation. C'est une évolution stratégique — et la plus intelligente que la DSI puisse opérer en ce moment.
Plutôt que de vérifier chaque écran produit par le métier, la DSI fournit la chaîne de montage dans laquelle le métier pose ses briques : des Data Products fiables, des environnements souverains pour prototyper sans risque, des templates techniques réutilisables, des guidelines claires. Et des mécanismes de « débrayage » — la capacité de rendre la main à l'humain quand le non-déterminisme ou l'incertitude deviennent inacceptables.
Le nouveau contrat
Le métier s'engage à
- Utiliser les données officielles
- Documenter les logiques fonctionnelles
- Ne pas promettre un produit « clé en main »
- Ne jamais alimenter un LLM externe avec des données non approuvées
La DSI s'engage à
- Industrialiser en moins d'un mois les prototypes validés
- Garantir sécurité et conformité
- Fournir des environnements IA souverains et traçables
- Tenir le registre AI Act
- Piloter la facture IA — les coûts d'inférence agentique sont élastiques et difficiles à anticiper à l'échelle
Un cadre. Pas une cage.
Ce que ça change pour les développeurs et architectes
Je veux être direct, parce que ce point est souvent esquivé dans ce genre d'article.
Le développeur ne disparaît pas — il devient plus précieux, mais différemment. Architecte de solutions, garant de la qualité du code généré, expert en sécurisation des flux agents, traducteur entre ambitions métier et contraintes techniques réelles. C'est précisément parce que le métier va générer du code et orchestrer des agents que le regard critique du développeur et de l'architecte devient indispensable. L'IA amplifie chaque dimension du risque — quelqu'un doit auditer ce qu'elle produit et surveiller ce qu'elle manipule. Ce quelqu'un, c'est eux.
80% des ingénieurs devront se former à l'IA d'ici 2027 (Gartner) — non pas pour être remplacés, mais pour rester décisifs là où l'IA seule ne suffit pas.
Pourquoi en parler maintenant ?
Ce n'est pas une fatalité — c'est le prix d'une mauvaise coordination entre des métiers qui construisent dans leur coin et des DSI qui tentent encore de tout contrôler, pendant que les agents IA, eux, n'attendent pas.
Et le décalage entre adoption rapide et maturité en sécurité pourrait conduire dès 2026 à des actions en justice visant directement les dirigeants, tenus responsables de décisions prises par des systèmes autonomes défaillants.
Deux réflexes dangereux persistent encore : la DSI qui freine par peur de perdre la main, et le métier qui contourne en créant de la dette technique silencieuse — et des risques de fuite de données réels. Les deux mènent au même endroit : des projets qui échouent, des budgets gaspillés, une perte de compétitivité, et une exposition juridique croissante.
Les organisations qui poseront ce nouveau contrat dans les 18 prochains mois prendront une avance difficile à rattraper.
Ce n'est pas de la théorie. Avec un product manager, un tech lead, moi-même (architecte Data) et Claude comme quatrième membre de l'équipe, nous avons construit Remendo — une plateforme SaaS de Data Quality Governance. Multi-tenant, 15+ modules, connecteurs INSEE et RNE, moteur de remédiation automatique, facturation, support, 2FA, documentation complète.
Un product manager qui connaît son marché, un tech lead qui connaît ses contraintes, un architecte qui connaît ses données, une IA qui accélère chaque étape — et bientôt, un Security Advisor pour franchir la dernière marche. Le résultat : un produit testable en trois semaines, là où il aurait fallu près d'un an sans l'IA. Il reste du chemin — certification sécurité, partenaires, financement — mais le point de départ a radicalement changé.
C'est exactement ça, le Business-Led Development.
Kasparov l'avait compris après sa défaite contre Deep Blue : la valeur ne vient ni des meilleurs humains seuls, ni des machines les plus puissantes. Elle vient de ceux qui savent le mieux organiser la collaboration entre les deux. Avec Remendo, nous avons formé une équipe centaure — et nous venons d'en faire l'expérience.
Lire l'article précédent : L'entreprise centaure — Kasparov, Deep Blue et le modèle centaure