>
L'IA crée de nouveaux rapports de force, de nouvelles dépendances, de nouveaux risques. Ces concepts sont ceux que tout dirigeant et tout Comex doit maîtriser pour décider correctement , pas pour comprendre la technologie, mais pour comprendre ce qu'elle change dans les dynamiques de pouvoir et de contrôle.
Ce n'est pas une compétence technique. C'est une compétence décisionnelle. La plupart des organisations ont une stratégie IA , un plan de déploiement d'outils. Peu développent une intelligence stratégique de l'IA , la capacité à lire ce que ces déploiements changent dans les rapports de force, qui capte la valeur, qui perd le contrôle.
En France, les ETI et grandes entreprises qui développent cette intelligence avant leurs concurrents construisent un avantage qu'il est presque impossible de rattraper. Ceux qui attendent subissent les décisions prises par leurs fournisseurs, leurs concurrents et les régulateurs.
La souveraineté n'est pas l'absence de dépendances. Une entreprise souveraine peut dépendre d'un LLM, d'un cloud, d'un fournisseur IA , à condition que cette dépendance soit choisie, pilotée et réversible.
Trois questions permettent d'évaluer la souveraineté réelle, Pouvez-vous sortir de cette dépendance ? Dans quel délai ? À quel coût ? Si les réponses sont floues, la souveraineté est compromise.
En France, la contribution au référentiel national de souveraineté numérique a posé ce cadre à l'échelle des infrastructures critiques. Le même raisonnement s'applique à l'échelle de chaque organisation.
Une dépendance stratégique IA se distingue d'une dépendance fonctionnelle par son impact sur la capacité de l'organisation à agir librement. Quand un système IA devient le filtre entre les données et les décisions exécutives, ou quand il est intégré dans les processus critiques sans alternative viable, la dépendance est stratégique.
Les dépendances stratégiques IA les plus fréquentes dans les ETI et grandes entreprises françaises concernent, les LLMs intégrés dans les workflows décisionnels, les plateformes cloud qui hébergent les données propriétaires, les fournisseurs de modèles qui modifient leurs conditions unilatéralement.
Le shadow AI est la forme moderne du shadow IT , mais avec des conséquences plus graves. Quand un collaborateur utilise ChatGPT, Claude ou un agent IA personnel dans le cadre de son travail sans validation de la direction, il crée trois types de risques simultanés :
Dépendances invisibles , des processus critiques deviennent dépendants d'outils non validés.
Expositions réglementaires , l'EU AI Act impose des responsabilités au niveau exécutif pour tous les systèmes IA utilisés dans l'organisation, y compris ceux non officiellement déployés.
Fuites de données stratégiques , les données propriétaires peuvent être utilisées pour entraîner des modèles tiers.
Dans les organisations françaises, le shadow AI est systématiquement sous-estimé par les Comex. La gouvernance IA doit explicitement l'adresser.
Une gouvernance IA Comex efficace répond à trois questions fondamentales : Qui décide quels systèmes IA sont déployés ? Qui est responsable quand un système IA produit une décision erronée ou discriminatoire ? Qui répond face aux régulateurs en cas de contrôle EU AI Act ?
Sans réponse claire à ces questions, la gouvernance IA est nominale , elle existe sur le papier mais ne structure pas les décisions réelles. Les ETI et grandes entreprises françaises font face à une obligation de mise en conformité EU AI Act avant août 2026 pour les systèmes à haut risque.
La souveraineté décisionnelle est menacée lorsque les systèmes IA deviennent des filtres invisibles entre la réalité et la décision exécutive. Quand un Comex décide sur la base de recommandations IA sans en comprendre les biais, les données sous-jacentes ou les dépendances créées, la décision est nominalement exécutive mais effectivement déléguée au système.
Ce concept est particulièrement critique pour les dirigeants de PME et ETI françaises, qui n'ont pas toujours les ressources pour auditer les systèmes IA qu'ils déploient , mais qui en portent la pleine responsabilité.
C'est la dépendance la plus insidieuse. Au départ, le système IA semble interchangeable , on pourrait théoriquement passer à un concurrent. Mais au fil du temps, le système apprend des données, des processus, des préférences de l'organisation. Il devient progressivement irremplaçable, non pas parce que sa technologie est unique, mais parce que son entraînement sur vos données est unique.
La dépendance d'apprentissage est rarement modélisée dans les arbitrages build/buy/partner. C'est une erreur stratégique fréquente dans les ETI françaises.
Le BYOA est une évolution du shadow AI qui concernait les outils. Avec les agents IA autonomes capables d'agir, de décider et de s'interfacer avec des systèmes tiers, le risque est d'un ordre de magnitude supérieur.
Un agent IA personnel utilisé dans un contexte professionnel peut, accéder à des données confidentielles, prendre des décisions au nom du collaborateur, créer des dépendances non visibles pour la DSI, et engager la responsabilité de l'organisation sous l'EU AI Act.
Le BYOA est le risque de gouvernance IA émergent le plus sous-estimé en France en 2026.
L'IA ne crée pas de valeur de façon homogène. Elle la redistribue , vers les acteurs qui contrôlent les modèles, les données d'entraînement, les interfaces et les standards. Les organisations qui déploient l'IA sans stratégie de contrôle créent de la valeur pour leurs fournisseurs autant que pour elles-mêmes.
Comprendre où se concentre le pouvoir économique à l'ère de l'IA est la question stratégique centrale pour tout Comex français. Ce n'est pas une question de technologie , c'est une question de structure de marché.
Toutes les décisions IA ne sont pas irréversibles. Mais certaines le sont, le choix d'une infrastructure cloud, l'intégration d'un LLM dans les processus critiques, la cession de données propriétaires à un fournisseur, le déploiement d'un système à haut risque au sens de l'EU AI Act.
La caractéristique d'une décision irréversible IA est qu'elle structure les décisions suivantes , elle réduit l'espace des choix futurs. C'est pourquoi l'intelligence stratégique doit intervenir avant ces décisions, pas après.
Ces concepts ne sont pas abstraits. Ils décrivent des situations concrètes que vivent les Comex français aujourd'hui.
Nous intervenons au niveau des décisions tant que celles-ci structurent l'exécution. Si l'un de ces concepts décrit votre situation, une lecture de votre position prend 48h.
parlons-en