Ni les ressources des grands groupes, ni l'agilité des startups.
Les grands groupes ont les moyens de créer des directions IA dédiées, de recruter des experts en gouvernance, de financer des audits EU AI Act. Les startups sont nées dans l'IA : elles n'ont pas de systèmes legacy à transformer et peuvent concevoir leur gouvernance dès le départ.
Les ETI sont dans la position la plus dangereuse : et la plus sous-estimée. Elles ont suffisamment de processus critiques pour être pleinement concernées par l'EU AI Act. Elles n'ont pas suffisamment de ressources pour absorber facilement la charge de conformité. Et leurs décisions IA sont souvent prises sans la visibilité systémique que leur taille exige pourtant.
Ce que les ETI cumulent que les autres n'ont pas.
L'EU AI Act ne demande pas à votre DSI de prouver la conformité. Il vous demande à vous : en tant qu'opérateur : de démontrer que vous contrôlez vos systèmes IA.
Si un de vos fournisseurs SaaS utilise de l'IA dans ses processus et que vous l'intégrez dans un processus RH ou financier, vous êtes potentiellement l'opérateur d'un système à haut risque. Même si vous ne l'avez pas choisi explicitement.
71 % des collaborateurs utilisent des outils IA non approuvés.
Dans les ETI, le Shadow AI est particulièrement répandu. Les collaborateurs utilisent ChatGPT, Claude, Gemini, des outils de transcription, des assistants de rédaction : souvent sans que la direction en soit informée, sans cadre d'utilisation, sans contrôle des données qui transitent.
Ce n'est pas un problème de discipline. C'est un problème de gouvernance absente. Quand les outils sont disponibles, utiles et gratuits, ils sont adoptés spontanément. Sans cadre, cette adoption crée des expositions de données, des dépendances informelles et des usages qui peuvent entrer en conflit avec l'EU AI Act.
En 2023, trois ingénieurs Samsung ont involontairement partagé du code source confidentiel et des notes de réunion stratégiques avec ChatGPT. L'information est potentiellement devenue partie des données d'entraînement. Ce type d'incident se produit probablement chaque semaine dans des dizaines d'ETI françaises. Personne ne le sait parce que personne ne le mesure.
En mars 2023, OpenAI a modifié unilatéralement ses conditions tarifaires et ses limites d'usage. Les organisations qui avaient intégré GPT-4 dans leurs processus critiques ont découvert du jour au lendemain que leur modèle économique reposait sur une dépendance dont elles ne maîtrisaient pas les conditions. C'est exactement ce que signifie une dépendance subie : vous n'avez pas pris la mauvaise décision. Vous n'avez juste pas vu ce que vous étiez en train de céder.
L'avantage des ETI qui agissent maintenant.
L'exposition spécifique des ETI est réelle. Mais elle n'est pas une fatalité. Les ETI qui structurent leur approche IA maintenant bénéficient d'un avantage que les grands groupes n'ont plus : la capacité à construire une gouvernance cohérente dès le départ, sans avoir à démonter des structures installées.
Une ETI qui cartographie ses dépendances aujourd'hui, qui établit sa gouvernance IA avant les obligations d'août 2026, et qui structure ses décisions stratégiques avec la bonne visibilité : construit un actif difficile à rattraper pour ses concurrents qui attendent.