ne plante pas votre infrastructure.
Il prend de mauvaises décisions à votre place.
La cybersécurité IA n'est pas une extension de la cybersécurité classique.
La cybersécurité classique protège des systèmes. Un pare-feu, un antivirus, un SOC : ces dispositifs empêchent des acteurs malveillants d'accéder à vos infrastructures ou vos données. Les conséquences d'une attaque réussie sont visibles : une indisponibilité, une exfiltration de données, un chiffrement ransomware.
La cybersécurité IA est différente dans sa nature. Les systèmes IA ne sont pas seulement des cibles. Ce sont des vecteurs de décision. Un système IA compromis ne plante pas votre infrastructure : il continue à fonctionner normalement, tout en produisant des recommandations ou des décisions systématiquement faussées. La conséquence n'est pas visible. Elle est progressive, et elle opère au niveau de vos décisions.
Ce que le Comex doit évaluer, pas déléguer.
Un acteur malveillant introduit des données corrompues dans le processus d'entraînement ou d'alimentation d'un modèle IA. Le modèle continue à fonctionner normalement, mais ses sorties sont biaisées dans une direction prévisible pour l'attaquant. Ce type d'attaque est particulièrement redoutable parce qu'il est difficile à détecter sans supervision active des sorties du modèle dans le temps. Un système RH, un outil de scoring commercial, un modèle de prévision financière sont des cibles potentielles.
Des entrées soigneusement construites (prompt injection, adversarial inputs) manipulent les sorties d'un système IA utilisé pour des décisions critiques. Un système de détection de fraude peut être manipulé pour valider des transactions frauduleuses. Un outil de recommandation peut être exploité pour orienter des décisions commerciales. La frontière entre usage légitime et exploitation malveillante devient floue. La supervision humaine des décisions critiques n'est pas un luxe réglementaire. C'est la seule ligne de défense effective contre ce vecteur.
Votre fournisseur IA est lui-même une surface d'attaque. Les données que vous lui transmettez, les contextes que vous partagez via ses APIs, les intégrations profondes dans vos systèmes : tout cela crée une exposition que votre propre posture de sécurité ne couvre pas. Une faille chez un grand fournisseur IA peut donner accès à des mois de données et de contextes de vos équipes.
La responsabilité monte d'un niveau.
Dans la cybersécurité classique, la responsabilité opérationnelle appartient à la DSI ou au RSSI. Le Comex supervise, valide les budgets, reçoit des reportings. C'est un modèle qui fonctionne parce que les risques sont techniques et les réponses sont techniques.
La cybersécurité IA ne fonctionne pas sur ce modèle. Les décisions qui créent les vulnérabilités IA : quel fournisseur utiliser, quelles données externaliser, quels systèmes IA alimenter quelles décisions critiques : sont des décisions stratégiques qui ont été prises au niveau direction ou validées par elle.
La responsabilité de sécuriser ces choix remonte donc au même niveau que celui qui les a faits. Pas parce que la DSI est incompétente. Parce que ces décisions ne sont pas de nature technique.
La réglementation reconnaît ce que la technique ne peut pas gérer seule.
L'EU AI Act impose aux opérateurs de systèmes IA à haut risque une supervision humaine effective. Cette obligation n'est pas technique. Elle est de gouvernance. Elle reconnaît explicitement que certains risques liés à l'IA ne peuvent pas être gérés uniquement par des mesures techniques.
La supervision humaine des systèmes IA décisionnels est à la fois la principale obligation réglementaire et la principale défense contre les vecteurs de risque cyber IA. Ce n'est pas une coïncidence. C'est une reconnaissance que la sécurité des systèmes décisionnels IA passe par des humains capables de détecter et d'intervenir : pas seulement par des pare-feux.