Un système IA compromis
ne plante pas votre infrastructure.
Il prend de mauvaises décisions à votre place.
tointelligence · omer taki

La cybersécurité IA n'est pas une extension de la cybersécurité classique.

La cybersécurité classique protège des systèmes. Un pare-feu, un antivirus, un SOC : ces dispositifs empêchent des acteurs malveillants d'accéder à vos infrastructures ou vos données. Les conséquences d'une attaque réussie sont visibles : une indisponibilité, une exfiltration de données, un chiffrement ransomware.

La cybersécurité IA est différente dans sa nature. Les systèmes IA ne sont pas seulement des cibles. Ce sont des vecteurs de décision. Un système IA compromis ne plante pas votre infrastructure : il continue à fonctionner normalement, tout en produisant des recommandations ou des décisions systématiquement faussées. La conséquence n'est pas visible. Elle est progressive, et elle opère au niveau de vos décisions.

L'attaque IA la plus dangereuse n'est pas celle qui bloque vos systèmes. C'est celle qui les laisse fonctionner en produisant les mauvaises réponses.

Ce que le Comex doit évaluer, pas déléguer.

· vecteur 1 · empoisonnement de modèle

Un acteur malveillant introduit des données corrompues dans le processus d'entraînement ou d'alimentation d'un modèle IA. Le modèle continue à fonctionner normalement, mais ses sorties sont biaisées dans une direction prévisible pour l'attaquant. Ce type d'attaque est particulièrement redoutable parce qu'il est difficile à détecter sans supervision active des sorties du modèle dans le temps. Un système RH, un outil de scoring commercial, un modèle de prévision financière sont des cibles potentielles.

· vecteur 2 · manipulation de système décisionnel

Des entrées soigneusement construites (prompt injection, adversarial inputs) manipulent les sorties d'un système IA utilisé pour des décisions critiques. Un système de détection de fraude peut être manipulé pour valider des transactions frauduleuses. Un outil de recommandation peut être exploité pour orienter des décisions commerciales. La frontière entre usage légitime et exploitation malveillante devient floue. La supervision humaine des décisions critiques n'est pas un luxe réglementaire. C'est la seule ligne de défense effective contre ce vecteur.

· vecteur 3 · exposition via la chaîne fournisseur

Votre fournisseur IA est lui-même une surface d'attaque. Les données que vous lui transmettez, les contextes que vous partagez via ses APIs, les intégrations profondes dans vos systèmes : tout cela crée une exposition que votre propre posture de sécurité ne couvre pas. Une faille chez un grand fournisseur IA peut donner accès à des mois de données et de contextes de vos équipes.

La responsabilité monte d'un niveau.

Dans la cybersécurité classique, la responsabilité opérationnelle appartient à la DSI ou au RSSI. Le Comex supervise, valide les budgets, reçoit des reportings. C'est un modèle qui fonctionne parce que les risques sont techniques et les réponses sont techniques.

La cybersécurité IA ne fonctionne pas sur ce modèle. Les décisions qui créent les vulnérabilités IA : quel fournisseur utiliser, quelles données externaliser, quels systèmes IA alimenter quelles décisions critiques : sont des décisions stratégiques qui ont été prises au niveau direction ou validées par elle.

La responsabilité de sécuriser ces choix remonte donc au même niveau que celui qui les a faits. Pas parce que la DSI est incompétente. Parce que ces décisions ne sont pas de nature technique.

DSI / RSSI
Sécurité infrastructure
Protéger les systèmes, détecter les intrusions, répondre aux incidents. Périmètre technique, réponse technique.
Direction générale
Décisions d'exposition
Quelles données sont externalisées vers quels fournisseurs. Quels systèmes IA influencent quelles décisions critiques. Quelles dépendances créent des vecteurs d'attaque.
Comex
Supervision et responsabilité
Valider le cadre de risque acceptable. Superviser les systèmes IA décisionnels. Porter la responsabilité vis-à-vis des régulateurs et parties prenantes.

La réglementation reconnaît ce que la technique ne peut pas gérer seule.

L'EU AI Act impose aux opérateurs de systèmes IA à haut risque une supervision humaine effective. Cette obligation n'est pas technique. Elle est de gouvernance. Elle reconnaît explicitement que certains risques liés à l'IA ne peuvent pas être gérés uniquement par des mesures techniques.

La supervision humaine des systèmes IA décisionnels est à la fois la principale obligation réglementaire et la principale défense contre les vecteurs de risque cyber IA. Ce n'est pas une coïncidence. C'est une reconnaissance que la sécurité des systèmes décisionnels IA passe par des humains capables de détecter et d'intervenir : pas seulement par des pare-feux.