L’usage de l’intelligence artificielle a envahi le monde professionnel. Selon l’étude State of AI publiée par McKinsey, sur près de 2000 entreprises interrogées, 88 % déclarent utiliser l’IA. Ce constat se reflète à tous les niveaux des organisations, en particulier dans les pratiques des salariés. Ces derniers intègrent l’IA dans leur fonction, en recourant soit aux outils fournis par leur employeur, soit en utilisant des solutions personnelles, au risque de créer des failles de sécurité.
Face à cette réalité, les entreprises cherchent à reprendre la main en encadrant l’IA en interne. Elles élaborent des politiques de gouvernance de l’IA et s’orientent vers des solutions d’« IA d’entreprise » présentées comme plus sécurisées et mieux maîtrisées. Mais, encadrer l’IA n’est pas un geste neutre. Cela produit des effets souvent ignorés par les salariés.
Cette démarche permet à l’employeur de mieux suivre la manière dont les salariés utilisent l’IA et détecter des pratiques non autorisées, ce qui renforce indirectement son pouvoir disciplinaire. Dès lors, se joue un affrontement entre progrès technologique et équilibre des pouvoirs.
IA au travail : des logiques d’usage qui s’opposent
Avant même de réfléchir à un encadrement, il faut comprendre ce que l’on encadre. Aujourd’hui, deux pratiques coexistent au sein des organisations et elles ne reposent pas sur les mêmes logiques.
D’un côté on a l’usage personnel, spontané et parfois improvisé de l’IA. Les salariés installent des extensions IA, utilisent ChatGPT ou d’autres outils gratuits. Tout est simple, rapide et accessible. Mais ces usages restent hors du contrôle de la DSI ou du DPO, ce qui crée une brèche dans la sécurité de l’entreprise. Un salarié qui colle des données internes dans un outil non encadré expose l’entreprise à une fuite de données, des sanctions règlementaires lourdes et une perte de confiance des clients. Dans certains secteurs (finance, santé, défense), cela peut même compromettre des obligations réglementaires spécifiques.
De l’autre côté, il y a l’usage encadré via des solutions professionnelles : ChatGPT Enterprise, Microsoft Copilot for Business ou encore des IA intégrées aux outils métiers. Ces versions sont sécurisées, contractualisées et pensées pour fonctionner dans un environnement contrôlé. Elles offrent des garanties de confidentialité, des mécanismes de traçabilité et une visibilité sur les usages.
Sur le papier, la distinction est simple. Dans la réalité, elle est plus floue. Les salariés passent de l’une à l’autre sans s’en rendre compte, obligeant ainsi l’entreprise à instaurer un cadre clair.
Les clés d’un encadrement réussi de l’IA
Souscrire à une solution sécurisée ne règle rien en soi. Tout l’enjeu se situe dans la manière dont l’entreprise structure l’usage de l’IA.
La première brique, c’est la charte IA. Elle définit ce qui est autorisé, ce qui ne l’est pas et les bonnes pratiques. Mais une charte IA n’est pas une simple note interne. Son adoption est similaire à celle du règlement intérieur. Le processus est long et strict : consultation du CSE, envoi à l’inspection du travail, respect d’un délai d’un mois pour recueillir ses observations, transmission au Conseil de prud’hommes puis affichage obligatoire.
Autour de cette charte, l’entreprise doit aussi déployer une boîte à outils complète :
- une politique interne explicite d’usage de l’IA
- une classification des outils (autorisés / restreints / interdits)
- un périmètre clair de données utilisables selon leur sensibilité
- une formation minimale obligatoire des salariés
- un registre interne des traitements IA
- une gouvernance transversale associant juridique, IT, DPO, RH et métiers
Sans ces mesures, l’encadrement reste superficiel. En revanche, un déploiement complet des mesures renforce la sécurité et la conformité tout en transformant le quotidien des équipes.
L’impact sur le travail quotidien : entre efficacité et surveillance
Soyons honnêtes, du point de vue des collaborateurs, l’encadrement peut être vécu comme un frein. Avant, chacun utilisait l’IA qu’il voulait, testait librement et gagnait du temps. Après la mise en place d’une gouvernance, certaines démarches deviennent obligatoires et l’usage se rigidifie. Pourtant, l’IA d’entreprise apporte aussi des avantages concrets :
- une meilleure confidentialité,
- l’intégration avec les outils internes,
- l’accès à des bases de données sécurisées,
- la réduction des risques pour l’entreprise et les salariés.
Mais le revers existe. Les outils professionnels permettent une traçabilité fine : fréquence d’usage, type de données manipulées, sujets des prompts, volume de requêtes… Tout usage hors cadre peut être identifié et en cas de litige, ces informations peuvent servir à justifier une procédure disciplinaire. Une fois adoptée, la charte IA devient opposable aux salariés, ce qui implique qu’un non-respect peut entraîner des sanctions.
Cette traçabilité soulève également un enjeu stratégique plus large. En analysant les usages, l’entreprise peut se rendre compte que certaines tâches sont désormais majoritairement traitées par l’IA. Cela peut l’amener à revoir l’organisation des postes, avec pour objectif la rationalisation et la réduction des coûts. Bien entendu, le licenciement direct d’un salarié au seul motif que l’IA réalise certaines tâches reste juridiquement impossible. Néanmoins, l’usage intensif de l’IA peut indirectement modifier les objectifs RH de l’employé, les missions sur les postes ou transformer le quotidien professionnel.
Ainsi, l’encadrement révèle sa double nature : il protège l’entreprise, améliore la sécurité et l’efficacité mais crée un nouveau vecteur de contrôle et d’impact potentiel sur l’organisation du travail et l’autonomie des salariés.
Sources :
https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai
https://www.bitrix24.fr/articles/statistiques-cles-ia-entreprise-adoption-budgets-roi.php
