Sélectionner une page
IA en entreprise : Shadow AI, AI Washing, Skill Erosion, les réalités que les chiffres commencent à documenter

IA en entreprise : Shadow AI, AI Washing, Skill Erosion, les réalités que les chiffres commencent à documenter

Il existe une version confortable de l’histoire de l’IA en entreprise. Elle ressemble à ceci : les outils sont accessibles, les équipes s’y mettent progressivement, et l’organisation avance. Pas de grand plan, mais pas de chaos non plus. Une adoption organique, raisonnable, pragmatique.

Cette version est largement répandue en Suisse romande. Elle est aussi, dans bien des cas, inexacte.

Ce que chercheurs et analystes documentent depuis deux ans est clair : beaucoup d’entreprises qui pensent intégrer l’IA la subissent en réalité.Et les effets les plus problématiques ne sont pas visibles tout de suite.

Le Shadow AI : quand l’IA avance plus vite que l’organisation

Le premier concept à comprendre est celui de Shadow AI : l’IA fantôme. Il désigne l’utilisation d’outils d’IA au sein d’une organisation sans validation, sans supervision et sans gouvernance formelle de la part de la direction ou des équipes IT.

Ce n’est pas un phénomène marginal. Selon une enquête IBM menée auprès de 3 000 travailleurs, plus d’un tiers des employés reconnaissent avoir partagé des informations professionnelles sensibles avec des outils IA sans l’accord de leur employeur. Une étude Menlo Security révèle que 68% des employés utilisent des comptes personnels pour accéder à des outils comme ChatGPT au travail  et que 57% d’entre eux le font avec des données sensibles.

Le Shadow AI naît rarement d’une mauvaise intention. Il naît d’un écart : entre ce dont les équipes ont besoin pour travailler efficacement, et ce que l’organisation leur propose officiellement. Quand cet écart est trop large, les gens trouvent leurs propres solutions. C’est humain. C’est aussi, selon Gartner, l’un des risques stratégiques les plus sous-estimés de 2026; 49% des organisations s’attendent à subir un incident lié au Shadow AI dans les douze prochains mois.

Le risque n’est pas uniquement sécuritaire, même si la fuite de données confidentielles vers des serveurs externes est réelle. C’est aussi un risque de cohérence opérationnelle : quand chaque département utilise ses propres outils, avec ses propres pratiques, sans langage commun, les gains individuels ne se traduisent pas en performance collective.

L’AI Washing : la stratégie qui n’en est pas une

Le deuxième phénomène est plus inconfortable à nommer, parce qu’il touche non plus les équipes mais les directions.

L’AI Washing  (par analogie avec le greenwashing)  désigne le fait de surestimer ou de déformer la réalité de son utilisation de l’IA. Cela peut être externe : afficher une « stratégie IA » dans ses communications sans que les pratiques réelles ne le justifient. Cela peut être interne : se convaincre qu’on « fait de l’IA » parce que quelques collaborateurs utilisent ChatGPT, sans gouvernance, sans formation, sans réflexion sur les usages.

Ce second cas est peut-être le plus fréquent, et le moins documenté. Compliance Week le formule ainsi : l’AI Washing « prospère dans un climat où l’optimisme technologique est élevé, la compréhension est faible, et la supervision est très en retard sur l’innovation. »

L’enjeu n’est pas moral. Il est stratégique. Une organisation qui se croit plus avancée qu’elle ne l’est réellement n’alloue pas ses ressources correctement. Elle ne forme pas ses équipes sur ce dont elles ont vraiment besoin. Elle ne pose pas les bonnes questions. Et elle découvre souvent le décalage trop tard.

La Skill Erosion : ce que personne ne mesure encore

C’est le concept le moins visible des trois, et celui dont les implications à moyen terme sont les plus sérieuses.

La Skill Erosion (l’érosion des compétences) désigne ce qui se passe quand des collaborateurs cessent d’exercer certaines capacités cognitives parce qu’ils les ont déléguées à l’IA. Sur le moment, c’est un gain d’efficacité. Sur la durée, c’est une perte de maîtrise.

Gartner a introduit le concept d' »AI lock-in » pour décrire ce mécanisme : lorsque les collaborateurs abandonnent des tâches fondamentales au profit de l’automatisation, leur capacité à questionner, interpréter ou corriger les sorties de l’IA s’affaiblit progressivement. L’organisation devient dépendante d’outils qu’elle ne comprend plus vraiment. Gartner estime que la moitié des entreprises pourraient faire face à des pénuries de compétences irréversibles d’ici 2030 si cette tendance n’est pas gérée.

Un exemple concret : un chargé de communication qui utilise l’IA pour produire l’ensemble de ses contenus gagne du temps: c’est réel et mesurable. Mais s’il cesse d’exercer son propre jugement en parallèle, quelque chose se perd. La capacité à construire un angle original. À sentir le ton juste. À écrire sous pression quand l’outil ne suffit pas. Ce n’est pas visible dans les indicateurs à court terme. Ça le devient quand la situation l’exige.

Le même mécanisme s’observe dans le recrutement : un responsable RH qui s’appuie systématiquement sur l’IA pour la présélection peut perdre progressivement l’intuition qui lui permettait d’identifier les profils atypiques : précisément ceux que les algorithmes excluent en premier.

La Skill Erosion est d’autant plus difficile à détecter qu’elle est asymptomatique : elle progresse sans déclencher d’alerte immédiate, jusqu’au moment où une situation complexe ou une défaillance de l’outil révèle que l’expertise humaine de substitution n’est plus là.

Alors, comment ne pas en arriver là ?

Face à ces trois dynamiques, il n’existe pas de solution miracle. Mais il existe une approche qui change fondamentalement la posture, ce que les chercheurs en organisation appellent le Human-AI Teaming : non pas gérer l’IA, mais construire une véritable collaboration entre les équipes humaines et les outils.

Le Human-AI Teaming n’est pas un concept de plus dans la liste des buzzwords. C’est une façon structurée de penser la relation entre les capacités humaines et les capacités des outils, non pas comme une substitution, mais comme une complémentarité active. Selon le cadre CHAI-T, il repose sur cinq dimensions : l’échange d’information, l’apprentissage mutuel, la validation croisée, le feedback, et l’augmentation réciproque des capacités.

Ce qui distingue concrètement une organisation qui pratique le Human-AI Teaming d’une qui fait du Shadow AI : dans le premier cas, il y a une réflexion explicite sur ce que l’humain doit conserver comme compétences propres, et sur ce que l’IA peut prendre en charge sans fragiliser l’ensemble. Dans le second, cette réflexion n’a pas eu lieu.

Ce n’est pas un projet technique. C’est un projet organisationnel et managérial et c’est précisément pour ça qu’il est souvent remis à plus tard.

Quatre questions pour se situer

Il n’existe pas de diagnostic universel. Mais ces questions permettent d’ouvrir une réflexion honnête sur où en est réellement une organisation

Sur le Shadow AI: Si vous demandiez à vos équipes de lister tous les outils IA qu’elles utilisent cette semaine, auriez-vous des surprises ? La plupart des directions en auraient. Ce n’est pas un problème de confiance, c’est une question d’écart entre ce que l’organisation propose et ce dont les collaborateurs ont besoin pour travailler efficacement. Cet écart mérite d’être compris avant d’être comblé.

Sur l’AI Washing : Votre organisation a-t-elle une « stratégie IA » formalisée ? Si oui, est-ce que les personnes qui travaillent avec vous au quotidien la connaissent et la reconnaissent dans leur travail réel ? Une stratégie qui existe sur le papier mais pas dans les pratiques n’est pas encore une stratégie, c’est une intention. La distance entre les deux est souvent plus grande qu’on ne le croit.

Sur la Skill Erosion : Y a-t-il des compétences que vos équipes exerçaient régulièrement il y a deux ans et qu’elles exercent moins aujourd’hui parce qu’un outil s’en charge ? Si oui, est-ce un choix délibéré ou une dérive non remarquée ? La question n’est pas de résister à l’automatisation, mais de décider consciemment ce qu’on choisit de conserver comme expertise humaine, et pourquoi.

Sur le Human-AI Teaming : Quand une décision importante est prise dans votre organisation en s’appuyant sur une sortie d’outil, qui valide ? Qui est en mesure de dire « ce résultat me semble juste » ou « quelque chose ne va pas ici » ? Si cette personne n’existe pas clairement, ou si elle n’a plus suffisamment pratiqué pour avoir ce jugement, c’est là que commence le vrai risque.

Ce que ces questions révèlent

L’IA n’est pas une menace ni une solution. C’est un révélateur. Elle révèle la qualité de la gouvernance interne, la clarté des rôles, la robustesse de la culture organisationnelle. Les entreprises qui s’en sortent le mieux ne sont pas forcément celles qui ont les outils les plus sophistiqués, ce sont celles qui ont décidé consciemment comment elles voulaient s’en servir.

__________________________________________________________________________