Les entreprises sont confrontées au défi de minimiser les risques du Shadow AI tout en exploitant pleinement les outils d’IA générative. La solution consiste à utiliser des outils autorisés qui, associés à des mesures de déploiement ciblées, créent un environnement de travail sûr et efficace.
L’essentiel en bref
Quels sont les risques du Shadow AI?
- Le personnel utilise de plus en plus d’outils d’IA générative non autorisés (Shadow AI), ce qui compromet les données, la conformité et la réputation de l’entreprise.
- Ces outils stockent des données sensibles et les utilisent à des fins d’entraînement.
Quelles sont les raisons d’une utilisation imprudente?
- Les outils d’IA générative sont facilement accessibles, parfois gratuits et agréables à utiliser.
- L’apparente «empathie» de l’IA favorise la confiance, bien que les outils saisissent et enregistrent des données en permanence.
La solution? Utiliser des outils d’IA générative autorisés
- Les entreprises doivent proposer à leur personnel des outils sécurisés et contrôlés tels que Microsoft 365 Copilot Chat. Ceux-ci répondent aux exigences en matière de protection des données et de compliance.
L’introduction réussie de l’IA générative ne s’arrête pas à l’aspect technique
- La mise en œuvre technologique ne suffit pas: il s’agit aussi et surtout de miser sur le change management et sur l’accompagnement actif du personnel.
- La sensibilisation et la formation des collaborateur·trice·s favorisent une utilisation sûre.
Mit Swisscom die Welt von Microsoft 365 Copilot entdecken
Wir bieten Unternehmen umfassende Unterstützung rund um Microsoft 365 Copilot. Wir begleiten Sie bei der Einführung und erarbeiten zusammen mit Ihnen Einsatzszenarien.
L’intelligence artificielle générative (GenAI) est entrée depuis longtemps dans le quotidien professionnel – et souvent plus rapidement que ne le permettent les stratégies, les directives ou la gouvernance. Les collaborateur·trice·s utilisent les outils d’IA générative de manière intuitive et avec les meilleures intentions. Mais c’est précisément là que se cache un risque sous-estimé: le Shadow AI (IA fantôme). Lorsque des applications d’IA sont utilisées en dehors de l’environnement informatique contrôlé, les entreprises perdent la main sur le contrôle des données sensibles, ce qui peut entraîner une violation de la loi sur la protection des données.
Pour les entreprises, le Shadow AI n’est pas une menace théorique, mais une question de leadership entrepreneurial. Ce n’est pas tant l’utilisation de l’IA en soi qui pose problème que l’absence de cadre: quelles données peuvent être utilisées? Quelles applications d’IA sont autorisées? Et qui est responsable de l’utilisation de données professionnelles ou personnelles dans des systèmes non autorisés? Une simple interdiction ne suffit pas. En effet, celle-ci peut être contournée – le risque subsiste donc.
L’utilisation responsable d’outils d’IA générative exige que les entreprises fournissent à leurs employé·e·s des alternatives sûres et conformes, tout en définissant des lignes directrices claires pour l’utilisation de l’IA. En gérant activement l’IA générative, vous protégez non seulement les données et la réputation de votre entreprise, mais vous créez également les bases d’une utilisation responsable du potentiel de productivité de l’IA.
Forte augmentation du Shadow AI
Avec l’utilisation croissante de l’intelligence artificielle, le risque du Shadow AI augmente également. Selon le Microsoft Work Trend Index 2024, 80% des personnes utilisant l’IA générative recourent déjà à leurs propres outils sur leur lieu de travail. Il est important de comprendre que les technologies d’IA sont soumises aux mêmes réglementations que les autres processus de traitement des données, en particulier lorsqu’il s’agit de données à caractère personnel. Cela souligne la nécessité pour les entreprises de renforcer leurs départements informatiques et de s’assurer qu’elles fournissent à leur personnel des outils d’IA générative autorisés, c’est-à-dire des outils gérés, conformes et sécurisés.
Pourquoi sommes-nous négligents dans notre utilisation des outils d’IA générative?
Pourquoi de nombreuses personnes utilisent-elles divers outils d’IA générative et ne semblent pas conscientes des dangers? Des facteurs tels que des mesures de commercialisation ciblées, l’indisponibilité d’outils adaptés dans les entreprises et la méconnaissance de thèmes tels que la protection des données, la conformité et l’intelligence artificielle, conduisent à une utilisation négligente de la technologie, et en particulier de l’IA générative. La pression de la performance et la tentation de gagner rapidement en efficacité accélèrent l’utilisation de l’IA fantôme. Cela vaut notamment en l’absence de directives d’utilisation internes claires ou d’outils d’IA officiels. Deux autres aspects jouent un rôle important dans l’utilisation du Shadow IA: la facilité d’accès et l’apparente empathie de l’IA.
Accès facile et gratuit: les outils d’IA générative sont faciles d’accès sur le web, semblent ne rien coûter et sont extrêmement conviviaux. Bref, ils sont très pratiques. En effet, il est possible d’y saisir rapidement une question et les réponses sont générées tout aussi immédiatement, ce qui conduit à de petites victoires qui nous accompagnent tout au long de notre quotidien professionnel. Dans ces moments-là, on pense avant tout à l’efficacité qui en résulte, et non à la protection des données.
L’IA, une assistante amicale et empathique: les outils d’IA générative donnent l’impression d’être des assistants patients, extrêmement amicaux et empathiques, dans un contexte parfois stressant de travail au bureau. Ses réussites rapides et l’expérience utilisateur positive renforcent la relation parasociale et la confiance dans les outils d’IA générative. On a alors le sentiment que nos interactions avec eux resteront sans conséquence. Cette hypothèse conduit à des prises de risque considérables, en particulier dans un contexte commercial.
Autoriser les outils d’IA générative dans les entreprises suisses
Le Shadow AI ne peut pas être endigué uniquement par des mesures techniques. Même les outils d’IA générative autorisés et sécurisés ne déploient leurs avantages que s’ils sont intégrés dans un cadre clairement défini. Pour les entreprises, cela signifie qu’il ne faut pas seulement se préoccuper de l’IA utilisée, mais aussi de la manière dont celle-ci peut être utilisée. Une approche basée sur trois lignes directrices centrales a fait ses preuves:
- Proposer aux collaborateur·trice·s des outils d’IA générative sécurisés
Le personnel a besoin d’une alternative attrayante et conforme aux services d’IA générative publics. - Définir des règles claires
Quelles informations peuvent être traitées à l’aide de l’IA et lesquelles doivent être gardées confidentielles? - Accompagner la mise en œuvre
La formation, la sensibilisation et une communication claire réduisent le Shadow AI plus efficacement que de simples interdictions.
La clé d’une solution conforme à la protection des données consiste à proposer au personnel une IA qui intègre des fonctions de sécurité et de conformité. Celle-ci doit offrir des normes élevées de protection des données et pouvoir être contrôlée par le service informatique, qu’il soit interne ou externe, lorsqu’elle est utilisée correctement, ce qui garantit le respect des politiques de l’entreprise en matière de sécurité des données et de conformité.
Utilisation du Shadow AI dans les grandes entreprises
Pertinence réglementaire
Le Shadow AI augmente le risque de violations de la conformité et de la protection des données, en particulier dans le contexte de la réglementation internationale (p. ex. règlement «AI Act») et des modèles commerciaux transfrontaliers.
Nécessité d’une gouvernance contraignante en matière d’IA
Des rôles, des responsabilités et des directives claires à l’échelle de l’entreprise (p. ex. AI Acceptable Use Policies) sont indispensables pour utiliser l’IA de manière contrôlée et évolutive.
Recourir au contrôle technique à titre complémentaire
Les outils d’IA générative autorisés doivent être complétés par des mesures techniques de protection et de surveillance afin de détecter et de réduire efficacement l’utilisation non autorisée de l’IA.
Contrôler au lieu d’interdire
Grâce à des indicateurs mesurables (utilisation d’outils autorisés, niveau de formation, réduction des services d’IA externes), le Shadow AI peut être géré activement et amélioré en permanence.
Outils d’IA générative adaptés aux entreprises
Microsoft a identifié ce défi et propose deux solutions: Microsoft 365 Copilot Chat et Microsoft 365 Copilot, qui est davantage intégré aux données de l’entreprise et à l’univers Microsoft 365. Les deux variantes sont accessibles aux clients commerciaux disposant d’un abonnement Microsoft 365. Copilot Chat peut même être utilisé sans aucun coût supplémentaire. Les deux options offrent au service informatique interne un contrôle complet sur les données de l’entreprise et réduisent les risques de Shadow AI.
L’outil d’IA générative adapté dépend de l’utilisation prévue. Pour les applications classiques telles que le brainstorming, la formulation de textes bruts ou la recherche sur un thème, un outil basé sur le web tel que Copilot Chat suffit. En revanche, si les collaborateur·trice·s doivent pouvoir accéder aux données de l’entreprise (e-mails, chats Teams, documents, etc.), une solution complète telle que Copilot en version payante est nécessaire.
Si, en revanche, vous souhaitez consulter vos documents internes – et éventuellement confidentiels – afin d’aider vos collaborateur·trice·s au quotidien, vous pouvez utiliser des assistants tels que le Swiss AI Assistant de Swisscom. Il permet de parcourir des manuels, des directives, des instructions et autres dans un langage naturel et différent et de répondre ainsi aux questions du quotidien professionnel.
Ce à quoi vous devez faire attention lors de l’introduction d’outils d’IA générative
Les avantages des outils d’IA générative se déploient de manière optimale si leur introduction n’est pas réduite à une implémentation purement technique. Il s’agit plutôt de combler l’écart entre le potentiel technologique et l’utilisation effective, le mot-clé étant le change management. Les entreprises y parviennent lorsqu’elles accompagnent et soutiennent activement leur personnel selon les trois lignes directrices centrales lors de l’introduction des outils et de leur utilisation.
Cela comprend la sensibilisation à la sécurité des données et à la conformité ainsi que des formations ciblées sur l’utilisation pratique des outils d’IA générative. De telles mesures sont nécessaires pour exploiter pleinement le potentiel technologique et s’assurer que le personnel utilise l’IA générative de manière rentable et responsable et sorte du Shadow AI.
Für KMU: Ihre nächsten Schritte
Swisscom unterstützt Ihr KMU mit Angeboten und Dienstleistungen rund um modernes Arbeiten.
➔ Erfahren Sie mehr über unsere modernen Arbeitsplatzlösungen mit Microsoft 365 und Copilot
➔ Mit der modularen KMU IT Solution können Sie sich ums Geschäft kümmern und die IT uns überlassen
➔ Lesen Sie, wie Sie ein Digitalisierungsprojekt mit Microsoft-Technologien strategisch angehen können
Livre blanc: réglementation de l’IA et gouvernance de l’IA
L’intelligence artificielle s’accompagne de nouveaux défis juridiques et éthiques. Une compréhension claire des dispositions en vigueur est essentielle pour une gestion conforme. Notre livre blanc vous donne un aperçu des réglementations actuelles en matière d’IA en Suisse et dans l’UE, met en évidence leur pertinence pour les entreprises et les autorités en Suisse et illustre les avantages d’une gouvernance efficace de l’IA en prenant l’exemple de Swisscom.