La plateforme Kiteworks utilise une approche de confiance zéro définie par le contenu et une gestion des droits numériques pour répondre aux préoccupations croissantes concernant l'ingestion de contenu sensible dans les outils de grands modèles de langage (LLM).

Kiteworks, qui assure la confidentialité des données et la conformité pour les communications de contenu sensible grâce à son Réseau de Contenu Privé, a annoncé que la plateforme Kiteworks utilise une protection de gestion des droits numériques (DRM) de nouvelle génération pour protéger les informations critiques de propriété intellectuelle (PI) et les informations personnelles identifiables (IPI) de l’ingestion dans un nombre croissant d’outils de grands modèles de langage (LLM) basés sur l’intelligence artificielle générative.

Un récent sondage mené par Gartner a révélé que les entreprises considèrent l’intelligence artificielle générative comme leur deuxième plus grand risque, en identifiant trois aspects de risque principaux : 1) la propriété intellectuelle utilisée comme partie de l’ensemble d’entraînement et exploitée dans les résultats pour d’autres utilisateurs, 2) les informations personnelles identifiables (IPI) et d’autres données personnelles sensibles utilisées dans des outils d’IA violant les lois sur la protection des données, et 3) les acteurs malveillants utilisant des outils d’IA générative pour accélérer le développement d’attaques et d’exploitations.

Le contenu sensible à risque comprend : 1) les données d’entraînement utilisées pour former le modèle de langage IA, 2) les données de la base de connaissances – des informations confidentielles et propriétaires utilisées pour générer des réponses à partir de l’outil IA génératif LLM, et 3) les interactions confidentielles avec des chatbots dans les scénarios de support client, de vente et de marketing, où des informations personnelles identifiables (IPI) et d’autres données personnelles sont saisies, à la fois intentionnellement et involontairement, dans l’interface de discussion. De nombreuses organisations considèrent le risque comme sérieux, au point que trois quarts d’entre elles mettent actuellement en œuvre ou envisagent d’interdire ChatGPT et d’autres applications d’IA générative sur le lieu de travail ; 61 % d’entre elles indiquent que ces interdictions sont prévues à long terme, voire de manière permanente (source).

Des études récentes montrent qu’il existe un risque significatif de fuite de contenu sensible vers les outils d’IA générative LLM. Cela inclut :

  • 15 % (un chiffre en augmentation rapide) des employés publient régulièrement des données de l’entreprise dans les outils d’IA générative LLM, et un quart de ces données est considéré comme sensible. (source)
  • Pour les travailleurs utilisant des outils d’IA générative LLM, ils les utilisent en moyenne 36 fois par jour, dont 25 % des utilisations comprennent un copier-coller de données. (source)
  • Les principales catégories d’informations confidentielles saisies dans les outils d’IA générative LLM comprennent les données internes de l’entreprise (43 %), le code source (31 %), les informations personnelles identifiables (IPI) (12 %) et les données clients (9 %). (source)
  • Il existe pas moins de 30 000 projets liés à GPT sur GitHub. (source)
  • Seulement 28 % des organisations ont mis en place des processus pour atténuer les risques liés à la conformité réglementaire. (source)
  • Seulement 20 % des organisations ont mis en place des processus pour atténuer l’utilisation des informations personnelles identifiables (IPI) dans les outils d’IA générative LLM. (source)
  • Plus tôt cette année, en seulement six semaines, la quantité de données sensibles ingérées dans les outils d’IA générative LLM a augmenté de 60 %. (source)

Sans politiques et contrôles de risques basés sur le contenu en place, la fuite de contenu sensible vers les outils d’IA générative LLM peut représenter une menace sérieuse pour les organisations. En plus des cybercriminels manipulant les LLM génératifs à des fins malveillantes, les chercheurs en sécurité estiment que des attaques d’extraction de données d’entraînement pourraient récupérer avec succès des textes mot à mot, des informations personnelles identifiables (IPI) et des propriétés intellectuelles à partir des modèles d’IA générative que les cybercriminels détiennent en rançon. La perte d’IPI et d’informations de santé protégées (PHI), même involontaire, peut enfreindre des réglementations sur la protection des données telles que le RGPD, HIPAA, PIPEDA, PCI DSS et de nombreuses autres qui exigent une divulgation et une notification publiques. Cela peut entraîner des amendes et des sanctions réglementaires, une dégradation de la marque, une diminution de la productivité et une baisse des revenus.

“Les LLM d’IA générative présentent un défi urgent en matière de protection des données pour les organisations”, a déclaré Tim Freestone, CMO chez Kiteworks. “Le nombre d’employés et de sous-traitants utilisant des LLM d’IA générative explose, et cela va continuer en raison des immenses avantages concurrentiels qu’ils offrent. Et il faut se rappeler que ceux au sein de votre réseau ne représentent qu’une partie du problème ; la plupart des organisations envoient, partagent, reçoivent et stockent du contenu sensible avec des milliers de tiers.”

La bonne nouvelle, c’est que les organisations dotées de Réseaux de Contenu Privé activés par Kiteworks peuvent suivre et contrôler les informations confidentielles, telles que les secrets commerciaux, les données clients, les IPI, les PHI et les données financières, les empêchant ainsi d’être exposées aux LLM d’IA générative. Kiteworks propose des fonctionnalités basées sur les risques de politiques de contenu:

  • Faible Risque : Confiance Zéro Définie par le Contenu. Utilisez des politiques d’accès à privilèges minimaux et des contrôles pour les employés et les tiers définis en fonction de la sensibilité des actifs de contenu. Le tatouage numérique peut être appliqué pour avertir les utilisateurs qu’un contenu spécifique ne doit pas être utilisé dans les LLM d’IA générative.
  • Risque Modéré : Gestion des Droits Numériques en Lecture Seule. Utilisez Kiteworks SafeView™ pour interdire les copies locales du contenu, de sorte que les employés et les tiers ne puissent pas extraire et télécharger la copie dans un LLM d’IA générative. Une politique supplémentaire peut être définie pour expirer l’accès après une période de temps spécifiée ou après un nombre spécifié de consultations.
  • Risque Élevé : DRM de Nouvelle Génération pour la Collaboration. Exploitez un DRM de nouvelle génération en utilisant Kiteworks SafeEdit™ pour empêcher les données de quitter le centre de données et le référentiel d’une organisation tout en permettant une collaboration efficace avec les utilisateurs internes et les tiers. Kiteworks SafeEdit diffuse en continu et transmet une image vidéo modifiable aux utilisateurs.

“Les capacités de DRM de nouvelle génération de Kiteworks permettent aux entreprises de suivre et de contrôler le contenu sensible que les employés, les sous-traitants et les tiers ingèrent dans les LLM d’IA générative”, a déclaré Freestone de Kiteworks. “En utilisant nos capacités SafeView et SafeEdit, les entreprises suivent et contrôlent la manière dont les utilisateurs finaux accèdent et utilisent les données confidentielles, y compris ce qui peut et ne peut pas être ingéré dans les LLM d’IA générative. Avec Kiteworks, les entreprises qui ont adopté les LLM d’IA générative peuvent le faire en toute confiance, tandis que celles qui en ont interdit l’utilisation peuvent réévaluer leur décision, sachant que leurs données sensibles sont protégées.”

À propos de Kiteworks

Copyright © 2025 Kiteworks. Kiteworks s’est donné une mission : aider les organisations à gérer efficacement les risques liés à l’envoi, à la réception, au partage et au stockage d’informations confidentielles. La plateforme Kiteworks fournit aux clients un réseau de contenu privé qui assure la gouvernance, la conformité et la protection du contenu. La plateforme unifie, suit, contrôle et sécurise les partages de contenu sensible, à l’intérieur de l’organisation, mais aussi avec l’extérieur. Ce faisant, elle améliore considérablement la gestion des risques et assure la conformité réglementaire de toutes les communications d’informations sensibles. Basé dans la Silicon Valley, Kiteworks protège plus de 100 millions de personnes à travers plus de 35 000 entreprises et agences gouvernementales dans le monde.

Get started.

It’s easy to start ensuring regulatory compliance and effectively managing risk with Kiteworks. Join the thousands of organizations who feel confident in their content communications platform today. Select an option below.

Lancez-vous.

Avec Kiteworks, se mettre en conformité règlementaire et bien gérer les risques devient un jeu d’enfant. Rejoignez dès maintenant les milliers de professionnels qui ont confiance en leur plateforme de communication de contenu. Cliquez sur une des options ci-dessous.

Jetzt loslegen.

Mit Kiteworks ist es einfach, die Einhaltung von Vorschriften zu gewährleisten und Risiken effektiv zu managen. Schließen Sie sich den Tausenden von Unternehmen an, die sich schon heute auf ihre Content-Kommunikationsplattform verlassen können. Wählen Sie unten eine Option.

Comienza ahora.

Es fácil empezar a asegurar el cumplimiento normativo y gestionar los riesgos de manera efectiva con Kiteworks. Únete a las miles de organizaciones que confían en su plataforma de comunicación de contenidos hoy mismo. Selecciona una opción a continuación.

まずは試してみませんか?

Kiteworksを利用すれば、規制コンプライアンスの確保やリスク管理を簡単かつ効果的に始められます。すでに多くの企業に我々のコンテンツ通信プラットフォームを安心して活用してもらっています。ぜひ、以下のオプションからご相談ください。

Explore Kiteworks