
Comprendre et Mettre en Œuvre le Nouveau Code de Pratique du Royaume-Uni pour la Cybersécurité de l’IA : Un Guide Pratique
Le Code de pratique pour la cybersécurité de l’IA récemment publié par le gouvernement britannique marque une étape importante dans la réponse aux défis uniques de sécurité posés par les systèmes d’intelligence artificielle. À mesure que les organisations intègrent de plus en plus l’IA dans leurs opérations, comprendre et mettre en œuvre ce Code de pratique est devenu crucial pour maintenir des postures de cybersécurité robustes et garantir la conformité avec les normes émergentes.
Le Code de pratique pour la cybersécurité de l’IA du Royaume-Uni, publié en janvier 2025, représente un cadre conçu pour répondre aux défis de sécurité distincts présentés par les systèmes d’IA. Avec un taux d’approbation écrasant de 80 % des répondants à l’appel à contributions du Département des sciences, de l’innovation et de la technologie, ce code volontaire établit des exigences de sécurité de base qui informeront les futures normes de l’Institut européen des normes de télécommunication (ETSI).
Pour les professionnels de l’informatique, des risques et de la conformité, ce cadre fournit des conseils essentiels pour sécuriser les systèmes d’IA tout au long de leur cycle de vie, de la conception à la mise hors service. L’approche du Code reconnaît l’interaction complexe entre les mesures traditionnelles de cybersécurité et les défis uniques présentés par les technologies de l’IA.
Dans cet article, nous allons explorer ce nouveau cadre et fournir des étapes concrètes pour aider votre organisation à adhérer aux directives du cadre afin de garantir que vos données sensibles sont protégées contre l’ingestion par l’IA.
Vous pensez que votre organisation est sécurisée. Mais pouvez-vous le vérifier?
Principaux éléments du Code de pratique
Le Code de pratique comprend treize principes fondamentaux qui couvrent l’ensemble du cycle de vie des systèmes d’IA. Ces principes forment un cadre qui aborde à la fois les préoccupations traditionnelles en matière de cybersécurité et les défis spécifiques à l’IA. Examinons ces éléments clés en détail.
Principes de sensibilisation à la sécurité et de conception
Le Code commence par souligner l’importance de la sensibilisation à la sécurité de l’IA au sein des organisations. Il impose des programmes de formation réguliers spécifiquement adaptés aux systèmes d’IA, exigeant des organisations qu’elles maintiennent une connaissance à jour des menaces et vulnérabilités émergentes. Cette base de sensibilisation soutient l’exigence ultérieure du Code pour des approches de sécurité dès la conception, où les organisations doivent considérer la sécurité aux côtés de la fonctionnalité et de la performance dès les premières étapes du développement des systèmes d’IA.
Évaluation des menaces et gestion des risques
Au cœur du Code se trouve l’exigence d’une évaluation continue des menaces et d’une gestion des risques. Les organisations doivent mettre en œuvre une modélisation des menaces qui aborde spécifiquement les attaques liées à l’IA, y compris l’empoisonnement des données, l’inversion de modèle et l’inférence d’appartenance. Le Code souligne que les approches traditionnelles de gestion des risques doivent être adaptées pour tenir compte des vulnérabilités et vecteurs d’attaque spécifiques à l’IA.
Supervision humaine et responsabilité
Reconnaissant les défis uniques de la gouvernance des systèmes d’IA, le Code établit des exigences claires pour la supervision humaine. Les organisations doivent mettre en œuvre des mesures techniques permettant une supervision humaine significative des systèmes d’IA, garantissant que les résultats peuvent être évalués et vérifiés. Cela inclut de rendre les sorties de modèle interprétables et d’établir des lignes de responsabilité claires pour les décisions du système.
Gestion des actifs et sécurité de l’infrastructure
Le Code impose des pratiques rigoureuses de gestion des actifs, exigeant des organisations qu’elles maintiennent des inventaires complets des actifs liés à l’IA, y compris les modèles, les données d’entraînement et l’infrastructure associée. Il s’étend à la sécurité de l’infrastructure, exigeant des contrôles spécifiques pour les API, les environnements de développement et les pipelines d’entraînement. Cette section met particulièrement l’accent sur la nécessité de contrôles d’accès sécurisés et de séparation des environnements.
Sécurité de la chaîne d’approvisionnement et documentation
Reconnaissant la complexité du développement des systèmes d’IA, le Code inclut des exigences spécifiques pour la sécurité de la chaîne d’approvisionnement. Les organisations doivent mettre en œuvre des processus sécurisés de chaîne d’approvisionnement logicielle et maintenir une documentation détaillée des composants de modèle, des sources de données d’entraînement et des changements de système. Cela inclut des exigences pour la vérification cryptographique des composants de modèle et des pistes d’audit complètes.
Contrôles de test et de déploiement
Le Code établit des exigences robustes pour les tests et l’évaluation, imposant des évaluations de sécurité avant le déploiement du système. Les organisations doivent effectuer des tests de sécurité indépendants et évaluer les vulnérabilités potentielles dans les sorties de modèle. Ces exigences s’étendent aux pratiques de déploiement, où les organisations doivent fournir des conseils clairs aux utilisateurs finaux et maintenir une communication transparente sur les capacités et les limitations du système.
Exigences de surveillance et de maintenance
La surveillance continue des systèmes forme un composant crucial du Code, exigeant des organisations qu’elles suivent le comportement du système, enregistrent les activités et analysent les modèles de performance. Cela inclut la surveillance des anomalies qui pourraient indiquer des violations de sécurité ou des changements de comportement inattendus. Le Code impose également des mises à jour de sécurité régulières et des processus de gestion des correctifs spécifiques aux systèmes d’IA.
Considérations de fin de vie
Le dernier composant aborde la mise hors service sécurisée des systèmes, exigeant des organisations qu’elles mettent en œuvre des procédures appropriées de disposition des données et des modèles. Cela inclut des exigences spécifiques pour le transfert de propriété des données d’entraînement et des modèles, garantissant que les considérations de sécurité s’étendent au-delà de la vie opérationnelle des systèmes d’IA.
À travers ces composants, le Code établit un cadre qui reconnaît les défis uniques de sécurité des systèmes d’IA tout en fournissant des conseils pratiques pour la mise en œuvre. Chaque principe s’appuie sur des pratiques de cybersécurité établies tout en introduisant des exigences spécifiques nécessaires pour aborder les caractéristiques distinctes des technologies de l’IA.
Points Clés
-
Cadre pour la sécurité de l’IA
Le Code de pratique pour la cybersécurité de l’IA du Royaume-Uni établit un cadre détaillé abordant les défis de sécurité spécifiques à l’IA tout au long du cycle de vie du système. Il fournit des conseils essentiels de la conception sécurisée à la mise hors service, en mettant l’accent sur la sécurité dès la conception et la gestion continue des risques.
-
Vulnérabilités uniques de l’IA et considérations opérationnelles
Le Code cible les vulnérabilités uniques aux systèmes d’IA, telles que l’empoisonnement des données, l’obfuscation des modèles et les attaques d’injection indirecte de prompts. Ces défis soulignent l’insuffisance des mesures de sécurité traditionnelles dans le contexte des technologies de l’IA, nécessitant des approches adaptées et des rôles pour divers acteurs de l’écosystème de l’IA.
-
Défis de mise en œuvre
Les organisations font face à des défis de mise en œuvre complexes, nécessitant une allocation significative de ressources, une coordination des parties prenantes et une surveillance continue. Établir des environnements de développement sécurisés, maintenir une documentation détaillée et assurer l’alignement des parties prenantes sont essentiels pour une conformité efficace.
-
Actions essentielles pour la conformité
Les actions clés pour la conformité incluent la mise en œuvre de formations complètes sur la sécurité de l’IA, le développement de cadres de gestion des risques spécifiques à l’IA, le maintien d’une documentation détaillée et la surveillance continue du système. Ces activités sont cruciales pour s’adapter aux menaces émergentes et garantir l’intégrité du système.
-
Implications futures et meilleures pratiques
Bien que le Code soit actuellement volontaire, il devrait influencer les futures normes obligatoires, représentant les meilleures pratiques en matière de sécurité de l’IA. Les organisations sont encouragées à commencer leur parcours de conformité dès maintenant pour améliorer la sécurité, l’efficacité opérationnelle et réduire l’exposition aux risques, en utilisant des outils comme le Kiteworks AI Data Gateway pour soutenir l’adhésion aux exigences du Code.
Comprendre le Code de pratique et ses objectifs
Le Code de pratique cible spécifiquement les systèmes d’IA, y compris ceux intégrant des réseaux neuronaux profonds et l’IA générative. Contrairement aux cadres de sécurité logicielle traditionnels, ce code aborde les vulnérabilités uniques à l’IA et les considérations opérationnelles à travers cinq phases clés du cycle de vie : conception sécurisée, développement, déploiement, maintenance et fin de vie.
Ce qui distingue ce cadre, c’est sa reconnaissance des défis de sécurité distincts de l’IA. Les mesures de sécurité logicielle traditionnelles, bien que nécessaires, s’avèrent insuffisantes pour protéger contre les menaces spécifiques à l’IA telles que l’empoisonnement des données, l’obfuscation des modèles et les attaques d’injection indirecte de prompts. Le Code établit une hiérarchie claire des responsabilités, définissant des rôles spécifiques pour divers acteurs au sein de l’écosystème de l’IA.
Le cadre reconnaît les développeurs comme des organisations créant ou adaptant des modèles et systèmes d’IA, tandis que les opérateurs de système prennent la responsabilité du déploiement et de la gestion continue. Les dépositaires de données jouent un rôle crucial dans le contrôle des autorisations de données et le maintien de l’intégrité, travaillant aux côtés des utilisateurs finaux qui interagissent activement avec ces systèmes. Le Code reconnaît également les entités affectées – ces individus et systèmes impactés indirectement par les décisions de l’IA – assurant une approche complète de la sécurité et de la responsabilité.
Le besoin croissant de normes de sécurité pour l’IA
Le moment du Code de pratique ne pourrait être plus crucial. À mesure que les organisations adoptent rapidement les technologies d’IA, la surface d’attaque et l’impact potentiel des violations de sécurité se sont considérablement élargis. Les systèmes d’IA présentent des défis de sécurité uniques que les cadres de cybersécurité traditionnels ne traitent pas adéquatement.
L’empoisonnement des données représente l’une des menaces les plus insidieuses pour l’intégrité des systèmes d’IA. Les adversaires peuvent manipuler les données d’entraînement de manière à compromettre l’intégrité du modèle, conduisant potentiellement à des résultats biaisés ou dangereux. Le défi réside non seulement dans la prévention de telles attaques, mais aussi dans leur détection, car les effets peuvent ne devenir apparents qu’après le déploiement.
L’obfuscation des modèles présente un autre risque significatif. Les acteurs malveillants peuvent exploiter les architectures de modèle pour cacher des fonctionnalités non autorisées ou des portes dérobées, créant des vulnérabilités de sécurité que les protocoles de test traditionnels pourraient manquer. Ce risque devient particulièrement aigu à mesure que les modèles deviennent plus complexes et que leurs processus de prise de décision deviennent plus opaques.
L’essor des grands modèles de langage et de l’IA générative a introduit de nouvelles vulnérabilités à travers les attaques d’injection indirecte de prompts. Ces attaques sophistiquées peuvent manipuler les systèmes d’IA pour produire des résultats non autorisés ou nuisibles, contournant les contrôles de sécurité traditionnels et exploitant la flexibilité même qui rend ces systèmes précieux.
Défis de mise en œuvre
Les organisations mettant en œuvre le Code de pratique font face à plusieurs défis interconnectés qui nécessitent une attention et une planification stratégiques. Les exigences en matière d’infrastructure technique demandent une attention significative, car les organisations doivent établir des environnements de développement sécurisés tout en mettant en œuvre des systèmes de surveillance complets. Ces systèmes doivent maintenir des pipelines de données sécurisés tout en soutenant des cadres de test robustes tout au long du cycle de vie de l’IA.
La coordination des parties prenantes présente une autre couche de complexité. Les organisations doivent aligner les responsabilités entre différents départements tout en s’assurant que les canaux de communication restent ouverts et efficaces. La gestion des relations avec les tiers devient particulièrement cruciale, tout comme la coordination des réponses de sécurité à travers les frontières organisationnelles.
L’allocation des ressources nécessite un équilibre soigneux. Les organisations doivent investir dans la formation et le perfectionnement du personnel tout en allouant également des ressources aux outils et plateformes de sécurité. Le maintien des systèmes de documentation et le soutien à la surveillance continue et aux mises à jour exigent un engagement et un investissement soutenus.
Actions essentielles pour la conformité au Code de pratique
La mise en œuvre réussie du Code de pratique exige que les organisations prennent plusieurs actions critiques. Tout d’abord, les organisations doivent établir des programmes de formation complets sur la sécurité de l’IA. Le Code impose une formation régulière en sécurité qui s’adapte aux rôles spécifiques au sein de l’organisation. Cette formation doit évoluer continuellement à mesure que de nouvelles menaces émergent, garantissant que le personnel maintienne une connaissance à jour des défis de sécurité spécifiques à l’IA et des stratégies d’atténuation.
La gestion des risques forme un autre pilier de la conformité. Les organisations doivent développer et maintenir des cadres de modélisation des menaces systématiques qui abordent spécifiquement les vulnérabilités liées à l’IA. Cela implique des évaluations régulières des risques qui prennent en compte non seulement les menaces traditionnelles de cybersécurité, mais aussi les défis spécifiques à l’IA tels que la manipulation des modèles et l’empoisonnement des données. La documentation des décisions de risque et des stratégies d’atténuation devient cruciale pour maintenir la conformité et démontrer la diligence raisonnable.
La protection des actifs nécessite une approche sophistiquée sous le Code de pratique. Les organisations doivent maintenir des inventaires complets de leurs actifs d’IA, y compris les modèles, les données d’entraînement et l’infrastructure associée. Le contrôle des versions devient particulièrement critique dans les systèmes d’IA, où les changements apportés aux modèles ou aux données d’entraînement peuvent avoir des implications considérables pour la sécurité et la performance du système. Les contrôles d’accès doivent être granulaires et sensibles au contexte, s’adaptant aux exigences spécifiques du développement et du déploiement des systèmes d’IA.
La documentation émerge comme un composant critique de la conformité. Les organisations doivent maintenir des enregistrements détaillés de leur architecture système, de leurs contrôles de sécurité et de leurs procédures opérationnelles. Cette documentation devrait inclure des pistes d’audit claires qui suivent les changements apportés aux modèles et aux systèmes, des journaux d’incidents complets et des enregistrements détaillés des évaluations de sécurité et des efforts de remédiation.
La surveillance représente peut-être l’exigence la plus dynamique du Code. Les organisations doivent mettre en œuvre une surveillance continue du comportement de leurs systèmes d’IA, suivre les indicateurs de performance et surveiller les signes de compromission ou de manipulation. Cette surveillance devrait s’étendre au-delà des indicateurs de sécurité traditionnels pour inclure des indicateurs spécifiques à l’IA tels que la dérive du modèle et les modèles de sortie inattendus.
Feuille de route de mise en œuvre
Les organisations devraient aborder la conformité au Code de pratique comme un parcours par étapes plutôt qu’un projet unique. La phase d’évaluation nécessite généralement un à deux mois, au cours desquels les organisations évaluent en profondeur leurs systèmes d’IA actuels et leurs contrôles de sécurité. Cette évaluation devrait identifier les lacunes dans les mesures de sécurité actuelles et documenter les processus existants, formant la base de la planification ultérieure.
La phase de planification, qui dure généralement de deux à trois mois, se concentre sur le développement d’une stratégie de mise en œuvre complète. Cela inclut l’allocation des ressources, le développement de programmes de formation et l’établissement de systèmes de surveillance. Les organisations devraient accorder une attention particulière à l’intégration des nouveaux contrôles de sécurité avec l’infrastructure existante pendant cette phase.
La mise en œuvre représente la phase la plus intensive, nécessitant généralement de trois à six mois. Pendant ce temps, les organisations déploient des contrôles de sécurité, mènent des programmes de formation et établissent des systèmes de documentation. L’accent devrait rester sur le maintien de la continuité opérationnelle tout en renforçant les mesures de sécurité.
La révision et l’optimisation se poursuivent indéfiniment, car les organisations doivent régulièrement évaluer leur posture de sécurité et mettre à jour leurs contrôles en réponse aux menaces émergentes. Ce processus continu inclut des évaluations régulières de la sécurité, des mises à jour de politiques et une formation continue du personnel.
Kiteworks aide les organisations à adhérer au nouveau Code de pratique du Royaume-Uni avec une passerelle de données IA
Le Code de pratique pour la cybersécurité de l’IA du Royaume-Uni représente une avancée cruciale pour sécuriser les systèmes d’IA. Bien que des défis de mise en œuvre existent, les organisations qui adoptent une approche systématique de la conformité seront mieux positionnées pour protéger leurs actifs d’IA et maintenir la conformité réglementaire.
Le succès nécessite une approche qui combine des contrôles techniques, des processus robustes et un engagement continu envers la sécurité. En utilisant des outils comme la passerelle de données IA de Kiteworks, les organisations peuvent accélérer leur parcours de conformité tout en garantissant la sécurité et l’intégrité de leurs systèmes d’IA.
Les organisations devraient commencer leur parcours de conformité dès maintenant, même si le Code est volontaire, car il informera probablement les futures normes obligatoires et représente les meilleures pratiques actuelles en matière de sécurité de l’IA. L’investissement dans la conformité aujourd’hui portera ses fruits en termes de sécurité renforcée, d’efficacité opérationnelle améliorée et de réduction de l’exposition aux risques demain.
La passerelle de données IA de Kiteworks fournit des fonctions essentielles qui s’alignent parfaitement avec les exigences du Code. Grâce à sa fonctionnalité d’accès sécurisé aux données IA, la plateforme met en œuvre une architecture de zéro confiance qui soutient directement le Principe 6 du Code. Cette architecture garantit que chaque demande d’accès aux données est vérifiée, quelle que soit sa source, tout en maintenant les contrôles d’accès stricts requis par le Principe 5.
Les fonctions de gouvernance et de conformité intégrées à la plateforme Kiteworks répondent à plusieurs exigences critiques du Code. Le système applique automatiquement les politiques de sécurité tout en maintenant des journaux d’audit détaillés qui satisfont aux exigences de documentation du Principe 12. Les capacités de surveillance en temps réel permettent aux organisations de suivre et de répondre rapidement aux incidents de sécurité potentiels.
La protection des données reçoit un traitement complet grâce au chiffrement de bout en bout et au suivi sophistiqué des accès. La plateforme maintient des enregistrements détaillés de tous les accès et transmissions de données, permettant aux organisations de démontrer la conformité aux exigences de protection des données tout en maintenant l’efficacité opérationnelle.
Le support de la plateforme pour la génération augmentée par récupération (RAG) s’avère particulièrement précieux pour les organisations mettant en œuvre des systèmes d’IA. En permettant une récupération sécurisée des données tout en maintenant des contrôles d’accès stricts, Kiteworks permet aux organisations d’améliorer la précision de leurs modèles sans compromettre la sécurité. Cette capacité devient de plus en plus importante à mesure que les organisations cherchent à améliorer les performances de l’IA tout en maintenant la conformité avec le Code.
Pour plus d’informations sur la mise en œuvre du Code de pratique ou pour discuter de la manière dont Kiteworks peut soutenir votre parcours de conformité, contactez notre équipe d’experts en sécurité.
Avec le Réseau de contenu privé de Kiteworks, les organisations protègent leur contenu sensible des risques liés à l’IA avec une approche zéro confiance pour l’IA générative. La passerelle de données IA de Kiteworks offre une solution transparente pour un accès sécurisé aux données et une gouvernance efficace des données afin de minimiser les risques de violation de données et de démontrer la conformité réglementaire. Kiteworks fournit des contrôles de zéro confiance définis par le contenu, avec un accès au moindre privilège défini au niveau du contenu et des fonctions de GDN de nouvelle génération qui bloquent les téléchargements de l’ingestion par l’IA.
Avec un accent sur l’accès sécurisé aux données et une gouvernance stricte, Kiteworks vous permet de tirer parti des technologies de l’IA tout en maintenant l’intégrité et la confidentialité de vos actifs de données.
Pour en savoir plus sur Kiteworks et protéger vos données sensibles de l’ingestion par l’IA, réservez une démo personnalisée dès aujourd’hui.
Ressources supplémentaires
- Article de blog Kiteworks : Renforcer les avancées de l’IA avec la sécurité des données
- Communiqué de presse Kiteworks nommé membre fondateur du consortium de l’Institut de sécurité de l’intelligence artificielle du NIST
- Article de blog L’ordonnance exécutive américaine sur l’intelligence artificielle exige un développement sûr, sécurisé et digne de confiance
- Article de blog Une approche pour renforcer la sécurité et la confidentialité des données dans les systèmes d’IA
- Article de blog Construire la confiance dans l’IA générative avec une approche zéro confiance