Pourquoi la provenance des modèles compte en IA de défense
Les entrepreneurs en défense échouent aux évaluations de sécurité quand les modèles d'IA manquent de provenance claire. Les exigences de souveraineté canadienne demandent des origines de modèles traçables.
La provenance des modèles—la chaîne complète de développement et de propriété d'un système d'IA—est devenue un facteur critique dans l'approvisionnement de défense canadien. La Directive du Conseil du Trésor 2-20-1 exige que les ministères fédéraux évaluent les risques d'influence étrangère dans les acquisitions technologiques, faisant des origines de modèles peu claires un point d'échec d'approvisionnement. Les entrepreneurs en défense utilisant des plateformes d'IA sans provenance canadienne transparente font face à des rejets d'évaluation de sécurité, des retards de contrat et une responsabilité potentielle sous la Loi sur la protection de l'information.
Le défi va au-delà d'un simple étiquetage de pays d'origine. Les modèles d'IA modernes impliquent des chaînes d'approvisionnement complexes : données d'entraînement de multiples juridictions, équipes de développement à travers les continents, et structures corporatives avec investissement étranger ou sociétés mères.
Points d'échec communs d'évaluation de sécurité
Les entrepreneurs en défense échouent constamment aux évaluations de sécurité à trois points de contrôle spécifiques. Comprendre ces modes d'échec aide à expliquer pourquoi la documentation de provenance des modèles est devenue non négociable.
L'exposition à la juridiction américaine représente le point d'échec le plus fréquent. Le CLOUD Act américain permet aux autorités américaines de forcer la divulgation de données par les entreprises américaines, peu importe où les données sont stockées mondialement. Cela crée une non-conformité automatique avec la section 2.2.3 de la Directive du Conseil du Trésor 2-20-1, qui exige l'évaluation des risques d'accès par gouvernement étranger.
Un entrepreneur aérospatial canadien majeur a récemment fait face à un retard d'approvisionnement de six mois quand la société mère américaine de leur plateforme d'IA n'a pu fournir la documentation d'exemption CLOUD Act. Le contrat exigeait une mitigation explicite des risques d'influence étrangère—quelque chose d'impossible avec une propriété corporative américaine.
L'origine de modèle chinoise déclenche un rejet immédiat d'évaluation de sécurité sous la section 4.2.1 de la Directive du Conseil du Trésor 2-10-3. Plusieurs plateformes d'IA commerciales utilisent des modèles de fondation avec données d'entraînement chinoises ou composantes de développement. Même l'implication chinoise indirecte—comme des données d'entraînement provenant du contenu internet chinois—crée des complications d'évaluation.
« La documentation de provenance des modèles doit tracer non seulement l'emplacement final d'entraînement, mais chaque composante dans la chaîne de développement, incluant les sources de données, l'infrastructure d'entraînement et les structures de propriété corporative, pour répondre aux exigences de la section 2.1.3 de la Directive du Conseil du Trésor 2-20-1 pour l'évaluation des risques d'influence étrangère. »
L'ambiguïté de traitement de données fait échouer les évaluations sous PIPEDA Principe 4.7 (Mesures de sécurité) et la Directive du Conseil du Trésor 2-20-1. Les entrepreneurs en défense doivent démontrer que l'information sensible demeure dans la juridiction légale canadienne pendant tout le cycle de vie d'interaction IA. Les politiques de confidentialité vagues ou le traitement de données multi-juridictionnel créent des échecs de conformité automatiques.
Exigences de souveraineté canadienne en pratique
Le Centre canadien pour la cybersécurité (CCC) publie des directives spécifiques sur l'évaluation des systèmes d'IA sous ITSM.00.099. Les organisations de défense doivent documenter trois éléments de souveraineté de base : résidence des données, contrôle corporatif et juridiction légale.
La résidence des données exige que tout traitement d'IA se fasse dans les frontières canadiennes sous la section 2.1.4 de la Directive du Conseil du Trésor 2-20-1, qui interdit explicitement le traitement de données étrangères pour l'information gouvernementale sensible. Cela inclut non seulement l'inférence finale du modèle, mais le stockage de données d'entraînement, l'ajustement fin du modèle et les journaux de conversation.
Le ministère de la Défense nationale a fait face à des violations de conformité en 2023 quand le traitement de données européennes de leur entrepreneur IA a été découvert lors d'un audit de routine. La violation a déclenché une évaluation de sécurité sous la section 12.2.1 de la Politique de sécurité du gouvernement, résultant en suspension de contrat en attente de remédiation.
L'examen du contrôle corporatif s'étend au-delà de la propriété de surface. Les directives du CCC exigent l'évaluation des sociétés mères, investisseurs majeurs, composition du conseil et structures de contrôle opérationnel. L'investissement étranger au-dessus de 20 % déclenche un examen approfondi sous la section 3.2 de la Directive du Conseil du Trésor 2-20-1.
La vérification de juridiction légale assure que les tribunaux canadiens maintiennent autorité sur les disputes de données et demandes d'accès. Cette exigence élimine les plateformes d'IA sujettes aux cadres légaux étrangers, incluant le CLOUD Act américain, l'Article 7 de la Loi de renseignement national chinoise et exigences de divulgation étrangères similaires.
« Les organisations de défense canadiennes ne peuvent accepter la juridiction légale étrangère sur les interactions IA sensibles sous la section 2.2.4 de la Directive du Conseil du Trésor 2-20-1, peu importe les engagements contractuels de confidentialité ou méthodes de chiffrement de données, car l'accès légal étranger surpasse les accords commerciaux. »
Développement de modèles traçables
L'architecture d'IA souveraine répond aux exigences de provenance par des chaînes de développement canadiennes complètes. Cela signifie données d'entraînement canadiennes, équipes de développement canadiennes, infrastructure canadienne et propriété corporative canadienne pendant tout le cycle de vie du modèle.
La souveraineté des données d'entraînement assure que les modèles de fondation utilisent des sources canadiennes et alliées vérifiables. Les modèles Ossington 3 et Tofino 2.5 d'Augure démontrent cette approche—données d'entraînement provenant exclusivement de bases de données légales canadiennes, publications gouvernementales et contenu allié vérifié. Aucun grattage internet chinois ou jeux de données multilingues ambigus.
La transparence de développement fournit des processus de création de modèles vérifiables sous la section 6.1 de la Norme de sécurité du personnel. Les entrepreneurs en défense canadiens ont besoin de documentation montrant où les modèles ont été entraînés, qui a supervisé le processus et quels contrôles de qualité ont été implémentés. Cette documentation supporte les exigences de cotes de sécurité pour le personnel gérant le développement d'IA classifié.
L'approvisionnement d'IA de l'Agence du revenu du Canada en 2024 exigeait 47 points de documentation de provenance spécifiques. Le vendeur gagnant a fourni une transparence complète de chaîne de développement : sources de données d'entraînement canadiennes, cotes de sécurité de l'équipe de développement canadienne et certifications d'infrastructure canadienne sous les Normes de cybersécurité du CST.
La souveraineté d'infrastructure élimine les dépendances de serveurs étrangers. Même les modèles entraînés au Canada échouent les évaluations de sécurité s'ils roulent sur infrastructure infonuagique étrangère. La section 4.1.2 de la Directive du Conseil du Trésor 2-20-1 exige l'évaluation des risques d'infrastructure étrangère, faisant du déploiement infonuagique américain une barrière de conformité.
Chemin d'approvisionnement de moindre résistance
Les entrepreneurs en défense font face à un choix : mitigation complexe des risques de vendeurs étrangers ou déploiement d'architecture souveraine. La différence de fardeau de conformité est significative.
La mitigation de vendeur étranger exige une documentation extensive sous la Norme du Conseil du Trésor sur la catégorisation de sécurité, révisions légales et surveillance continue. Les entrepreneurs doivent fournir des lettres d'exemption CLOUD Act, divulgation d'investissement étranger sous la section 25.2 de la Loi sur Investissement Canada, audits de traitement de données et certifications de conformité régulières. Le Conseil du Trésor estime 240 heures d'extension moyenne de chronologie d'approvisionnement pour l'évaluation de vendeur d'IA étranger.
L'architecture souveraine rationalise l'approvisionnement par design de conformité inhérent. La résidence de données canadienne, propriété corporative canadienne et juridiction légale canadienne éliminent les points d'échec d'évaluation de sécurité primaires. L'architecture de plateforme d'Augure répond spécifiquement aux exigences du Conseil du Trésor par contrôles de souveraineté intégrés et déploiement d'infrastructure canadienne seulement.
Le ministère des Travaux publics rapporte des chronologies d'approvisionnement 65 % plus rapides pour les vendeurs de technologie souveraine comparé aux alternatives étrangères exigeant une documentation extensive de mitigation des risques sous la section 10.7.27 de la Politique de passation de marchés du Conseil du Trésor.
L'évitement de pénalités représente un autre facteur significatif. La section 4 de la Loi sur la protection de l'information porte des pénalités jusqu'à 14 ans d'emprisonnement pour manipulation non autorisée d'information. Les entrepreneurs en défense utilisant des plateformes d'IA avec provenance peu claire font face à une responsabilité potentielle si l'accès étranger survient. L'architecture souveraine élimine entièrement cette exposition légale.
Pour les entrepreneurs en défense basés au Québec, la section 93 de la Loi 25 ajoute des exigences supplémentaires pour les Évaluations d'impact sur la vie privée sur les systèmes d'IA traitant des données personnelles, avec pénalités atteignant 25 M $ sous la section 91 pour violations sérieuses.
L'approvisionnement d'IA de défense demande de plus en plus une documentation claire de provenance des modèles pour satisfaire les exigences de souveraineté canadienne. L'exposition à la juridiction étrangère, propriété corporative peu claire et traitement de données ambigu créent des échecs d'évaluation de sécurité prévisibles. Les plateformes d'IA souveraines répondent à ces exigences par des chaînes de développement canadiennes architecturalement conformes, éliminant le besoin de mitigation complexe des risques de vendeurs étrangers. Les entrepreneurs en défense cherchant l'accélération de chronologie d'approvisionnement devraient évaluer les alternatives souveraines à augureai.ca.
À propos d'Augure
Augure est une plateforme d'IA souveraine pour les organisations canadiennes réglementées. Clavardage, base de connaissances et outils de conformité — le tout sur une infrastructure canadienne.