← Retour aux perspectives
Industries réglementées

Risque de l'IA pharmaceutique : Ce que votre équipe de conformité doit savoir

Le secteur pharmaceutique canadien fait face à des défis uniques de conformité de l'IA. Réglementations de Santé Canada, règles de résidence des données et exigences d'intégrité des essais cliniques.

Par Augure·
red and yellow medication pill on green glass bottle

Les entreprises pharmaceutiques canadiennes font face à un réseau complexe d'exigences de conformité de l'IA qui s'étendent bien au-delà des réglementations typiques de protection de la vie privée. Le cadre d'IA évolutif de Santé Canada, les normes d'intégrité des essais cliniques sous C.05.010 du Règlement sur les aliments et drogues, et les enjeux de souveraineté des données transfrontalières créent des risques uniques pour les organisations pharmaceutiques adoptant des outils d'IA. Comprendre ces intersections réglementaires est essentiel pour les équipes de conformité naviguant l'adoption de l'IA sans compromettre l'approbation de médicaments ou la sécurité des patients.

Le paysage réglementaire de l'IA de Santé Canada

Santé Canada a publié son Document d'orientation provisoire sur l'intelligence artificielle et les instruments médicaux activés par l'apprentissage automatique en septembre 2023. Ce cadre impacte directement les entreprises pharmaceutiques développant des outils diagnostiques assistés par IA ou utilisant l'IA dans la recherche clinique sous le Règlement sur les instruments médicaux (DORS/98-282).

L'orientation établit trois catégories de risque pour les systèmes d'IA. Les outils d'IA de Classe II et III exigent un examen pré-commercialisation sous l'article 10 du Règlement sur les instruments médicaux et une surveillance post-commercialisation continue selon l'article 59. Pour les entreprises pharmaceutiques, cela signifie que les systèmes d'IA utilisés dans la conception d'essais cliniques, la stratification de patients ou la surveillance de sécurité peuvent nécessiter des soumissions réglementaires séparées au-delà de leurs demandes primaires de médicaments.

« Les systèmes d'IA qui influencent la prise de décision clinique ou les résultats de sécurité des patients tombent sous les réglementations d'instruments médicaux de Santé Canada conformément à la Loi sur les instruments médicaux, peu importe si l'entreprise pharmaceutique les considère comme des 'outils de recherche'. Cela crée des voies réglementaires doubles qui doivent être gérées simultanément avec les processus d'approbation de médicaments. »

La complexité réglementaire augmente quand les systèmes d'IA traversent plusieurs cas d'utilisation. Une plateforme d'apprentissage automatique utilisée à la fois pour la recherche interne et la surveillance de patients d'essais cliniques peut déclencher différentes voies réglementaires sous le même déploiement, nécessitant des soumissions séparées sous la Loi sur les aliments et drogues et la Loi sur les instruments médicaux.


Défis de souveraineté des données d'essais cliniques

Les données d'essais cliniques représentent la propriété intellectuelle de plus haute valeur pour les entreprises pharmaceutiques. La position de Santé Canada sur les flux de données transfrontaliers crée des contraintes spécifiques pour la sélection de plateformes d'IA sous C.05.010 du Règlement sur les aliments et drogues, qui mandate l'intégrité des données tout au long du processus d'essai clinique.

Sous les directives ICH-BPC incorporées dans les réglementations canadiennes via C.05.010, l'intégrité des données d'essais cliniques est non-négociable. Le CLOUD Act américain (18 U.S.C. §2703) permet aux autorités américaines d'accéder aux données détenues par des entreprises américaines, même lorsque stockées sur des serveurs canadiens. Pour les entreprises pharmaceutiques, cela crée un conflit direct avec les attentes de souveraineté des données de Santé Canada sous le cadre réglementaire d'essais cliniques.

Les entreprises pharmaceutiques canadiennes ont fait face à des retards réglementaires en utilisant des plateformes hébergées aux États-Unis pour l'analyse de données cliniques. En 2023, Santé Canada a demandé une documentation supplémentaire de souveraineté des données de trois soumissions pharmaceutiques majeures qui utilisaient des plateformes d'IA infonuagiques avec des entreprises mères américaines, citant des préoccupations sous les exigences d'intégrité des données C.05.010.

« Santé Canada examine de plus en plus l'infrastructure de données derrière les analyses générées par IA dans les soumissions réglementaires sous C.08.002 du Règlement sur les aliments et drogues. Les entreprises utilisant des plateformes américaines font face à des exigences de documentation supplémentaires démontrant la conformité de souveraineté des données et des retards d'approbation potentiels quand l'accès du gouvernement étranger ne peut être définitivement exclu. »

La solution nécessite une sélection de plateforme soigneuse. Les systèmes d'IA traitant des données d'essais cliniques devraient maintenir une résidence de données complètement canadienne sans droits d'accès de gouvernement étranger, assurant la conformité avec les exigences d'intégrité des données C.05.010 et les attentes de souveraineté de Santé Canada.


Conformité LPRPDE dans l'IA pharmaceutique

La Loi sur la protection des renseignements personnels et les documents électroniques crée des obligations spécifiques pour les entreprises pharmaceutiques traitant des données de patients par des systèmes d'IA sous le Principe 3 (Consentement) et le Principe 7 (Mesures de protection) de la LPRPDE. Contrairement aux contextes d'affaires généraux, l'IA pharmaceutique implique souvent des informations sensibles sur la santé nécessitant une protection renforcée sous ces principes.

L'exigence de « consentement significatif » de la LPRPDE sous le Principe 3 devient complexe quand les systèmes d'IA apprennent des données de patients au fil du temps. Les entreprises pharmaceutiques doivent s'assurer que les patients comprennent comment leurs informations seront utilisées dans les processus d'entraînement et d'inférence d'IA, le consentement étant « éclairé » tel que défini à l'article 6.1 de l'Annexe 1.

Le Commissaire à la protection de la vie privée du Canada a indiqué que les entreprises pharmaceutiques ne peuvent se fier au consentement implicite pour le traitement par IA de données sur la santé sous le Principe 3. Les exigences de consentement exprès s'appliquent à :

• Les systèmes d'IA qui analysent des données génomiques de patients • Les plateformes d'apprentissage automatique traitant l'information de participants d'essais cliniques • Les modèles prédictifs utilisant des preuves du monde réel de bases de données de patients • Les outils de traitement du langage naturel analysant les résultats rapportés par les patients

Les actions d'application récentes montrent que le Commissaire à la protection de la vie privée prend au sérieux les violations de la vie privée pharmaceutique. Roche Canada a fait face à une pénalité de 100 000 $ en 2023 pour des pratiques de consentement inadéquates dans le traitement de données de leur programme de soutien aux patients, violant les Principes 3 et 7 de la LPRPDE.


Réglementations provinciales d'information sur la santé

La Loi 25 du Québec (Loi modernisant des dispositions législatives en matière de protection des renseignements personnels) crée une complexité supplémentaire pour les entreprises pharmaceutiques opérant dans le deuxième plus grand marché du Canada. L'article 12 de la Loi 25 exige un consentement explicite pour le traitement par IA d'informations sur la santé, tandis que l'article 93 mandate des Évaluations d'impact sur la vie privée pour les systèmes d'IA qui pourraient impacter significativement les droits à la vie privée.

Sous l'article 93 de la Loi 25, les entreprises pharmaceutiques doivent mener des Évaluations d'impact sur la vie privée pour les systèmes d'IA traitant l'information sur la santé de résidents du Québec. Ces évaluations doivent être complétées avant le déploiement du système et mises à jour quand les modèles d'IA changent significativement, avec des pénalités jusqu'à 25 millions $ sous l'article 159 pour non-conformité.

La Loi sur la protection des renseignements personnels sur la santé (LPRPS) de l'Ontario, article 12, ajoute des exigences pour des mesures de protection raisonnables lors de l'utilisation de plateformes d'IA. Les entreprises pharmaceutiques menant des essais cliniques en Ontario doivent s'assurer que les plateformes d'IA respectent les exigences de sécurité et de contrôle d'accès de la LPRPS sous les articles 12 et 13, les dépositaires d'information sur la santé demeurant responsables des échecs de conformité des fournisseurs.

« Les opérations pharmaceutiques multi-provinciales font face à des réglementations chevauchantes d'information sur la santé sous la LPRPDE fédérale, la Loi 25 du Québec, la LPRPS de l'Ontario, et les équivalents provinciaux. La sélection de plateformes d'IA doit accommoder les exigences applicables les plus restrictives, les pénalités de l'article 159 de la Loi 25 du Québec jusqu'à 25 millions $ représentant l'exposition financière la plus élevée. »

La Loi sur la protection des renseignements personnels de la Colombie-Britannique, article 8, exige un consentement explicite pour le traitement par IA d'informations sur la santé collectées auprès de résidents de la C.-B. Cela crée des défis pratiques pour les essais cliniques nationaux utilisant des outils de correspondance ou stratification de patients alimentés par IA, particulièrement lorsque combiné avec les exigences de consentement plus strictes de la Loi 25 au Québec.


Risques de propriété intellectuelle et de secrets commerciaux

L'IA pharmaceutique présente des vulnérabilités uniques de propriété intellectuelle que les équipes de conformité doivent adresser. Les algorithmes de découverte de médicaments, les conceptions d'essais cliniques et les stratégies de soumission réglementaire représentent des avantages concurrentiels centraux protégés sous le droit des secrets commerciaux et potentiellement la protection par brevet.

Les plateformes d'IA traditionnelles utilisent souvent les données clients pour améliorer leurs modèles sous-jacents. Pour les entreprises pharmaceutiques, cette pratique risque la divulgation inadvertante de méthodologies de recherche propriétaires ou de découvertes cliniques aux concurrents, potentiellement annulant la protection des secrets commerciaux et compromettant des avantages concurrentiels valant des milliards en exclusivité de marché.

Le défi s'intensifie avec les modèles fondamentaux entraînés sur des ensembles de données publics. Ces modèles peuvent avoir ingéré de la recherche pharmaceutique publiée, créant des problèmes potentiels de contamination pour les efforts de découverte de nouveaux médicaments et soulevant des questions sur les exigences de lignage de données sous C.08.002 du Règlement sur les aliments et drogues.

Les entreprises pharmaceutiques canadiennes ont besoin de plateformes d'IA avec de fortes garanties d'isolation des données. L'architecture souveraine d'Augure assure que les données de recherche pharmaceutique ne contribuent jamais à l'entraînement de modèles ou ne deviennent accessibles à d'autres utilisateurs, adressant à la fois les exigences de protection de PI et de conformité réglementaire tout en maintenant une résidence de données complètement canadienne.


Implémentation pratique de la conformité

Les équipes de conformité pharmaceutiques devraient établir des cadres de gouvernance d'IA adressant cinq domaines clés : vérification de résidence des données, documentation de transparence de modèles, pistes d'audit complètes, contrôles d'accès granulaires et préparation de soumissions réglementaires.

La vérification de résidence des données nécessite plus que des engagements contractuels. Les équipes de conformité devraient exiger une documentation d'architecture technique montrant exactement où les données sont traitées, stockées et sauvegardées sous les exigences C.05.010. Les accords de services infonuagiques avec des fournisseurs américains incluent souvent des clauses de juridiction légale qui outrepassent les promesses de résidence de données canadiennes, créant une exposition au CLOUD Act qui viole les attentes de souveraineté des données de Santé Canada.

La transparence des modèles devient critique durant les soumissions réglementaires sous C.08.002 du Règlement sur les aliments et drogues. Santé Canada peut demander des explications détaillées des analyses générées par IA appuyant les demandes d'approbation de médicaments. Les systèmes d'IA boîtes noires créent un risque réglementaire quand les entreprises ne peuvent expliquer leurs processus de prise de décision pour respecter les exigences de rigueur scientifique de Santé Canada.

Les exigences de pistes d'audit s'étendent au-delà de la journalisation TI typique. Les systèmes d'IA pharmaceutiques doivent suivre la lignée des données, les versions de modèles et les décisions de surveillance humaine avec suffisamment de détail pour supporter l'examen réglementaire des années après le déploiement initial, respectant les exigences ICH-BPC et les normes de soumission de Santé Canada.


Stratégies d'atténuation des risques

Les entreprises pharmaceutiques avant-gardistes implémentent des cadres de gouvernance d'IA qui anticipent l'évolution réglementaire plutôt que de simplement respecter les exigences actuelles sous les dispositions existantes du Règlement sur les aliments et drogues et de la Loi sur les instruments médicaux.

La première priorité est la sélection de plateformes avec une architecture de conformité intégrée. Les systèmes d'IA conçus pour les industries réglementées incorporent les contrôles nécessaires dès le départ, plutôt que d'ajouter des fonctionnalités de conformité comme des réflexions après coup qui peuvent ne pas respecter les exigences strictes de Santé Canada.

Les audits de conformité réguliers devraient évaluer les systèmes d'IA contre les réglementations évolutives. L'orientation d'IA de Santé Canada demeure sous forme provisoire, et les exigences finales peuvent imposer des obligations supplémentaires au-delà des dispositions actuelles C.05.010 et C.08.002 sur les entreprises pharmaceutiques.

Les programmes de formation du personnel doivent adresser l'intersection des réglementations pharmaceutiques et de la gouvernance d'IA. La formation traditionnelle en sécurité TI ne couvre pas les exigences de conformité nuancées que l'IA pharmaceutique crée sous la LPRPDE, les lois provinciales d'information sur la santé et le cadre réglementaire de Santé Canada.

La plateforme d'IA souveraine d'Augure adresse ces exigences de conformité spécifiques pharmaceutiques par une résidence de données exclusivement canadienne sans exposition américaine, des architectures de modèles transparentes respectant les exigences d'explicabilité de Santé Canada, et des capacités d'audit intégrées conçues pour les industries réglementées opérant sous le cadre de la Loi sur les aliments et drogues.


Regardant vers l'avenir : évolution réglementaire

Les réglementations d'IA de Santé Canada continueront d'évoluer à mesure que la technologie mûrit. L'orientation provisoire actuelle représente un point de départ, avec les amendements finaux du Règlement sur les instruments médicaux attendus pour imposer des exigences plus strictes sur les systèmes d'IA pharmaceutiques.

Les entreprises pharmaceutiques devraient s'attendre à un examen accru des systèmes d'IA dans les soumissions réglementaires sous C.08.002. Santé Canada développe des processus d'examen spécifiques pour les données générées par IA appuyant l'approbation de médicaments, avec l'orientation provisoire indiquant des exigences pour la validation algorithmique et les pistes d'audit de décisions.

Les réglementations de flux de données transfrontaliers se resserrent globalement. Les entreprises pharmaceutiques avec des opérations internationales doivent se préparer à des exigences de souveraineté des données de plus en plus restrictives, l'exposition au CLOUD Act américain devenant un facteur disqualifiant pour les plateformes de traitement de données d'essais cliniques.

L'intersection de la gouvernance d'IA et de la réglementation pharmaceutique demande une expertise spécialisée. Les équipes de conformité ont besoin de plateformes conçues spécifiquement pour les industries réglementées canadiennes, avec une compréhension approfondie des exigences techniques et des obligations réglementaires sous la Loi sur les aliments et drogues, la Loi sur les instruments médicaux, la LPRPDE et la législation provinciale d'information sur la santé.

Prêt à explorer des solutions d'IA conçues pour la conformité pharmaceutique canadienne ? Visitez augureai.ca pour apprendre comment l'infrastructure d'IA souveraine peut supporter votre recherche réglementée tout en respectant les exigences évolutives de Santé Canada sous le Règlement sur les aliments et drogues et la Loi sur les instruments médicaux.

A

À propos d'Augure

Augure est une plateforme d'IA souveraine pour les organisations canadiennes réglementées. Clavardage, base de connaissances et outils de conformité — le tout sur une infrastructure canadienne.

Prêt à essayer l'IA souveraine?

Commencez gratuitement. Aucune carte de crédit requise.

Commencer