← Retour aux perspectives
IA fantôme

Assurance et IA : quand les employés utilisent des outils américains sur des données canadiennes

Les assureurs canadiens font face à des risques réglementaires lorsque leur personnel utilise ChatGPT sur des données clients. Connaissez vos obligations LPRPDE, Loi 25 et BSIF avant qu'il ne soit trop tard.

Par Augure·
Un homme d'affaires tape sur un ordinateur portable.

Votre expert en sinistres vient de coller les dossiers médicaux d'un client dans ChatGPT pour « résumer rapidement les points clés ». Ces données se trouvent maintenant sur des serveurs américains, potentiellement accessibles sous le CLOUD Act, et vous avez probablement violé le principe 4.1.3 de la LPRPDE sur les transferts transfrontaliers. Pour les opérations québécoises, la section 17 de la Loi 25 fait de ceci un problème pouvant coûter 25 M $ CA. Les assureurs canadiens ne peuvent empêcher leurs employés d'utiliser l'IA — mais ils peuvent contrôler où vont ces données.


Le paysage de conformité pour les assureurs canadiens

Les compagnies d'assurance canadiennes opèrent sous plusieurs régimes de protection de la vie privée qui se chevauchent. La LPRPDE s'applique aux assureurs sous réglementation fédérale et aux opérations interprovinciales sous la Loi sur la protection des renseignements personnels. Les lois provinciales sur la vie privée comme la Loi 25 (Loi modernisant des dispositions législatives en matière de protection des renseignements personnels) au Québec ajoutent des exigences supplémentaires. La ligne directrice B-13 du BSIF régit l'impartition et la gestion des risques technologiques pour les institutions sous réglementation fédérale.

Ce ne sont pas des exigences abstraites. Le Commissaire à la protection de la vie privée du Canada a reçu 847 plaintes concernant des compagnies d'assurance en 2023 seulement. L'application de la Loi 25 sous la section 163 a commencé en septembre 2024, avec des sanctions administratives pécuniaires atteignant 4 % du chiffre d'affaires mondial ou 25 M $ CA, selon le plus élevé.

« Le principe 4.1.3 de la LPRPDE exige que les organisations s'assurent d'un niveau comparable de protection pendant que l'information est traitée par un tiers. Les plateformes d'IA américaines ne peuvent fournir cette garantie sous le CLOUD Act, rendant les transferts transfrontaliers présumément non conformes pour les assureurs canadiens. »

Le défi n'est pas théorique. Vos employés utilisent déjà des outils d'IA. Un sondage de 2024 par l'Association canadienne des comptables d'assurance a trouvé que 73 % des professionnels d'assurance avaient utilisé l'IA générative pour des tâches de travail. Seulement 12 % ont rapporté des politiques d'entreprise formelles régissant cette utilisation.


Où les outils d'IA américains créent une exposition réglementaire

ChatGPT, Claude et autres outils d'IA grand public traitent les données sur l'infrastructure américaine. Ceci crée des problèmes de conformité immédiats sous la loi canadienne sur la protection de la vie privée.

Le principe 4.1.3 de la LPRPDE exige une protection « comparable » de la vie privée pour les transferts transfrontaliers. Le Commissaire à la protection de la vie privée a constamment maintenu dans des conclusions comme le résumé de cas LPRPDE #2019-002 que la loi américaine sur la vie privée ne répond pas à cette norme. Le CLOUD Act (Clarifying Lawful Overseas Use of Data Act) permet aux autorités américaines d'accéder aux données sur les serveurs américains peu importe où se trouve l'utilisateur.

Pour le traitement des réclamations, cette exposition est aiguë. Les dossiers médicaux, informations financières et détails personnels qualifient tous comme information personnelle sensible sous le principe 4.3 de la LPRPDE. La section 22 de la Loi 25 exige un consentement explicite pour traiter des données sensibles à l'extérieur du Québec — consentement que la plupart des assureurs n'ont pas obtenu par leurs politiques de confidentialité standards.

« La section 4.1 de la ligne directrice B-13 du BSIF exige que les assureurs sous réglementation fédérale maintiennent une « surveillance appropriée et gestion des risques » de toutes les fonctions imparties, incluant les outils d'IA utilisés par le personnel. L'utilisation de ChatGPT par les employés constitue un arrangement d'impartition non géré sous cette définition. »

La ligne directrice B-13 du BSIF ajoute une autre couche. Tout outil d'IA qui traite des données clients constitue un « arrangement d'impartition » sous la section 2.1 exigeant diligence raisonnable, contrats et surveillance continue selon la section 4. La plupart des employés utilisant ChatGPT n'ont établi aucun de ces contrôles.

Les pénalités sont importantes. La section 91 de la LPRPDE permet des amendes jusqu'à 100 000 $ CA par violation. Les pénalités de la section 163 de la Loi 25 s'élèvent à 25 M $ CA ou 4 % du chiffre d'affaires mondial. Le BSIF peut imposer des sanctions administratives pécuniaires sous la Loi sur les banques jusqu'à 1 M $ CA pour violations de la ligne directrice B-13.


Application réglementaire réelle en assurance canadienne

L'application n'est pas hypothétique. En 2023, le Commissaire à la protection de la vie privée a trouvé que Manuvie violait le principe 4.7 de la LPRPDE en protégeant inadéquatement les données clients durant une transition de fournisseur. Le rapport public sous la section 20 a nui à la réputation de l'entreprise et déclenché un examen réglementaire.

La Commission d'accès à l'information du Québec a été plus agressive depuis l'entrée en vigueur de la Loi 25. Elle a enquêté sur des compagnies d'assurance pour transferts de données transfrontaliers sous la section 17, mécanismes de consentement inadéquats sous la section 12 et supervision de fournisseurs déficiente. Les premières pénalités de la Loi 25 sous la section 163 ont été émises à la fin 2024.

Le BSIF a constamment cité des défaillances de gestion des risques technologiques dans ses conclusions de surveillance. Le rapport annuel 2024 notait « surveillance inadéquate des arrangements technologiques tiers » comme déficience commune parmi les assureurs sous réglementation fédérale, référençant spécifiquement les lacunes de conformité à la ligne directrice B-13.

La tendance est claire : les régulateurs portent attention à comment les assureurs gèrent les données, surtout quand elles quittent les frontières canadiennes.


L'argument d'affaires pour l'infrastructure d'IA canadienne

Au-delà de la conformité, il y a des raisons opérationnelles de préférer les plateformes d'IA canadiennes. Le traitement des réclamations nécessite une compréhension des cadres légaux canadiens, des réglementations d'assurance provinciales et des concepts de droit civil québécois que les modèles entraînés aux États-Unis gèrent mal.

Les plateformes hébergées au Canada offrent une meilleure performance pour les cas d'usage canadiens. Elles sont entraînées sur des documents légaux canadiens, comprennent les variations provinciales en droit d'assurance et peuvent gérer les exigences bilingues sous la section 25 de la Loi sur les langues officielles.

« Les assureurs canadiens ont besoin d'outils d'IA qui comprennent la distinction entre les principes de responsabilité délictuelle de common law dans neuf provinces versus l'article 1457 du Code civil du Québec sur la responsabilité civile, les variations des Lois sur les assurances provinciales sur les indemnités d'accident légales, et les exigences de documentation bilingue obligatoire sous les lois linguistiques fédérales. »

Des plateformes comme Augure sont conçues spécifiquement pour cet environnement. Construites sur l'infrastructure canadienne avec propriété corporative canadienne, elles évitent entièrement l'exposition au CLOUD Act sous les lois américaines d'accès extraterritorial aux données. Les modèles comprennent les cadres réglementaires canadiens parce qu'ils sont entraînés sur du contenu légal et réglementaire canadien.

Pour les compagnies d'assurance, ceci signifie assistance IA qui comprend réellement votre environnement opérationnel. Analyse de réclamations qui reconnaît les différences des lois d'assurance provinciales. Révisions de polices qui tiennent compte des lois canadiennes de protection du consommateur. Évaluations de risque qui reflètent les normes actuarielles canadiennes.


Implémentation pratique sans risque réglementaire

La solution n'est pas d'interdire l'IA — c'est de fournir des alternatives conformes. Les plateformes d'IA hébergées au Canada vous permettent de donner aux employés les outils qu'ils veulent tout en maintenant la conformité réglementaire.

Commencez avec des politiques claires alignées aux exigences de gouvernance de la section 67 de la Loi 25. Définissez quelles données peuvent être traitées par des outils d'IA et quelles plateformes sont approuvées. Formez le personnel sur la distinction entre les outils d'IA publics et les plateformes canadiennes de niveau entreprise.

Implémentez des contrôles techniques. Bloquez l'accès aux outils d'IA non conformes au niveau réseau. Fournissez un accès facile aux plateformes canadiennes approuvées comme Augure. Surveillez l'utilisation pour assurer la conformité aux politiques internes et aux exigences de surveillance de la ligne directrice B-13 du BSIF.

Documentez tout selon la section 67 de la Loi 25. Maintenez des registres des approbations d'outils d'IA, formation du personnel et surveillance d'utilisation. Le BSIF attend ce niveau de surveillance sous la section 4 de la ligne directrice B-13 pour toute technologie qui traite des données clients.

La clé est de rendre la conformité plus facile que la violation. Si votre outil d'IA approuvé est plus rapide et utile que ChatGPT, les employés migreront naturellement vers lui.


Construire une stratégie d'IA durable

Le succès à long terme nécessite d'intégrer la gouvernance d'IA dans votre cadre de gestion des risques existant. Ce n'est pas un projet technologique — c'est une initiative de conformité et risque opérationnel sous les lignes directrices de gestion des risques à l'échelle de l'entreprise du BSIF.

Désignez une propriété claire. Votre agent principal de la protection de la vie privée devrait superviser la conformité de confidentialité de l'IA sous le principe 4.1.4 de la LPRPDE. Votre directeur des risques devrait gérer les aspects de risque opérationnel sous la ligne directrice B-13 du BSIF. Les équipes technologiques devraient implémenter les contrôles techniques.

La vérification régulière est essentielle sous la section 67 de la Loi 25. Révisez l'utilisation d'outils d'IA trimestriellement. Évaluez les nouveaux outils contre votre cadre de conformité. Mettez à jour les politiques à mesure que les réglementations évoluent.

Considérez le coût total de conformité. Le coût direct des plateformes d'IA canadiennes peut sembler plus élevé que les outils gratuits comme ChatGPT. Mais tenez compte des pénalités réglementaires sous la section 91 de la LPRPDE et la section 163 de la Loi 25, des coûts d'enquête et dommages à la réputation. Les outils conformes sont typiquement moins chers quand vous comptez le risque total.

Les assureurs canadiens ont un choix clair : conformité réactive après une violation ou adoption proactive d'infrastructure d'IA canadienne. Le paysage réglementaire rend cette décision simple.


Prêt à donner à votre équipe des outils d'IA qui respectent réellement la loi canadienne sur la protection de la vie privée ? Explorez l'IA canadienne de niveau entreprise à augureai.ca — construite pour les organisations réglementées qui ne peuvent se permettre de surprises réglementaires.

A

À propos d'Augure

Augure est une plateforme d'IA souveraine pour les organisations canadiennes réglementées. Clavardage, base de connaissances et outils de conformité — le tout sur une infrastructure canadienne.

Prêt à essayer l'IA souveraine?

Commencez gratuitement. Aucune carte de crédit requise.

Commencer