Forage de données d’assurance: techniques, éthique et sécurité

La compagnie d’assurances canadienne Beneva a accumulé, à travers le temps, plusieurs bases de données massives traitant de leurs clients dans leurs divers programmes d’assurances. Ils recherchent actuellement un moyen d’exploiter ces données afin de mieux comprendre leur clientèle, et ainsi personnaliser leur offre de produits d’assurance aux besoins de chaque individu. Ceci doit être réalisé dans le respect de normes éthiques strictes et des contraintes que les utilisateurs eux-même peuvent vouloir mettre sur l’utilisation de leurs données. Et, considérant la nature personnelle des informations qui seront obtenues sur les individus, la sécurité des données se doit d’être extrêmement robuste. Ce programme de recherche s’oriente donc autour de trois axes fondamentaux. L’axe de forage des données vise à développer de nouveaux algorithmes pour inférer des informations sur les clients à partir de données d’interactions avec la compagnie. L’axe d’éthique et de l’acceptabilité sociale étudie les attentes des clients face à ce forage de données, tant du point de vue des bénéfices qu’ils veulent en tirer que de la protection de leurs vies privées. Et l’axe de sécurité des données développe de nouvelles techniques pour garantir la confidentialité, l’intégrité, la disponibilité, et la traçabilité de ces données. L’industrie de l’assurance vaut plusieurs milliards de dollars dans l’économie canadienne, et la protection des informations personnelles est un sujet d’une grande importance pour la majorité de la population canadienne. Les outils de gestion d’information et de découverte de connaissance que nous allons développer vont donner aux compagnies canadiennes un avantage important dans ce marché international compétitif, tout en garantissant à la population canadienne un contrôle et une protection de ses informations personnelles.

Co-applicants : Khoury, Lyse Langlois, Pierre-Luc Déziel

Collaborateurs : Nadia Tawbi, Josée Desharnais, Mohamed Mejri.

Apprentissage automatique pour le secteur des assurances: modèles prédictifs, détection de la fraude et équité

Au cœur de leur mission, l’industrie de l’assurance s’efforce de satisfaire ses clients et de leur proposer les produits d’assurance les mieux adaptés à leurs besoins. Grâce aux nombreuses données d’entreprise accumulées au fil des ans, à la disponibilité de ressources de calcul impressionnantes et à l’état actuel des connaissances en matière de recherche en apprentissage automatique, les compagnies d’assurance peuvent désormais s’efforcer de créer des modèles prédictifs efficaces pour certains aspects du comportement du client et leurs besoins. Toutefois, les sociétés d’assurance doivent également rendre des comptes à notre société et, en particulier, cela implique qu’elles ne devraient offrir aucun service ni aucune couverture discriminatoire, en quelque sorte, en termes de race, de couleur de peau, d’origine ethnique ou d’autres caractéristiques non pertinentes qui sont, immuablement, immoral à utiliser. En ce sens, le secteur des assurances devrait également être juste dans le service qu’il fournit.

Par conséquent, la présente proposition de recherche vise à faire progresser l’état actuel des connaissances dans les domaines de la recherche en apprentissage automatique qui intéressent principalement le secteur des assurances. Plus précisément, à partir des données d’entreprise de Beneva, nous visons à créer les modèles prédictifs les plus précis, les plus justes et les plus équitables pour les besoins des clients en matière de produits d’assurance et pour certains aspects de leur comportement, tels que la probabilité qu’un client ne renouvelle pas une assurance donnée. politique. Nous visons également à mettre en place des détecteurs de fraude précis et équitables, capables de détecter la fraude à un stade précoce et de détecter de nouveaux types de fraude. Pour atteindre ces objectifs, nous devrons adapter les algorithmes d’apprentissage automatique existants de manière innovante et en concevoir de nouveaux, tels qu’ils puissent utiliser et combiner différentes sources de données au cours de l’apprentissage, dont certaines sont de nature séquentielle. De plus, nous devrons également trouver des moyens d’imposer l’équité dans les algorithmes d’apprentissage automatique, de sorte que les prédicteurs générés par ceux-ci n’utiliseront pas d’attributs sensibles non pertinents (tels que la race, l’origine ethnique, la religion, etc.) de manière à les rendre performants. inégalement entre différents groupes d’individus.

Chaire de recherche industrielle CRSNG – Intact Corporation financière sur l’apprentissage automatique en assurance

De nos jours, l’analyse des données est au coeur de plusieurs nouvelles technologies. Il suffit de penser à la voiture sans conducteur de Google, à la fusée autonome de SpaceX, aux assistants personnels intelligents comme Siri ou Alexa, ou même à l’HoloLens de Microsoft. Ces technologies d’intelligence artificielle (IA) ont un point commun : elles s’appuient sur des algorithmes d’apprentissage machine. Pour plusieurs applications, le résultat final est primordial, mais certaines autres exigent aussi qu’un humain puisse comprendre comment l’algorithme d’IA prend ses décisions. Dans celles-ci, l’information concernant les mécanismes de décision vise à renforcer la confiance envers le système et à vérifier les décisions prises par l’algorithme. Pour Intact, notre partenaire industriel, différentes considérations juridiques et éthiques exigent de comprendre les règles qui sous-tendent ces décisions.

Le « big data » a amené plusieurs opportunités liées à la disponibilité de nouvelles sources d’information telles que les médias sociaux, les données de trafic, les documents textes et les banques d’images. Pour faire face à la compétition internationale, les entreprises se doivent d’exploiter ces données afin de mieux se connecter à leurs clientèles et de mieux saisir leurs besoins. Elles ont aussi besoin que ces algorithmes AI ne se présentent pas sous la forme d’une boîte noire qu’on écoute sans comprendre.

Ce projet de Chaire de Recherche Industrielle se fera en collaboration avec Intact Assurance, un leader de l’industrie canadienne de l’assurance, et le Centre de Recherche en Données Massive de l’Université Laval. La Chaire mettra l’accent sur le développement d’algorithmes d’IA interprétables ce qui favorisera leur application au secteur de l’assurance ainsi qu’aux nombreuses autres industries canadiennes du secteur des services qui amorcent un virage « big data ».

Collaborateurs: Thierry Badard, Luc Lamontagne, Christian Gagné, Richard Khoury, Mario Marchand, Frédéric Hubert, Marie-Pier Côté et Pascal Germain.

Analyse de données massives en assurance

La révolution des données massives, le fameux « big data », est commencée. Un nouveau type d’entrepreneuriat émerge où les entreprises n’utilisent plus uniquement l’expertise humaine, mais favorisent plutôt des approches novatrices axées sur les données. Leur principale motivation est de profiter du volume et de la grande variété de données qui sont maintenant disponibles (réseaux sociaux, journaux de trafic Web, documents texte, banques d’images, etc.). Intact Assurance, notre partenaire industriel, est conscient des récents progrès en analyse de données et mesure bien le potentiel qu’une approche « big data » peut offrir. Ce changement de paradigme, orienté données, aura des impacts importants sur les processus d’affaires d’Intact, entre autre en ce qui concerne l’estimation du risque, la simplification des abonnements, la prévision des coûts à long terme des sinistres ou même l’accélération du traitement des demandes. Toute amélioration de ces processus entraînera des avantages tant pour l’assureur que pour les clients, que ce soit sur le plan monétaire ou du service.

Beaucoup d’efforts sont actuellement déployés par la communauté des sciences des données, l’intelligence artificielle n’étant ici que la pointe de l’iceberg. Grâce à ce projet de recherche et de développement collaboratif, Intact Assurance et le Centre de Recherche en Données Massives (CRDM) de l’Université Laval collaboreront à la création de nouvelles technologies permettant aux ordinateurs d’extraire efficacement des informations à partir de documents textes, d’identifier des concepts dans des images, maîtriser les données de capteur etc. Ce projet de recherche ambitieux conduira à des améliorations importantes aux processus d’affaires d’Intact Assurance, tout en renforçant les initiatives de recherche multidisciplinaires du CRDM et en positionnant ses chercheurs comme leaders dans leurs domaines respectifs. Ces innovations aideront non seulement Intact Assurance à s’imposer comme un leader mondial dans l’exploitation de données d’assurance, mais bénéficieront également à d’autres industries Canadiennes du domaine des services et, en bout de ligne, aboutiront à une amélioration de la productivité, de l’innovation et de l’excellence.

Collaborateurs : Philippe Giguère, Sylvie Daniel, Jean-François Lalonde, Marc Parizeau, Frédéric Hubert, Jean Dubé.

Un projet collaboratif de plus de 1,2 M$ ayant recours à l’intelligence artificielle afin d’optimiser la production de vaccins

Le consortium de recherche biopharmaceutique CQDM et Medicago R&D sont fiers d’annoncer aujourd’hui le financement d’un projet de recherche qui permettra à l’entreprise de Québec d’accroître la compétitivité de sa plateforme de production de vaccins et de confirmer sa position de leader dans l’industrie biopharmaceutique au Canada. Via le CQDM, c’est une subvention de 500 000 $ que le ministère de l’Économie et de l’Innovation du Québec octroie pour la réalisation de cette initiative d’une durée de trois ans.

« La crise sanitaire liée à la COVID-19 nous rappelle l’importance de produire des vaccins pour assurer la protection et la santé de la population. Plus que jamais, le gouvernement du Québec juge essentiel de soutenir ce projet de recherche, qui permettra à Medicago, un acteur important de l’industrie biopharmaceutique, d’augmenter sa productivité grâce à l’intelligence artificielle. Nous contribuons du même coup à renforcer la position du Québec comme l’un des centres manufacturiers de vaccins les plus importants au monde » a souligné Pierre Fitzgibbon, ministre de l’Économie et de l’Innovation.

Le projet est mené par l’équipe du professeur Jacques Corbeil, chercheur au département de médecine moléculaire du CHU de Québec-Université Laval, et effectué en étroite collaboration avec Medicago R&D. Le professeur Corbeil est reconnu internationalement pour son expertise pointue à l’interface de la médecine et des approches d’apprentissage automatique. Il est entre autres titulaire de la chaire de recherche du Canada en génomique médicale.

« Il est important de souligner que ce projet est né d’un désir commun d’améliorer la production de vaccins afin de mieux protéger la santé des Canadiens et Canadiennes. Ce fort soutien est particulièrement à point pour mener notre combat contre les maladies émergentes auxquelles nous devons faire face de nos jours, comme la COVID-19 en ce moment », a mentionné le professeur Corbeil.

Déterminer la qualité de la polypharmacie chez les aînés : une approche basée sur l’intelligence artificielle

Cette initiative de recherche a reçu une subvention de 1,2 M$ des Instituts de recherche en santé du Canada, en partenariat avec le Conseil de recherches en sciences naturelles et en génie du Canada, dans le cadre du Programme de projets de recherche concertée sur la santé.

La prise de plusieurs médicaments, la polypharmacie, est de plus en plus commune, surtout chez les personnes âgées. Pour l’instant, il n’est pas possible de bien départager quelles polypharmacies apportent des bénéfices et quelles sont inappropriées. En effet, le nombre de combinaisons de médicaments possibles est imposant, et prendre en compte les caractéristiques individuelles de chacune des personnes rend la situation très complexe.

L’intelligence artificielle permettra de comprendre ces éléments pour en dégager des normes. Nous utiliserons les données du Système intégré de surveillance des maladies chroniques du Québec qui contiennent les informations sur les réclamations de médicaments pour l’ensemble des aînés du Québec depuis 1996, de même que les informations sur les services médicaux, les hospitalisations et les décès. Ces données, décrivant l’exposition aux médicaments de chaque individu, permettront d’entraîner un système expert basé sur l’intelligence artificielle pour établir quelles combinaisons, séquences, durées de traitement sont associées à des effets négatifs (ex. hospitalisations, décès) et lesquelles les évitent en tenant compte des conditions médicales et sociodémographiques de la personne. L’analyse de ces données pourrait engendrer des enjeux éthiques, légaux et sociaux que nous explorerons afin d’assurer que les résultats ne conduisent pas à accroître d’éventuelles inégalités dans les traitements que nous observons présentement entre différents sousgroupes de la population.

Les résultats serviront à développer la surveillance de la polypharmacie dans la population et apporteront des connaissances nouvelles sur l’usage de médicaments qui pourraient changer la pratique clinique. De nouvelles avenues de recherche en intelligence artificielle seront également explorées, permettant le développement de cette discipline en santé.

Participants externes : Émond Valérie, Jean Sonia, Savard Anne-Marie et Talbot Denis.

Collaborateurs : Chiu Yohann, Désy Michel, Gagnon Marie-Eve, Morin Michèle et Simard Marc.

Science des données responsable dans le domaine de la santé

Des images médicales aux résultats de laboratoire, en passant par les sommaires d’hospitalisation et les registres médicaux, le secteur de la santé génère d’énormes quantités de données. Or, leur potentiel est peu exploité, notamment en raison d’une pénurie de spécialistes à l’interface de l’informatique et des sciences biomédicales. Le programme SDRDS, financé par le Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG), formera une relève capable de valoriser ces données de façon responsable. Cette relève développera, en plus de compétences techniques à la fine pointe, des habiletés professionnelles en 1) communications 2) gestion 3) transfert de connaissance et 4) éthique et droit.

Co-chercheur.e.s non membres du CRDM : Isabel Fortier (Université McGill), John Kildea (Université McGill), Catherine Régis (Université de Montréal), France Légaré (Université Laval), Nadia Lahrichi (Polytechnique Montréal), Louis-Martin Rousseau (Polytechnique Montréal) et Louis Archambault (Université Laval).

Santé et toxicité de communautés en ligne

Les communautés en ligne abondent aujourd’hui, sur les sites de réseautage social, sites Web de communautés du monde réel comme les écoles ou les clubs, sur le web forums, sur les forums de discussion des jeux vidéo, et même sur les pages de commentaires sites d’information et blogs. Certaines de ces communautés sont « saines » et discussion polie entre membres respectueux, mais d’autres sont « toxiques » et se transformer en combats virulents, à la traîne, à la cyberintimidation, à la fraude, ou même à la l’incitation au suicide, à la radicalisation ou à la prédation sexuelle et au toilettage des Mineurs. La détection des messages toxiques et des utilisateurs toxiques est un défi majeur, en partie parce qu’ils sont des utilisateurs contradictoires qui tentent activement de contourner ou logiciels de détection et filtres. En outre, alors que beaucoup de recherches dans le la littérature s’est penchée sur les communautés en ligne (par exemple dans la normalisation du texte pour corriger les mots mal orthographiés, dans la détection des sentiments pour déduire l’humeur de utilisateurs, ou dans la modélisation utilisateur pour reconnaître les différentes personnalités des utilisateurs), la plupart d’entre eux ont supposé que les utilisateurs collaborent plutôt que délibérément essayer de détourner le logiciel.

La société privée TwoHat dispose d’un logiciel Community Sift, qui aide les modérateurs communautaires à trouver des messages dans les conversations en ligne. Dans ce projet de recherche, nous avec eux afin d’atteindre cinq objectifs généraux, qui seront détaillés dans les sections ultérieures: (1) Pour explorer les améliorations à la gestion de la conversation outils et des mesures d’évaluation de la toxicité dans le contexte du système; (2) Rechercher de nouvelles méthodologies pour la détection de la toxicité en ligne conversations; (3) Développer des algorithmes innovants pour agréger les des éléments d’information dans les dossiers de preuves dans le cadre d’une évaluation cohérente et prédiction; (4) Développer des implémentations en temps réel de ces méthodologies qui peut gérer le flux massif de données des conversations en ligne; (5) Étudier la nature des comportements toxiques, leurs impacts sur les utilisateurs et sur les communautés, et les mécanismes pour les freiner.