Au cœur de leur mission, l’industrie de l’assurance s’efforce de satisfaire ses clients et de leur proposer les produits d’assurance les mieux adaptés à leurs besoins. Grâce aux nombreuses données d’entreprise accumulées au fil des ans, à la disponibilité de ressources de calcul impressionnantes et à l’état actuel des connaissances en matière de recherche en apprentissage automatique, les compagnies d’assurance peuvent désormais s’efforcer de créer des modèles prédictifs efficaces pour certains aspects du comportement du client et leurs besoins. Toutefois, les sociétés d’assurance doivent également rendre des comptes à notre société et, en particulier, cela implique qu’elles ne devraient offrir aucun service ni aucune couverture discriminatoire, en quelque sorte, en termes de race, de couleur de peau, d’origine ethnique ou d’autres caractéristiques non pertinentes qui sont, immuablement, immoral à utiliser. En ce sens, le secteur des assurances devrait également être juste dans le service qu’il fournit.
Par conséquent, la présente proposition de recherche vise à faire progresser l’état actuel des connaissances dans les domaines de la recherche en apprentissage automatique qui intéressent principalement le secteur des assurances. Plus précisément, à partir des données d’entreprise de Beneva, nous visons à créer les modèles prédictifs les plus précis, les plus justes et les plus équitables pour les besoins des clients en matière de produits d’assurance et pour certains aspects de leur comportement, tels que la probabilité qu’un client ne renouvelle pas une assurance donnée. politique. Nous visons également à mettre en place des détecteurs de fraude précis et équitables, capables de détecter la fraude à un stade précoce et de détecter de nouveaux types de fraude. Pour atteindre ces objectifs, nous devrons adapter les algorithmes d’apprentissage automatique existants de manière innovante et en concevoir de nouveaux, tels qu’ils puissent utiliser et combiner différentes sources de données au cours de l’apprentissage, dont certaines sont de nature séquentielle. De plus, nous devrons également trouver des moyens d’imposer l’équité dans les algorithmes d’apprentissage automatique, de sorte que les prédicteurs générés par ceux-ci n’utiliseront pas d’attributs sensibles non pertinents (tels que la race, l’origine ethnique, la religion, etc.) de manière à les rendre performants. inégalement entre différents groupes d’individus.