L’IA par les méthodes RKHS : une nouvelle ère pour l’assurance
Dans cet article, nous détaillons les apports de nouvelles approches de l’IA dans les techniques numériques utilisées pour le calcul du risque, avant de décliner ses applications dans les processus de gestion du risque de l’assurance. Nous nous concentrons sur les applications des méthodes d’IA analytiques, par opposition aux modèles de langage que nous n’abordons pas ici.
Ces applications ont des analogues dans le monde bancaire, que MPG-Partners a explorées par le biais de l’approche RKHS, reposant sur une technologie alternative aux réseaux de neurones et aux arbres de décision. Nous la privilégions pour leurs propriétés et leurs performances, en capitalisant sur notre librairie open-source kernel (RKHS) dédiée, codpy [3]. Cette bibliothèque RKHS représente une alternative naissante aux librairies populaires comme Pytorch ou TensorFlow. L’approche RKHS, qui commence à être introduite et étudiée dans le monde de l’assurance [6], permet d’introduire plusieurs innovations que nous listons dans cet article : modèles quantitatifs de risque plus précis pour la prédiction des séries temporelles, calcul rapide voir temps réel pour l’évaluation des risques, calcul de sensibilités et exploitation des résultats par des outils d’aides à la décision innovants [4].
Il existe de très nombreux cas d’applications de ces méthodes dans le milieu assuranciel. Par exemple, le calcul du capital de solvabilité requis (SCR) est une mesure réglementaire clé de la résilience économique de l’assureur, qui pourrait bénéficier de ces avancées, qui correspond au montant de fonds propres nécessaire à l’assureur pour faire face à un évènement rare apparaissant tous les deux cents ans. Cela intéresse bien sûr ces assureurs qui utilisent cet indicateur en modèle interne, ou partiellement interne, et qui souhaiteraient l’affiner afin de mesurer ce risque soit plus précisément, soit plus rapidement. Au-delà de cette figure imposée réglementaire, cela permettrait également d’obtenir rapidement une vision du capital requis pour la gestion actif / passif, ou comptable, de l’assureur. Dans ce cadre, qui est de l’aide à la décision, nous pourrions simuler de nouveaux produits assuranciels, prenant en compte des clauses complexes, comme les taux minimums garantis pour l’assurance-vie, ou les rachats anticipés des contrats. Nous pourrions également déterminer et évaluer l’efficacité des couvertures ALM, comme les couvertures de garantie plancher, tout en en simulant l’impact en capital requis, et ce, en temps réel.
Toutes ces applications possèdent des analogues dans le monde bancaire que nous avons traités avec ces nouvelles technologies et que nous pouvons transposer dans l’assurance. Cet apport technologique ne change bien sûr ni l’objet, ni la nature de ces applications, qu’elles soient à fins réglementaires ou utilisées en interne. Elles permettent simplement une meilleure estimation des risques, plus précise, ou plus rapide, ou de mettre en place des outils originaux d’analyse du risque.
Dans la suite, nous décrivons plus en détail ces cas utilisateurs, ainsi que les méthodes numériques classiquement utilisées pour les aborder aujourd’hui. Dans une dernière partie, nous expliquons pourquoi et comment ces nouvelles technologies d’IA permettent d’accélérer ces calculs.
Entre banque et assurance, l’IA redessine la gestion des risques.
Nous décrivons en suivant ces cas d’usage ou applications qui nous paraissent les plus pertinents pour nos méthodes. Ces applications sont clés pour le monde de l’assurance. Elles ont toutes en commun de poser des défis avec les techniques numériques classiquement utilisées, que nous décrivons en fin de section.
Le capital de solvabilité requis : alignement réglementaire
Dans le contexte de l’Union européenne, le premier pilier de la directive Solvabilité II fournit le cadre réglementaire pour le calcul du SCR (Solvency Capital Requirement, ou capital de solvabilité requis) dont nous décrivons les grands principes. Le régulateur propose un modèle de calcul du SCR standardisé, et permet aux assureurs de l’adapter à ses profils de risque, dans le cadre de ce qui est nommé modèle interne. Ce sont ces modèles internes qui peuvent bénéficier de l’apport de l’IA.
Le SCR est la différence entre la NAV (valeur des actifs de l’assurance) calculée aujourd’hui, et sa valeur à risque (VaR) au niveau de confiance de 99,5 %, pour une NAV calculée à horizon d’un an. La VaR représente la perte potentielle de la NAV de l’assureur qui pourrait survenir en raison d’événements défavorables au cours de la période spécifiée. L’équivalent bancaire de cet indicateur réglementaire est le RWA (Risk Weighted Asset). Le calcul du SCR est aujourd’hui très consommateur en ressources de calcul, voir le paragraphe défi de cette section.
ALM : la gestion des risques au quotidien
L’ALM (gestion actif / passif) est un autre cas utilisateur potentiel de ces nouvelles technologies. Cette gestion est articulée comme suit
- L’évaluation du portefeuille de l’assureur, un sujet abordé également pour le SCR, voir section précédente.
- Le calcul de couverture des risques associés, que ce soit par le biais d’opérations de marché ou de réassurance.
La référence [6] propose notamment un calcul de couverture ALM optimisant un indicateur de performance, la Marge Nette d’Intérêt, sous contrainte réglementaire sur l’EVE, l’équivalent de la NAV pour le secteur bancaire. Bien sûr, l’assurance possède des spécificités qu’il faudrait prendre en compte pour réaliser une transposition de cette application.
Evaluation de nouveaux produits : estimations en capital et en gestion ALM
Le lancement de nouveaux produits est une activité essentielle du métier de l’assurance, que l’assureur doit évaluer pour proposer une tarification à son client, tout en étant capable d’estimer les coûts ALM ou en capital requis. La référence [7] décrit notamment comment ces problèmes sont abordés dans le cadre de grands portefeuilles de produits financiers appelés Autocall. Ces produits financiers possèdent des caractéristiques analogues aux produits assuranciels : capital garanti sous conditions, avec clauses de rachat optionnelle en faveur de l’émetteur ou de l’acheteur. L’approche [7] devrait se transposer efficacement pour une prise de décision éclairée de la gestion du risque de l’assurance.
Défis posés par ces cas d’usage
Les difficultés qui se posent dans le cadre de l’assurance pour les cas d’usage listées plus haut sont les suivantes :
- Facteurs de risque : leur nombre est très important, se comptant par milliers voire dizaines de milliers. Ces risques sont fortement corrélés, la modélisation d’évènements rares y est souvent présente. D’autres part, ces risques peuvent être conditionnés par des observations ou source de données externes pour une modélisation plus précise. Ils peuvent également se matérialiser comme une exposition réglementaire (ES – Expected Shortfall, cf [5],[6]) , voir un calcul de risque de contrepartie dans le cadre de réassurance ou d ’investissement sur les marchés. Se pose également le problème de la calibration de ces sources de risque avec des données historiques, et au-delà de la calibration future, qui utilise toute information sur l’évolution future des marchés ou des risques, comme des produits listés sur les échanges, ou le prix OTC des contrats proposés par les réassureurs.
- Taille des portefeuilles. Les portefeuilles des assurances se comptent aisément en millions de contrats, chaque client possédant ses propres contrats avec ses spécificités.
- Contrats complexes. Ces contrats peuvent avoir des clauses complexes à évaluer, comme du capital garanti ou l’activation de clause de liquidation, par exemple dans le cadre de l’assurance vie.
- Les temps de calcul sont conséquemment très importants, la fréquence du calcul du SCR par exemple est réglementairement mensuelle. Cela rend très difficile la simulation de l’impact en capital dans le cadre d’un outil d’aide à la décision, que ce soit par exemple pour le rachat d’un portefeuilles clients dans le cadre d’une fusion / rachat ou d’opérations de marché pour une éventuelle activité d’investissements.
- Le calcul des sensibilités d’un portefeuille par rapport aux sources de risque est en soit un défi, décuplant les temps de calcul, et sujet à de l’instabilité numérique. Déterminer ces sensibilités de la manière la plus précise possible est primordial pour une couverture harmonieuse des risques dans le cadre d’une gestion ALM solide de l’assurance.
Ces défis justifient l’introduction de nouvelles technologies.
Etat de l’art des méthodologies numériques
A notre connaissance, les méthodes numériques ci-dessous sont à ce jour celles mises en application par les assurances.
- La méthode de Monte-Carloest une méthode très populaire pour modéliser les facteurs de risque et leur diffusion dans le futur pour la prédiction. Cette méthode seule ne permet pas d’aborder les cas utilisateurs du paragraphe précédent. Elle doit être complétée par une des méthodes suivantes.
- Les Monte-Carlo de Monte-Carlo (MC2) : Une méthode de simulation imbriquée permettant une estimation précise des métriques de risque, comme le SCR ou l’ES, en calculant la NAV dans différents scénarios de risque. Elle comprend deux niveaux :
- Simulation primaire : utilisant la méthode de Monte-Carlo, cette simulation génère des trajectoires futures des facteurs de risque (marché, invalidité, mortalité, etc.) basées sur des modèles historiquement calibrés.
- Simulation secondaire : également une méthode de Monte-Carlo, mais imbriquée dans la première, permet le calcul des métriques de risque (NAV, ES, VAR) en utilisant une mesure risque-neutre issue de chaque trajectoire de la simulation primaire.
- L’approche paramétrique : Une approximation de la méthode MC2, basée sur une fonction paramétrique reliant les actifs aux facteurs de risque. Elle comprend :
- Simulations limitées selon la méthode de MC2.
- Calibration des paramètres de la fonction via ces simulations.
- Extrapolation de la fonction pour estimer les métriques de risque sur un ensemble de scénarios.
- Méthodes LSMC – Least Square Monte Carlo est conçu pour intégrer la dépendance des actifs à l’évolution des risques sur tout leur durée (maturité). Les étapes principales :
- Simulations des facteurs de risque.
- Calibration par régression conditionnelle de la NAV en fonction des risques à chaque instant (rétropropagation).
Le tableau suivant résume les avantages et limitations de ces approches.
Méthode | Avantage | Inconvénient |
MC2 | Précision élevée | Très couteuse en temps et ressources (environ 1 million d’évaluations pour une précision relative de 1% |
Approche paramétrique | Calcul rapide | Hypothèses simplificatrices parfois non valable pour tous les contrats |
Méthodes LSMC | Performance adaptée au SCR | Fiabilité (convergence) de la méthode non garantie.
Mise en œuvre complexe. |
Ces inconvénients portent essentiellement sur les temps de calcul, qui freinent la réactivité de l’assureur dans ses prises de décision.
Développements récents et perspectives
Nous discutons des apports de l’intelligence artificielle, par l’approche RKHS, dans les applications dans l’assurance décrites plus haut, bien adaptée au monde de la finance et de l’assurance. Les techniques type RKHS sont des techniques de régression universelle et flexible, alternative à la régression par réseaux de neurones (deep learning). Notamment, en tant que méthode de régression, il est possible de l’utiliser dans le cadre de la méthode LSMC pour le SCR, c’est l’objet de l’étude [6].
Nous discutons dans cette partie de l’ensemble des bénéfices que peut apporter ces méthodes dans le cadre du SCR, capitalisant sur nos travaux sur des sujets connexes dans le monde bancaire, cf [4] et autres références incluses.
Simulation des facteurs de risque
Le premier apport de l’approche RKHS se trouve dans la modélisation des facteurs de risque. Plus précisément, en tant que méthode de régression universelle, l’approche RKHS fournit des méthodes génératives très efficaces. Ces méthodes, développées historiquement pour la génération d’images ou de son, massivement utilisées dans les grands modèles de langages, sont également très utiles pour l’analyse et la génération des facteurs de risque en finance quantitative. Ces méthodes permettent de considérer des modèles de prédiction de séries temporelles capturant très finement :
- La dynamique des facteurs de risque. En effet, ce sont des méthodes capables de capturer et de reproduire nativement des lois à queue épaisse, nécessaires pour la prise en compte des évènements rares. Elles permettent également de traiter efficacement la notion de conditionnement, importante par exemple pour une modélisation fine des indicateurs type espérance de vie.
- Les relations non linéaires entre les différents facteurs de risque. En effet, un des avantages de l’approche générative est d’être agnostique, et non paramétrique. Pour illustrer ce point, donnons un exemple : la notion de corrélation est une notion paramétrique, qui se base sur une modélisation Gaussienne des facteurs de risque. Ces modèles génératifs ne font aucune hypothèse de ce type, tout en étant capable nativement de reproduire une corrélation, si les facteurs de risque sont effectivement de nature Gaussienne, ce qui est cependant rarement le cas dans un contexte opérationnel.
Accélération des méthodes Monte-Carlo / LSMC et calcul temps réel
Les méthodes génératives discutées dans la section précédente permettent bien sûr la mise en place d’un framework type Monte-Carlo pour le calcul du SCR. Cependant, elles permettent également une suite d’optimisations majeures.
Une première source d’optimisation est le calcul de trajectoires de Monte-Carlo optimisées, dont le but est de réduire le nombre d’évaluations nécessaires pour atteindre une précision suffisante dans les calculs SCR. Dans le cadre du RWA, on peut montrer empiriquement, tout en s’appuyant sur la théorie, qu’il suffit de moins de mille trajectoires Monte-Carlo optimisées pour satisfaire les exigences réglementaires. Ce résultat devrait également prévaloir dans le calcul du SCR.
Une deuxième source d’optimisation est le calcul de ce qu’on appelle la matrice de transition des facteurs de risque, donnant la probabilité que les facteurs de risque soient dans un état à un temps donné, sachant qu’ils étaient dans un autre état à un autre temps. En effet, la matrice de transition ne dépend que des sources de risque et non des contrats d’assurance. Cependant, c’est cette matrice qui est utilisée directement dans le calcul de la NAV, plus précisément dans l’étape de rétropropagation – LSMC. Une fois calculée, le calcul de la NAV revient à multiplier cette matrice par un vecteur représentant les flux des contrats, une opération rapide parce que très fortement optimisée pour les ordinateurs.
Ces deux optimisations permettraient de calculer la NAV par des opérations matricielles, un cadre d’optimisation que nous appelons approche EDP (Equations aux Dérivées Partielles). Ces techniques sont aujourd’hui suffisamment rapides pour espérer la mise en place de calcul du SCR très rapide, à tous les niveaux de granularité : comme pour le RWA, on s’attend à pouvoir traiter des millions de contrats avec peu de puissance de calcul dans le cadre du calcul du SCR, et nous pensons qu’il est possible de proposer un calcul de cet indicateur en temps réel, tout en conservant la granularité du calcul au niveau du contrat d’assurance. En effet, des centaines de milliers de contrats peuvent être évalués avec des temps de calcul de l’ordre de la minute sur un laptop moderne.
Estimation des sensibilités : un autre avantage de ces méthodes est leur capacité à calculer rapidement les sensibilités du SCR par rapport aux sources de risque. Ce point est important dans nombre d’aspect de la gestion du risque par les assureurs.
Autres indicateurs : enfin, les méthodes RKHS permettent également d’avoir accès à des outils d’analyse de risque sophistiqués pour l’aide à la décision, comme les reverse stress test. Dans le monde de l’assurance, ces problèmes peuvent s’exprimer comme suit : quels sont les scénarios d’évolutions des sources de risque (actions / taux / espérance de vie …) les plus probables qui pourraient matérialiser une perte donnée pour l’assureur, exprimée comme une valeur donnée de la NAV.
Vers une mutation technologique du secteur de l’assurance.
L’intelligence artificielle, notamment les méthodes RKHS, permettent aujourd’hui aux assureurs, comme aux institutions financières, d’accéder à des méthodes numériques très performantes. Ce faisant, elles peuvent également avoir accès à des outils d’analyse du risque qu’il n’était pas possible d’envisager il y a encore quelques années, comme des outils d’aide à la décision en temps réel. Compte tenu des bénéfices que ces méthodes apportent, on ne peut qu’anticiper qu’elles seront adoptées par l’industrie de l’assurance, que ce soit par sélection concurrentielle ou réglementaire.
Références
- Bauer, Daniel & Mack, J & Bergmann, Daniela & Reuss, Andreas. (2009). Solvency II and Nested Simulations—A Least-Squares Monte Carlo Approach.
- Solvency Capital Requirement – Standard Formula, PRA Rule Book.
- LeFloch, J. Mercier, and S. Miryusupov (2024). CodPy: a Python library for numerics, machine learning, and statistics
- LeFloch, J. Mercier, and S. Miryusupov, “Extrapolation and Generative Algorithms for Three Applications in Finance,” Wilmott, vol. 2024, iss. 133, 2024.
- IFRS 17 Risk Adjustement Une étude comparative sur le périmètre des contrats d’épargne en euros, Nexialog
- Calcul efficace du SCR modèle interne par krigeage stochastique, Nexialog
- Bouchard Anne-Claire. Utilisation de la technique du Least Squares Monte-Carlo : paramètres d’allocation et facteurs financiers, 2017. Mémoire d’Actuariat.
- Solvency II Capital Requirements and Investment: A study on the impact of Solvency II on debt markets, 2019. Ostrum Asset Management working paper.
- Boonen, T.J. Solvency II solvency capital requirement for life insurance companies based on expected shortfall. Eur. Actuar. J. 7, 405–434 (2017). https://doi.org/10.1007/s13385-017-0160-4