La récente rencontre du Cercle du Risque Prédictif s’intitulait “Splendeurs et misères de la prédiction des risques assuranciels”. Cette session était consacrée à l’usage des modèles prédictifs dans l’assurance. Elle entraîna des conclusions qui ne furent pas toujours celles auxquelles on pouvait s’attendre…
Tout le monde connaît les métiers historiques des assureurs : il s’agit d’abord de savoir calculer au plus juste les risques afin de fixer le niveau des primes que va payer l’assuré. Ensuite, l’assureur doit estimer ses besoins en capitaux et, enfin, estimer le niveau de rémunération de capital. Pour mener à bien ces missions, les assureurs ont évidemment besoin de modèles prédictifs, surtout pour calculer les niveaux de risques.
Comme l’a rappelé Fabien De Geuser, Docteur en Sciences de Gestion, enseignant-chercheur à ESCP Europe et professeur à HEC Lausanne, l’assurance constitue le secteur privilégié d’expérimentation et d’utilisation des modèles prédictifs : les risques forment la matière première des compagnies d’assurance, il existe beaucoup de données disponibles, la pression réglementaire est relativement forte, les compétences sont pointues, notamment à travers la profession d’actuaire, et la communauté académique est très développée. Résultat, affirme Fabien De Geuser : « L’assurance est un laboratoire privilégié pour les modèles prédictifs et les assureurs aiment ces modèles ! »
Cette vision idéale mérite toutefois d’être nuancée. Car tout n’est pas aussi facile qu’on pourrait le penser. Pour Fabien De Geuser, quatre tendances lourdes incitent à nuancer l’efficacité des modèles prédictifs. La première est bien sûr l’évolution de la nature des risques qui oblige à faire évoluer l’usage des modèles prédictifs. Ceux-ci, d’ailleurs, se sont multipliés, ce qui introduit une complexité supplémentaire liée au choix du bon modèle. Et à supposer que les modèles pertinents soient privilégiés, leur méthodologie se trouve remise en cause par le phénomène du Big Data qui fragilise les approches basés sur des échantillonnages : en effet, avec le Big Data, ne peut-on pas tout analyser de manière quasi-exhaustive, actualiser les données facilement et les stocker encore plus aisément à faible coût ?
La seconde limite tient à ce que Fabien De Geuser appelle « l’étiologie complexe et l’endogénéité ». L’étiologie est la science des causes et, sur ce point, il faut reconnaître que les causes des risques deviennent multiples. Exemple : l’assurance-vie se base sur des tables de mortalité pour estimer les risques. « Mais, s’interroge le chercheur, la mortalité est liée, au-delà des facteurs démographiques, à des éléments liée à la qualité de vie, aux comportements sociaux et alimentaire ou à la nature de la vie de couple. » Il plaide ainsi que l’usage de modèles prédictifs plus localisés, avec, toutefois, une limite liée au manque de séries statistiques sur de longues périodes. Sans aller trop loin dans l’investigation : « On ne peut pas se baser sur n’importe quoi pour déterminer les niveaux de risques, par exemple les tests ADN », a remarqué un actuaire, participant au petit déjeuner du Cercle. Heureusement, les modèles prédictifs se heurtent, un jour ou l’autre, à une dimension éthique…
Quant à l’endogénéité, elle se traduit par le fait qu’un individu qui souscrit une assurance change de comportement, et prend plus de risques : « Il est difficile d’intégrer cette modification de comportement », reconnaît Fabien De Geuser.
Troisième élément qui perturbe le paysage : les « Unk-Unk » ou « Unknowed-Unknowed », qui sont des risques dont on ne connaît pas la probabilité de survenance ni l’univers des possibles. « Une telle incertitude renvoie à la notion de risques acceptable », a souligné le responsable des risques d’une grande entreprise de transport. Par définition, les modèles prédictifs se révèlent impuissants à intégrer des variables inconnues ! « Nous aurions bien besoin de modèles prédictifs à visée exploratoire », estime Fabien De Geuser. Pour un responsable des assurances d’une entreprise industrielle, « il faut pouvoir calculer le coût total du risque. » Hélas, dans certains secteurs, l’évolution est tellement rapide que c’est presque impossible, comme l’a confirmé un participant, représentant d’un groupe d’édition musicale.
Enfin, quatrième point d’attention, lié au précédent : comme prendre en compte les risques majeurs dont on peut connaître le champ des possibles mais pas la probabilité d’occurrence ? Si une approche rationnelle n’est plus pertinente, il restera l’approche raisonnée. « Autrement dit… une approche pifométrique », remarque Fabien De Geuser.
Plus généralement, ces tendances ont induits une multiplication et une complexification des modèles prédictifs. « Il faut absolument clarifier les critères d’évaluation des modèles prédictifs, ce qui pose la question des standards de performance et de leur pertinence en fonction de la nature des organisations et des informations disponibles », assure Fabien de Geuser. C’est même une question plus profonde : comment bien implémenter ces modèles prédictifs, quel est leur réel rapport coûts-bénéfices et quelles compétences faut-il pour les utiliser ?
Dans le monde de l’assurance, il reste des nouveaux espaces dans lesquels les modèles prédictifs peuvent se faire une large place : au-delà des espaces historiques d’analyse que sont les sinistres ou le calcul des primes, des domaines tels que le contrôle interne, le management de la performance commerciale, le marketing (segmentation, réseaux de distribution, tarification personnalisée..) ou encore les risques opérationnels, constituent des champs prometteurs pour l’utilisation de l’analyse prédictive.
Vous pouvez visualiser la présentation de Fabien De Geuser :
Laisser un commentaire