Bienvenue dans Les Avisés, le podcast MMA Entreprise qui décode le monde de l’assurance. Ensemble, nous rencontrons des experts MMA Entreprise qui décryptent, analysent et vous éclairent sur les risques d’entreprise. Aujourd’hui, c’est Maxence Jeunesse, Directeur Scientifique de l'Intelligence Artificielle chez Covéa, qui nous parle des risques et des opportunités de l’IA. C’est parti !
L’Intelligence Artificielle, tout le monde en parle mais sans toujours savoir ce que ça recouvre. Alors, pour commencer, pouvez-vous nous expliquer en quelques mots ce qu’est « l’Intelligence Artificielle » ?
L’intelligence artificielle, c’est un domaine qui est à la croisée des mathématiques et de l’informatique. Alors sa particularité c’est qu’il y a le mot « intelligence » dedans alors du coup c’est un mot compliqué, plein de sens, je ne vais pas me risquer à le définir, mais ce qui est certain c’est que le mot artificiel, il vient dans l’idée que c’est une machine qui va apprendre d’exemples qu’on lui aura montrés. Donc c’est vraiment cette idée d’apprentissage dans le mot « intelligence artificielle ».
Et est-ce qu’il y a différents types d’intelligence artificielle ?
Oui, il y a différents domaines à l’intérieur de l’IA. L’idée de l’IA c’est de découvrir à partir d’un contexte des patterns par exemple en finance, avec les cours de bourse, on a laissé une machine apprendre et on a vu qu’elle avait découvert un pattern, alors qui n’existe plus aujourd’hui, qui était ça monte, ça monte, ça monte et au bout de la 3e fois où ça montait, la 4e fois ça baisse. Voilà ! Donc ça, c’est un exemple quelque part de découverte de motif dans les données.
Il y a un domaine de l’IA dont on parle beaucoup en ce moment, c’est l’IA générative. C’est un sous domaine de l’IA dont l’objectif est de prédire du contenu complexe à partir d’instructions simples. Exemple : en quelques mots, je construis une image ou en quelques mots, je construis un grand texte. Et ça, c’est un sous domaine assez particulier et étonnamment, c’est très intéressant pour nous assureurs. C’est un atout pour la relation client. Grâce à l’IA générative, on va par exemple pouvoir chercher et synthétiser des recherches dans des bases de connaissances de manière plus qualitative, donc accéder plus facilement à l’information. On va pouvoir par exemple résumer un entretien téléphonique ou alors remplir des formulaires à partir d’un échange non structuré. Donc ça va permettre finalement pendant la conversation qu’on a avec nos sociétaires de nous donner plus de temps pour se concentrer sur ces échanges et confier à l’outil finalement des taches plus administratives.
Est-ce que vous voyez d’autres exemples concrets d’usages de l’IA chez Covea ?
Il y a un exemple auquel je pense qui est l’analyse des dispositions spécifiques des contrats d’assurance MMA. On dans certains contrats le besoin d’ajouter des dispositions spécifiques pour couvrir des risques différents des risques standards. Dans ce cas-là, il peut y avoir une incompréhension et de notre part mais aussi de la part l’assuré, des risques et des garanties qui sont offertes par ces dispositions donc on a construit un outil qui permet de détecter les dispositions un petit peu on va dire extraordinaires qui sont ensuite revues et qui du coup permettent à nous mais aussi au sociétaire de s’assurer que les garanties de son contrat sont bien les bonnes.
Et y a-t-il de nouveaux usages à venir ?
Oui, bien sûr ! On travaille aujourd’hui avec la filiale de protection juridique du Groupe Covéa à construire un assistant conversationnel qui va venir en soutien des conseillers qui font de l’information juridique. C’est-à-dire qui répondent à des questions un petit peu d’ordre général sur les questions de droit. Et donc on est en train de construire un outil qui va répondre à ces questions. On est là dans un cas typique d’usage d’IA générative.
A contrario, en tant qu’assureur, quels sont les risques liés à ces nouvelles technologies ?
Il y a un premier risque qui est le risque de sortie incohérente et d’effet boite noire. Mais ça c’est un risque qui existe au-delà de l’IA générative, qui existe avec ces modèles d’IA qui sont de plus en plus complexes. C’est des risques sur lesquels on travaille et on y travaille dans ma direction en étudiant attentivement les modèles qu’on va déployer, on essaye de bien les comprendre. Donc c’est de cette manière qu’on essaye de maitriser ce premier risque.
Il y a un deuxième risque qui nous concerne moins, c’est les modèles d’IA générative ils ont appris en partie sur des données propriétaires, des données sur lesquelles il y a une question de propriété intellectuelle donc il peut y avoir quelques risques légaux. Là, ici, si on est dans un sujet typique par exemple de résumer une conversation téléphonique ou de produire une réponse de droit à partir d’une base de connaissances, on n’a pas vraiment ce problème, on peut l’évacuer.
Il y a un autre risque qui est le risque de dépendance à des infrastructures techniques couteuses parce que on sait que c’est des modèles qui nécessitent on va dire des ordinateurs un peu spécifiques. Donc aujourd’hui on le fait on va dire en louant ces ordinateurs spécifiques, on peut se poser la question peut-être d’en acheter de ces ordinateurs spécifiques pour pouvoir vraiment faire tourner nous-mêmes les modèles sur nos propres ordinateurs. Mais ça c’est des questions qui existent avant l’IA et qui existent de tout temps finalement pour gérer un parc informatique.
Il y a un dernier risque qui est très important c’est le risque de fuite de données notamment avec les outils gratuits. Ce qui se passe c’est que les conversations que vous avez avec cet outil, elles vont servir pour entrainer, pour améliorer le modèle. Et en fait dans ce mécanisme d’entrainement et d’apprentissage, il peut se mettre à retenir des informations que vous avez finalement communiquées dans ces conversations. Et de cette manière finalement une information que vous auriez communiquée dans cette conversation va se retrouver plus tard disséminée ailleurs.
Comment se prémunir de ces risques ?
Je vais parler spécifiquement du ChatGPT. Chat GPT, c’est cet outil où vous pouvez vous mettre à converser en langage naturel, un peu comme sur un Whatsapp, avec un bot qui va vous répondre de manière assez fluide, vraiment des réponses… c’est assez bluffant. C’est très utile, ça permet plein de choses mais ce qu’il faut retenir c’est que, il y a une version gratuite notamment, et cette version gratuite, elle ne garantit pas qu’il n‘y aura pas de fuite de données. J’expliquais tout à l’heure que les conversations que vous allez avoir avec cet outil vont être peut être quelque part répétées ailleurs parce qu’elles vont servir pour faire apprendre le modèle. Et donc c’est pour ça qu’il y a cette fuite de données. Donc le premier réflexe c’est de se dire « Quand j’ai un Chat GPT gratuit ou un outil d’IA gratuit, c’est que vous êtes le produit ». Du coup, peut être ce qu’il faut se dire c’est, fondamentalement, quand j’utilise un outil comme cela c’est comme si je posais des questions sur un forum public.
Donc restons prudents.
Pour terminer, quel est votre conseil avisé d’expert s’agissant de l’Intelligence Artificielle?
Peut-être de rappeler que l’IA, c’est un sport collectif. C’est des experts métiers, de la donnée qui va permettre de construire l’outil d’IA à partir de la procédure d’apprentissage et puis des experts data et IA. Donc c’est en travaillant tous ensemble qu’on va pouvoir construire des outils d’IA.
Merci beaucoup Maxence pour votre éclairage. À très bientôt dans Les Avisés, le podcast MMA Entreprise qui décode le monde de l’assurance.