S’ils ont dû créer de
nouveaux postes et faire évoluer les missions de certains services, les acteurs
du secteur se sont rapidement approprié cette technologie. Les plus prompts à
s’adapter ont été ceux « qui maîtrisaient déjà la donnée et la
confidentialité avec les dimensions de compliance nécessaires », a considéré Philippe Poirot, directeur EMEA financial services industry
chez Microsoft, lors du Forum Fintech, lundi 14 octobre.
Bientôt deux ans après le
lancement du Chat GPT d’OpenAI, l’IA générative a envahi la sphère économique
et notamment le secteur financier, souligne Olivier Fliche, directeur du pôle
Fintech Innovation de l'Autorité de contrôle prudentiel et de résolution (ACPR) et animateur d’une table ronde organisée à l’occasion du
Forum Fintech, le 14 octobre dernier.
Comme l’indique Philippe
Poirot, directeur EMEA, financial services industry chez Microsoft, « la
plus grande rupture, c’est l’interface en langage naturel ». Et si ceci
explique son succès immédiat auprès du grand public - en seulement un
mois, environ 100 millions d'utilisateurs avaient utilisé Chat GPT - au-delà,
l’IA générative a eu des impacts considérables sur certains métiers du secteur
financier. Léa Deleris, responsable IA et Tech, Risque/Conformité chez BNP
Paribas, explique qu’auparavant, ses équipes passaient plus de temps sur
la détection de la fraude, sur le blanchiment d'argent, la sanction et sur l'investigation.
Désormais, ces dernières traitent davantage de cas s’appuyant sur un corpus
documentaire, notamment la réglementation, les procédures, la rédaction des
décisions et les contrôles. « D’ailleurs, les modèles
multimodaux sur les contrôles vont nous être très utiles »
déclare-t-elle.

Léa Deleris, responsable IA et tech, risque/conformité chez BNP Paribas, explique qu'avec l'IA générative, ses équipes traitent moins de détection de la fraude que de réglementation et procédure
Par ailleurs, selon
Christophe Bourguignat, co-fondateur et directeur technique de Zelros, une
start-up qui développe des solutions pour les assureurs, le métier de data
scientist a beaucoup évolué. Cela est notamment dû « au caractère
pré-entrainé, prêt à l’emploi de ces grands modèles de langage »
explique-t-il. Auparavant, lorsqu’un data scientist voulait développer, par
exemple, un algorithme de classification dans le domaine assurantiel de facture
de sinistre, il devait entraîner des modèles spécifiques à chaque tâche, se
doter de centaines de milliers d'exemples pour mener à bien cet apprentissage.
Or, depuis la naissance de l’IA générative, les modèles de langage savent
comprendre, avec très peu d’entraînement, une facture, une photographie, etc.
L’essor de cette nouvelle
technologie a eu un autre impact : les entreprises ont dû embaucher
davantage d’ingénieurs en développement logiciel afin « d’intégrer
ces fameux langages de modèles dans des interfaces d'entreprises et sur le
poste de travail des collaborateurs », indique Christophe Bourguignat.
En outre, ajoute-t-il, « ces grands modèles ont besoin d'être mis en place
en temps réel, en haute disponibilité et de façon sécurisé ». D’où l’émergence
d’un nouveau métier : l’ingénieur DevOps, une fonction qui allie
savoir-faire informatique et gestion de projet.
Des investissements
conséquents
Selon Philippe Poirot, dès les
prémices de l’IA générative, un grand nombre d’acteurs du monde de la finance se
sont approprié cette nouvelle technologie : « Beaucoup ont commencé par
de l'expérimentation et certains sont passés à l'échelle parce qu’ils avaient
une maturité un peu plus forte. » Ces derniers étaient notamment dotés
d’équipes plus conséquentes et d’une expérience des plateformes de Cloud. En
tout cas, les entreprises les plus rapides à s’adapter ont été celles qui
avaient déjà embauché des datas scientists, qui maîtrisaient la donnée et la
confidentialité avec les dimensions de compliance nécessaires :
« Un leader ne se réveille pas avec l’IA générative, il s'est réveillé
avant » affirme-t-il.
Ainsi, dès le départ, « Microsoft
s’est alliée avec OpenAI, révèle le directeur EMEA financial services
industry de Microsoft, la stratégie a été immédiatement d'infuser nos
solutions d’IA générative. » L’entreprise a donc fait des
investissements conséquents : « La plupart
d’entre vous utilisent Microsoft 365. Le but était de créer des copilotes,
c’est-à-dire d'être en appui de l'utilisateur par rapport à ces solutions »
déclare Philippe Poirot.
La
deuxième initiative de Microsoft a été de mettre à disposition de tous,
particuliers et entreprises, des modèles d’IA sur la plateforme Azure. À l’heure
actuelle, 1 800 modèles sont disponibles sur cette plateforme. Philippe Poirot indique
également qu’en mai dernier, Microsoft a investi 4,5 milliards d’euros en France
avec notamment un data center à côté de Mulhouse. L’objectif est d'accompagner
2 500 start-ups sur des programmes liés notamment à l’IA générative. « On
peut aussi les incuber et les accélérer à la Station F » rajoute
celui-ci. À l’heure actuelle, une douzaine de start-ups bénéficient d’un
accompagnement sur l’IA générative au sein du plus grand incubateur de Paris.
« Dès qu’il y a eu le
buzz autour de Chat GPT, on a réfléchi à comment positionner les acteurs
français et européens sur la chaîne de valeur de l'intelligence artificielle,
et ce en commençant par les infrastructures de l’IA générative »
confie de son côté Guillaume Avrin, coordinateur national pour l'intelligence
artificielle à la Direction générale des entreprises.
Ce dernier rappelle que la
France bénéficie d’une « compétence historique » sur
l'intégration de supers calculs pour entraîner des modèles. La première
initiative a donc été d’investir 40 millions d’euros dans le supercalculateur
public du CNRS nommé Jean Zay. A également été décidé le financement, à hauteur
de 500 millions d’euros, d’un supercalculateur de classe exascale. Celui-ci verra
le jour en 2026 et se nommera Alice Recoque, en hommage à une ingénieure
française, pionnière de l’informatique.
Les entreprises « plus
flexibles » ?
« On
a dû évoluer très rapidement » confie pour sa part Christophe Bourguignat.
En effet, avant l’arrivée de ces grands modèles pré-entraînés, certains cas
d’usage ne pouvaient absolument pas être réalisés en interne. Or, avec l’IA
générative, cela a été rendu possible pour certaines institutions financières.
Les besoins des mutualistes, des banques et des assureurs n’ont plus été tout à
fait les mêmes : « On était plutôt côté distribution et certains partenaires
nous ont interrogés sur des cas de gestion de sinistres. Auparavant, on leur
aurait dit : « ce n’est pas du tout notre spécialité »
[…] maintenant on leur dit qu’on peut le faire ».
Pour
le co-fondateur de Zelros, l’IA générative a conduit les entreprises à être
plus « flexibles » et a aussi permis de « bouger les
lignes », et notamment de « parler de co-construction et ainsi de
casser cette dualité entre faire en interne ou externaliser ».
Reste
que l’arrivée de ces grands modèles de langage « extrêmement gourmands
en ressources », selon les termes de Christophe Bourguignat, fait naître
des préoccupations en termes d’impacts sur l’environnement. L’objectif
serait de « réconcilier l’IA générative avec ces enjeux de
frugalité, de confiance, d'embarquabilité qui répondent à nos grands enjeux
écosystémiques », affirme Guillaume Avrin. Pour l’instant, c’est
encore loin d’être le cas.
Maria-Angélica
Bailly