L’intervention humaine face à l’intelligence artificielle dans le secteur financier

Vous êtes en train de consulter L’intervention humaine face à l’intelligence artificielle dans le secteur financier

Face à la montée en puissance de l’intelligence artificielle, les acteurs financiers doivent adapter leur gouvernance pour concilier automatisation des processus et intervention humaine. Chronique juridique de Marie-Aude Noury, avocat au Barreau de Paris, associée, Squair A.A.R.P.I.

Le recours à l’intelligence artificielle dans le secteur financier est aujourd’hui tant multiple que croissant. Les opportunités offertes aux acteurs régulés pour plus d’efficience notamment dans le traitement d’une très grande volumétrie de données, l’accomplissement de tâches répétitives, voire l’identification de discordances dans la documentation ou d’anomalies dans les comportements sont nombreuses. Les récents entretiens AMF - AEFR tenus à l’automne 2025 en font écho[1]. Le sujet a naturellement été embrassé par les régulateurs[2] ainsi que par la communauté financière[3].

Multiplicité des cas d’usage de l’IA par les acteurs financiers, défis réglementaires et nouveaux risques

Les opportunités identifiées pour le secteur financier sont multiples pour l’ensemble des acteurs (banque, entreprise d’investissement, assurance, gestion d’actifs) que ce soit par exemple pour l’octroi de crédit, la gestion des risques, le trading algorithmique, les robo-advisors, la relation client ou la conformité réglementaire.

Face à ces cas d’usage, les acteurs régulés sont naturellement astreints au respect des réglementations existantes, lesquelles ont été initialement pensées au regard de l’intervention humaine.

Elles doivent également satisfaire un corpus réglementaire complexe, protéiforme, évolutif, que ce soit le règlement sur l’intelligence artificielle, les règlements DORA ou RGPD.

L’utilisation croissance de l’IA par les acteurs financiers réduit les risques liés à la défaillance humaine mais expose à de nouveaux risques liés à l’IA (risques technologiques, qualité des données, biais, hallucinations, vulnérabilités exacerbées avec risques systémiques, cyber-attaques...).

Dans ce contexte, l’Esma a rappelé que les organes de gestion restent responsables des décisions, que celles-ci soient prises par des personnes ou des outils basés sur l'IA et l’importance du jugement humain[4].

L’intervention humaine

La frontière peut être ténue entre l’usage de l’IA comme support à la décision humaine et l’usage de l’IA comme décisionnaire. La décision purement automatisée soulève plusieurs questions et difficultés[5]

A l’heure actuelle, la part des fonds d’investissement promouvant formellement l’utilisation de l’IA dans le processus d’investissement semblerait minoritaire, au contraire d’une utilisation principalement au soutien des décisions d'investissement prises par l’homme et pour améliorer la productivité de certaines activités telles que la gestion des risques, la conformité et les tâches administratives[6].

L’Esma souligne la nécessaire compréhension par le management des modèles d’IA déployés et la nécessité de mécanismes de surveillance humaine, permettant de contrôler les résultats produits par l’IA.[7]

Une gouvernance repensée

Les acteurs financiers sont incités à intégrer l’IA dans leurs dispositifs de gouvernance globale[8], effectuer des tests réguliers du modèle, s’assurer que les données entrées dans les systèmes d'IA sont pertinentes, suffisantes et représentatives, surveiller et évaluer les processus. 

Un certain nombre de mesures peuvent être mises place et documentées (comité de supervision de l’IA, mise en place d’audits réguliers, plan de continuation, formation des équipes...).

Cette gouvernance doit répondre aux deux défis spécifiques posés par l’IA en raison de l’opacité des systèmes, que sont l’exigence de transparence et d’explicabilité, autrement dit la capacité à comprendre et à expliquer comment les décisions ont été prises.

Une telle gouvernance sera nécessaire aux acteurs financiers pour répondre aux défis naturellement évolutifs de l’IA et aux risques de contentieux que l’on peut pressentir face à des décisions automatisées, insuffisamment transparentes et peu explicables.

Naturellement, les régulateurs tout comme les superviseurs, au plan international et national, portent de tels défis et évolutions au cœur de leurs priorités pour cette nouvelle année.

[1] Conférence AMF - AEFR sur les frontières technologiques dans le domaine financier, 3 octobre 2025

[2] Voir récemment « Mettre en œuvre une surveillance efficace de l’IA dans le secteur financier », Denis Beau, Premier sous-gouverneur de la Banque de France, mis en ligne le 12 décembre 2025, Banque de France

[3] Rapport HCJP sur les impacts juridiques et réglementaires de l’intelligence artificielle en matière bancaire, financière et des assurances, 20 juin 2025 

[4] ESMA, Public Statement on the use of Artificial Intelligence (AI) in the provision of retail investment services strategies and portfolio exposures (ESMA35-335435667-5924), 30 mai 2024

[5] Voir en ce sens rapport HCJP précité

[6] ESMA, Artificial intelligence in EU investment funds: adoption, strategies and portfolio exposure (ESMA50-43599798-9923), 25 février 2025 

[7] ESMA35-335435667-5924, précité

[8] IOSCO, Artificial Intelligence in Capital Markets : Use Cases, Risks and Challenges, Consultation Report, CR/01/2025, mars 2025

Partager cet article