Les enjeux déontologiques liés à l’usage de l’intelligence artificielle dans la fourniture de services d’investissements

You are currently viewing Les enjeux déontologiques liés à l’usage de l’intelligence artificielle dans la fourniture de services d’investissements

Chronique juridique de Guillaume Dolidon, Dolidon Partners, avocat au Barreau de Paris.

Grâce à l'automatisation des données, à l'analyse prédictive et aux algorithmes de gestion des portefeuilles d’investissement, l’intelligence artificielle (IA) offre aux professionnels de la finance des outils toujours plus puissants pour optimiser la prise de décision, avec l’objectif d’améliorer la performance et donc la satisfaction des clients.  Son utilisation grandissante soulève cependant des questions fondamentales en matière de respect des principes déontologiques, de sorte que son encadrement est devenu essentiel. En effet, souvent opaques en termes de fonctionnement et de justification, les décisions de l’IA ne sont pas toujours explicables et le caractère systématique, et potentiellement discriminant, peut générer lui-même des conflits d’intérêts.

Les professionnels du secteur financier, tels que les prestataires de services d’investissements (PSI) ou les conseils en investissements financiers (CIF) sont soumis à des obligations déontologiques strictes, encadrées par le code monétaire et financier, le règlement général de l’AMF et la directive MiFid II que les textes internes viennent transposer, parmi lesquels figurent principalement (i) le devoir de loyauté (ou l’obligation d’agir dans l’intérêt exclusif du client, sans favoriser des intérêts propres ou ceux d’un tiers), (ii) l’obligation de prévention et de gestion des conflits d’intérêts, et (iii) l’indépendance des conseils prodigués.

Le règlement européen (UE) 2024/1689 établissant des règles harmonisées en matière d'intelligence artificielle ou « IA Act », entré en vigueur le 1er aout 2024, a introduit des règles spécifiques visant à encadrer l’IA dans divers secteurs, y compris celui de la finance. Ce dispositif impacte directement les obligations des CIF et des PSI en matière de déontologie et de responsabilité vis-à-vis des clients dans l’utilisation qu’ils peuvent faire de l’intelligence artificielle dans leur pratique professionnelle. En effet, le règlement européen classifie notamment dans la catégorie des systèmes d’IA à « haut risque » les outils de gestion automatisée de portefeuille et de conseil en investissements, les algorithmes de trading et aussi les modèles utilisés pour le scoring.

Le devoir de loyauté

Le devoir de loyauté rappelle aux professionnels de la finance qu’ils ont l’obligation d’agir dans l'intérêt exclusif de leurs clients, en exerçant leurs activités de manière honnête, équitable et professionnelle, et en leur fournissant des informations claires, exactes et non trompeuses. À cet effet, les textes prévoient notamment que les PSI et CIF doivent effectuer une évaluation préalable des besoins et du profil de risque de leurs clients, leur fournir des conseils adaptés à leurs intérêts et leur situation, et aussi garantir que leurs recommandations sont fondées sur une analyse objective.

L'intégration de l'IA dans les processus de conseil et d'investissement pourrait remettre en question le principe de loyauté lorsqu'elle est utilisée de manière opaque ou non justifiable, et donc en opposition avec les exigences en matière de transparence et d’explicabilité.

Le principe de transparence se trouve en risque si les algorithmes d'IA fonctionnent comme des « boîtes noires », rendant difficile la compréhension et la justification des décisions prises, y compris pour les professionnels qui en sont les utilisateurs. Cette opacité peut nuire à la confiance des investisseurs et contrevenir aux obligations de transparence imposées par les régulateurs.

Un autre facteur de risque qui peut conduire à une violation du principe de loyauté est celui des recommandations biaisées qui sont formulées par l’IA. En effet, une IA entraînée sur des données biaisées ou conçue, par exemple, pour maximiser les profits d’une institution particulière peut aboutir à des décisions allant à l’encontre des intérêts des clients.

L’absence de toute intervention humaine liée à l’automatisation excessive des décisions financières peut elle-même entraîner une dépendance aux algorithmes, en réduisant le rôle du jugement humain et rendant difficile la contestation des recommandations proposées par l’IA, ce qui constitue un autre facteur de risque à considérer.

Pour éviter le développement de ces risques, l’IA Act impose aux professionnels de la finance une transparence totale dans l’utilisation des outils de prise de décision pour les recommandations d’investissement et la gestion de portefeuille pour compte de tiers. Elle comprend à cet effet des mesures qui imposent :

  • Une obligation d’explicabilité des algorithmes pour garantir que les décisions prises sont claires, compréhensibles et justifiables auprès des clients et des autorités de régulation.
  • Une interdiction des décisions entièrement automatisées, dès lors qu’elles ont un impact significatif pour les clients.
  • La mise en place d’une supervision humaine systématique sur les décisions critiques qui affectent les investisseurs, de sorte que ces derniers puissent demander des explications et le cas échéant contester les décisions adoptées.

La prévention des conflits d’intérêts

Le dispositif issu de la directive MiFid II, transposé en droit interne, pose un principe fondateur de prévention des conflits d’intérêts qui impose aux CIF et PSI d’identifier les conflits d’intérêts qui peuvent porter atteinte aux intérêts de leurs clients, et de mettre en place des politiques internes de nature à prévenir et gérer lesdits conflits.

En matière d’IA, l’un des facteurs de risques majeurs est le favoritisme dans la sélection des produits qui résulterait d’un modèle développé par une institution financière pour recommander systématiquement des produits internes plutôt que des alternatives objectivement plus avantageuses pour le client.

Pour renforcer la prévention des conflits d’intérêts dans le contexte du recours à l’utilisation des algorithmes, l’IA Act exige des professionnels :

  • Un principe de neutralité des recommandations d’investissement qui suppose que les systèmes d’IA ne peuvent pas être programmés pour favoriser spécifiquement certains produits financiers.
  • L’interdiction de l’auto-préférence, de sorte que l’IA utilisée ne puisse pas privilégier les produits financiers internes de l’établissement ou institution qui l’utilise sans une justification et une explicabilité objective.
  • La mise en place de règles de gouvernance de l’IA programmée et utilisée pour garantir son indépendance.
  • La mise en place de tests et d’audits réguliers des modèles d’IA pour identifier et corriger d’éventuels biais discriminatoires.

L’indépendance et l’impartialité des conseils fournis aux clients

Le principe déontologique d’indépendance, qui est notamment traité sous l’angle de la structure de rémunération des professionnels concernés, vise à assurer une transparence totale dans la fourniture des conseils en investissements, en évitant toute influence de nature à affecter l’impartialité des recommandations effectuées.

L’IA Act rappelle que l’indépendance des conseils fournis aux investisseurs suppose que l’IA ne limite pas l’accès à des solutions variées et adaptées. À cet effet, elle impose notamment :

  • L’interdiction des biais algorithmiques dans la programmation des systèmes d’IA pour éviter toute discrimination dans l’accès aux services financiers.
  • La séparation des intérêts commerciaux et de l’IA en garantissant que les modèles d’IA ne sont pas influencés par des incitations commerciales, de type bonus ou primes sur certaines recommandations.

Portée des règles imposées par l’IA Act Européen  

L’IA Act est inédit sur le plan international par son ampleur, son caractère complet et son application à tous les acteurs, même hors de l’Union européenne.

Les sanctions prévues en cas de non-respect des obligations applicables pour les IA désignées à haut risque sont une peine d’amende pouvant aller jusqu’à 35 millions d’euros, ou 7% du chiffre d’affaires mondial.

Sur le plan pratique, ce dispositif qui, dans son intégralité, n'entrera pleinement en application qu’en 2026, va conduire à un renforcement important des équipes de conformité au sein des institutions financières qui devront se préparer à justifier et auditer tous leurs modèles d’IA.

Partager cet article