Utilisation de l’intelligence artificielle sur le marché financier suisse (2023)

L’intelligence artificielle a fortement gagné en importance ces dernières années dans tous les domaines de la vie, y compris sur le marché financier. Conformément à ses objectifs stratégiques 2021-2024, la FINMA soutient l’innovation sur la place financière suisse et traite les risques qui y sont liés.

Il ressort des enquêtes menées que la plupart des établissements en sont encore au stade de l’expérimentation en matière d’intelligence artificielle. Certaines entreprises disposent toutefois déjà d’applications avancées qui nécessitent des processus de gestion des risques adéquats. Depuis la disponibilité de robots conversationnels (chatbots) comme ChatGPT, l’intérêt pour les solutions d’intelligence artificielle a encore nettement augmenté. On peut s’attendre à ce que l’intelligence artificielle entraîne aussi des changements sur le marché financier.

Pour la FINMA, l’utilisation de l’intelligence artificielle recèle des défis particuliers dans les quatre domaines présentés ci-dessous. Elle attend du secteur financier que celui-ci traite les risques en conséquence.

Gouvernance et responsabilité : les décisions sont susceptibles de reposer toujours plus sur les résultats obtenus par l’intelligence artificielle, voire d’être prises de manière autonome par celle-ci. Combiné à la difficulté d’expliquer les résultats obtenus par l’intelligence artificielle, cela complexifie le contrôle et l’attribution des responsabilités concernant les actions découlant de l’utilisation de l’intelligence artificielle. Le risque augmente donc que des erreurs passent inaperçues et que les responsabilités ne soient pas clairement établies, en particulier en ce qui concerne des processus complexes à l’échelle de l’entreprise et lorsque le savoir-faire est insuffisant. Le robot conversationnel ChatGPT fournit par exemple des réponses tellement convaincantes qu’il est difficile pour l’utilisateur d’évaluer si elles sont effectivement correctes alors qu’elles reposent simplement sur la probabilité la plus élevée.

Il faut définir et mettre en œuvre des rôles et des responsabilités ainsi que des processus de gestion des risques clairs. Il n’est pas admis de déléguer la prise de décisions à l’intelligence artificielle ou à des tiers. Toutes les parties concernées doivent disposer d’un savoir-faire suffisant dans le domaine de l’intelligence artificielle.

Robustesse et fiabilité : le processus d’apprentissage des modèles d’intelligence artificielle repose sur de grandes quantités de données. Cela recèle notamment des risques liés à une mauvaise qualité des données (par ex. la non-représentativité). De plus, les modèles d’intelligence artificielle s’optimisent automatiquement, ce qui peut entraîner une mauvaise évolution des modèles (appelée drift). Selon la Harvard Business Review, la majorité des algorithmes d’intelligence artificielle utilisés pour pronostiquer les contaminations à la COVID-19 ont ainsi échoué. Ces applications n’étaient pas suffisamment fiables pour être utilisées de manière autonome. Enfin, l’utilisation accrue de l’intelligence artificielle et l’augmentation des externalisations et des solutions cloud qui l’accompagnent entraînent aussi une augmentation des risques en matière de sécurité informatique.

Lors du développement, de l’adaptation et de l’utilisation de l’intelligence artificielle, il convient de s’assurer que les résultats sont suffisamment précis, robustes et fiables. À cet égard, il faut examiner d’un œil critique aussi bien les modèles que les résultats.

Transparence et explicabilité : du fait du grand nombre de paramètres et de la complexité des modèles, il est souvent impossible de comprendre l’influence de chaque paramètre individuel sur le résultat obtenu par l’intelligence artificielle. Or, si on ne comprend pas comment les résultats sont obtenus, les décisions prises en ayant recours à l’intelligence artificielle risquent d’être ni explicables, ni compréhensibles, ni vérifiables. Il devient ainsi plus difficile, voire impossible, pour les établissements concernés, les sociétés d’audit ou les autorités de procéder à des contrôles. De plus, les clients peuvent ne pas évaluer correctement les risques encourus s’ils ne sont pas informés de l’utilisation de l’intelligence artificielle. L’utilisation de l’intelligence artificielle pourrait par exemple rendre les tarifs d’assurance incompréhensibles et il ne serait plus possible de les expliquer de manière transparente aux clients.

L’explicabilité des résultats obtenus par une application ainsi que la transparence concernant son utilisation doivent être assurées en fonction du destinataire, de la pertinence et de l’intégration dans les processus.

Égalité de traitement : de nombreuses applications d’intelligence artificielle utilisent des données personnelles pour évaluer les risques individuels (par ex. tarification, octroi de crédit) ou pour développer des services personnalisés. Si les données relatives à différents groupes de personnes ne sont pas disponibles en quantité suffisante, les résultats obtenus pour les groupes en question peuvent être faussés ou erronés. Si l’on propose ensuite des produits et des services sur la base de ces résultats erronés, on peut aboutir à une inégalité de traitement involontaire et injustifiable. Outre les risques juridiques, les inégalités de traitement recèlent aussi des risques de réputation.

Toute inégalité de traitement injustifiable doit être évitée.

La FINMA a discuté et développé ses attentes concernant l’utilisation de l’intelligence artificielle avec le secteur financier, des autorités et des organisations nationales et internationales ainsi qu’avec les milieux scientifiques.

La FINMA examinera l’utilisation de l’intelligence artificielle par les assujettis. Elle continuera aussi d’observer de près l’évolution de l’utilisation de l’intelligence artificielle dans le secteur financier, d’échanger avec les parties prenantes concernées et de suivre les développements internationaux.

(Extraits du Monitorage des risques 2023)

Monitorage FINMA des risques 2023

Dernière modification: 09.11.2023 Taille: 0.52  MB
Ajouter aux favoris
Backgroundimage