Comment contrôler les esprits que nous avons invoqués ?

L’utilisation de l’intelligence artificielle (IA) établit une frontière ténue entre création de valeur et responsabilité.

Ralf Hofstetter

Ralf Hofstetter
Director for Trust & Transparency Solutions
PwC Switzerland    

Depuis sa mise à disposition au grand public en novembre 2022, ChatGPT - le système de dialogue basé sur l’IA (« Large Language Model ») d’OpenAI - a fait les gros titres à plusieurs reprises, en bien comme en mal. Certes, le logiciel linguistique a été doté de mécanismes de protection. Malgré cela, il fournit régulièrement des informations erronées, ainsi que des réponses discriminatoires ou stéréotypées. 

ChatGPT teste les limites de la technologie

Ce n’est pas parce que les applications d’apprentissage automatique (« Machine Learning ») dépassent souvent de loin les capacités humaines qu’elles sont infaillibles, et cela ne tient pas seulement à leur potentiel technologique limité, ni aux intentions prétendument propagandistes de l’équipe de recherche OpenAI. En fait, ChatGPT se trouve actuellement dans une phase de développement précoce, à la croisée entre les attentes très élevées des utilisateurs et les limites technologiques – avec des conséquences bien visibles pour le public.

L’IA est aussi puissante que les données sous-jacentes

Le taux de reconnaissance et donc la valeur ajoutée des logiciels d’IA linguistiques comme ChatGPT dépendent essentiellement du nombre et de la qualité des données et des processus d’entraînement. Les erreurs ou les défauts de qualité de ces données et les inévitables généralisations peuvent se répercuter sur le comportement décisionnel de l’application et lui faire tirer des conclusions erronées. En d’autres termes : les données sont le facteur limitant pour une IA à apprentissage automatique. ChatGPT s’appuie sur des données dont les plus anciennes remontent à 2011. Cela ne représente donc « que » onze années de connaissances et d’expérience sous forme de données. 

La régulation suit le progrès

L’appel à des règles claires se fait de plus en plus pressant pour la mise en œuvre de l’IA, et c’est bien compréhensible. Les choses avancent sur ce terrain : avec des lois telles que le Règlement général sur la protection des données (RGPD) de l’UE ou la nouvelle loi sur la protection des données (nLPD) suisse, les instances législatives sont déjà intervenues sur le marché numérique. D’autres initiatives publiques et privées ainsi que divers labels de contrôle pour les applications d’IA sont en cours d’élaboration. Avec la « Proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle », l’UE veut renforcer la confiance dans l’IA. Et avec Algo.Rules, les développeurs peuvent s’appuyer sur un guide pratique. 

Les entreprises doivent assumer leur responsabilité numérique

Malgré les initiatives de régulation (ou d’autorégulation), les entreprises restent responsables. En effet, quiconque crée de la valeur numérique doit s’assurer qu’elle est compatible avec l’intérêt général. Cependant, les aspirations souvent divergentes de l’économie et de l’éthique créent des zones de tension. Par exemple, le respect de la vie privée dans le traitement des données personnelles peut limiter le succès économique. Les processus de recrutement automatisés peuvent nuire à la diversité du personnel. De même, l’utilisation d’un « chatbot » peut être source de déception, car certains clients préfèrent interagir avec des personnes.

Entre éthique et rentabilité

Loin d’une vision manichéenne, les solutions d’éthique numérique établissent un équilibre fragile entre création de valeur économique et entrepreneuriat responsable. Pour le préserver, les entreprises doivent orienter leurs actions selon des valeurs éthiques numériques et élaborer un code de valeurs interne. Ainsi, elles seront à même de placer leur force d’innovation technologique au service des personnes et de s’engager pour une utilisation sûre, souveraine, transparente et responsable des données et des technologies.

Une stratégie d’éthique numérique découle de la vision de l’entreprise. Elle repose sur la stratégie commerciale et les valeurs fondamentales de l’entreprise, à commencer par l’intégrité. Avec une stratégie intégrée, l’entreprise peut s’assurer que les personnes, les processus, les produits et les technologies respectent son éthique numérique à chaque phase. Un cadre modulaire facilite le processus stratégique (voir Figure 1), car les domaines de responsabilité peuvent être adaptés au contexte spécifique. 

corporate digital responsibility

Illustration 1: Une éthique numérique modulaire peut être intégrée de manière ciblée dans la stratégie de l’entreprise et les processus commerciaux. Source : PwC Allemagne

L’audit de l’éthique numérique profite aux entreprises 

Bien que les applications d’IA ne soient pas responsables en tant que produits, elles sont soumises à une obligation de rendre des comptes. Il est donc important que les lignes directrices de l’entreprise en matière d’éthique numérique soient toujours à la hauteur en cas d’examen. C’est là qu’intervient l’auditeur. Une équipe d’audit peut examiner la gouvernance de l’entreprise et s’assurer que les procédures et processus technologiques sont conformes aux principes éthiques définis, correctement mis en œuvre et publiés clairement. Grâce à un audit tout au long du processus de développement, elle peut garantir le respect de la stratégie éthique d’un produit numérique innovant. Enfin, les auditeurs peuvent évaluer les décisions algorithmiques et contrôler ainsi leur risque d’erreur.

Concevoir la numérisation en toute confiance

La fiabilité éthique des IA à apprentissage automatique commence avec leur développement et leur entraînement basé sur les données. Il est donc d’autant plus important qu’une entreprise rédige préalablement des principes d’éthique numérique et qu’elle les intègre à son processus d’innovation. En respectant des directives d’éthique numérique de manière crédible et attestée par une équipe d’audit, une entreprise contribue à concevoir la transformation numérique de manière responsable et compatible avec le bien commun, prévenant ainsi les atteintes à sa réputation et contribuant largement à la confiance durable de ses parties prenantes et de la société dans les innovations créatrices de valeur comme ChatGPT.

Trust & Transparency Solutions 

PwC aide à instaurer la transparence et la confiance pour répondre aux exigences de conformité, rester compétitif et permettre une croissance à long terme.

En savoir plus

Contact us

Ralf Hofstetter

Ralf Hofstetter

Director for Sustainability Assurance, PwC Switzerland

Tel: +41 58 792 5625

Cristian  Manganiello

Cristian Manganiello

Partner for Risk and Compliance Management Services, PwC Switzerland

Tel: +41 58 792 56 68

Jérôme Mingard

Jérôme Mingard

Director Blockchain Assurance, PwC Switzerland

Tel: +41 58 792 92 04