La réglementation de l’intelligence artificielle est-elle un frein à l’innovation ou plutôt un levier ?

Le 12/01/2023

Cet article vous est proposé par Numalis, exposant au SIDO

La standardisation de l’intelligence artificielle se confronterait aux principes d’innovation, tel est le débat d’actualité qui anime nombre d’experts sur le sujet. Mais alors, qu’en est-il vraiment ?

La standardisation va-t-elle mettre fin à l’innovation technologique et va-t-elle causer un nouvel « hiver » de l’intelligence artificielle ? (1)

Certes la standardisation peut ralentir les processus d’innovation, mais les impacts sont à mitiger. Plutôt qu’en être inhibitrice, la standardisation s’est mainte fois révélée être vectrice d’innovation.

Après avoir défini les termes, cet article commencera par présenter les arguments vis-à-vis d’un besoin de standardisation pour les technologies d’IA, pour ensuite revenir sur la controverse de l’innovation face à la standardisation.

 

1. DÉFINITIONS

QU’EST-CE QUE L’INNOVATION ?

L’innovation est le processus de créer quelque chose de nouveau, de différent ou de meilleur, qui peut inclure de nouveaux produits, de nouveaux procédés, de nouvelles idées ou de nouveaux modèles commerciaux. L’innovation peut résulter de l’amélioration d’un produit ou d’un service existant ou de la création d’un produit ou d’un service totalement nouveau. Elle peut également inclure des améliorations dans les processus, les méthodes de travail et les structures d’organisation. L’innovation est souvent liée à la croissance économique et à l’amélioration de la qualité de vie.

Par exemple, dans le secteur du transport, les innovations tels que les trains à vapeur, les automobiles et les avions ont considérablement réduit les temps de voyage et ont facilité les échanges commerciaux et les contacts sociaux.
Concernant l’intelligence artificielle, les innovations basées sur l’apprentissage automatique peuvent être utilisées pour diagnostiquer des maladies comme le cancer de la peau ou la maladie d’Alzheimer, en utilisant des images médicales ou des résultats d’examen, permettant aux médecins de diagnostiquer plus rapidement et plus précisément.

QU’EST-CE QUE LA STANDARDISATION ?

La standardisation est le processus de définir et d’établir des normes, des spécifications, des protocoles et des règles qui régissent la fabrication, l’utilisation, la performance et la sécurité d’un produit, d’un service ou d’un système. Ces normes peuvent être établies par des organisations de normalisation, des gouvernements ou des industriels, et elles peuvent être volontaires ou obligatoires. La standardisation a pour but de garantir l’interopérabilité, la qualité, la sécurité et la compatibilité des produits et des systèmes.

Contrairement à ce qu’elle pourrait laisser penser, la standardisation peut faciliter l’innovation, comme par exemple dans la télécommunication où les normes pour les réseaux de téléphonie mobile tels que GSM ont permis la création d’un marché mondial pour les téléphones mobiles. Ceci a stimulé l’innovation dans les technologies de téléphonie mobile et a permis aux fabricants de produire des appareils compatibles entre eux. Mais qu’en est-il de la standardisation en intelligence artificielle ?

2. POURQUOI Y-A-T-IL BESOIN DE STANDARDISATION EN INTELLIGENCE ARTIFICIELLE ?

Tout d’abord, il est important de comprendre que la standardisation en IA n’est pas un exercice à but limitatif, mais plutôt une nécessité pour garantir la sécurité des systèmes automatisés et pour éviter les risques pour les individus. Les secteurs critiques tels que l’aéronautique et l’automobile ont besoin de certifications pour garantir la fiabilité des systèmes utilisés (2).

Ainsi, un enjeu prédominant en intelligence artificielle est l’utilisation de ces systèmes dans des secteurs critiques, où la sûreté est au cœur des activités. Or il est bien connu que les systèmes d’IA sont souvent comparés à des boîtes noires pour lesquelles il est difficile d’expliquer le fonctionnement et à fortiori de pouvoir assurer la fiabilité. Cependant les secteurs critiques ont besoin d’assurance. Ainsi, est-il concevable de commercialiser des automobiles qui ne passeraient pas les tests d’Euro NCAP ou de faire voler des avions qui ne seraient pas certifiés par l’EASA ? Ou encore est-il convenable de commercialiser des médicaments qui n’ont pas obtenu d’autorisation de mise sur le marché ? De la même façon, il y a un réel besoin de validation de l’intelligence artificielle, et la standardisation de cette validation permettra également d’instaurer la confiance vis-à-vis de ces systèmes.

D’autres éléments poussent également à la standardisation de l’IA. Tout d’abord, il y a le problème des biais auxquels sont souvent soumises les IA. Ces biais viennent en majorité des données qui sont utilisées pour entraîner les algorithmes de machine learning. Les enjeux de gouvernance des données ont déjà été perçus, notamment au travers de la RGPD, mais il y a également d’autres enjeux qui ont leur importance : qualité, confidentialité, sécurité des données. La qualité des données est une source principale de problèmes en lien avec les biais et la capacité de réponse à cet enjeu est donc primordial. Justement, la standardisation pourrait permettre de mettre en avant cet aspect, tout en permettant de valider la robustesse des algorithmes.

L’interopérabilité est un autre sujet qui amène à penser que la standardisation permettrait d’assainir la situation. Effectivement, avec la multiplication des IA, les environnements spécifiques de développement se multiplient également. Ainsi, certaines couches de réseaux de neurones qui pourraient être nécessaires dans un environnement ne seront pas forcément supportées dans un autre. Ce qui implique un certain nombre de pénibilités dans les conversions d’un environnement à un autre, ainsi que de potentiels risques de fonctionnement, notamment si l’environnement opérationnel d’un algorithme n’est pas le même que celui de développement. Afin de rendre les IA plus interopérable, il faut donc convenir de normes communes qui permettront de facilier les adoptions et les associations d’algorithmes.

Enfin, les problématiques éthiques et juridiques sont les deux dernières notions qui seront présentées pour illustrer les mérites de la standardisation des IA.
Ces problématiques peuvent être révélées avec le cadre d’une utilisation d’IA de prise des décisions en matière d’embauche ou d’obtention de prêts financiers par exemple. Pour des questions éthiques, afin d’éviter les discriminations, il est important de s’assurer que l’IA prenne des décisions justes et équitables et donc qu’il existe des mesures de protection contre les biais.
Quant à l’aspect juridique, il est important pour répondre à la question de responsabilité dans le cas d’un litige dû à un dysfonctionnement. Si un problème se produit avec une IA, il faut être en mesure de pouvoir désigner un responsable. Mais qui du fabricant de l’IA ou de l’utilisateur serait à blâmer ? Ainsi, pour protéger tout un chacun, il semble important de mettre en place des politiques et des procédures claires en matière d’IA, avec que des mécanismes permettant de faire appliquer ces politiques et de traiter toute violation ou infraction.
C’est dans ce cadre que la standardisation prend également tout son sens, pouvant ainsi contribuer à garantir que les développements soient effectués de manière responsable et éthique, pour servir au mieux l’adoption de l’IA dans la société.

Ainsi, de nombreuses raisons amènent à penser qu’une standardisation est nécessaire en matière d’intelligence artificielle (3). Cet alignement pourra tout simplement permettre un développement plus opérationnel de l’IA dans nos vies, en autorisant que cette technologie puisse sortir des laboratoires pour être utilisée plus ouvertement. Cependant, il semble alors nécessaire d’arriver à avoir un cadre sécurisé dans lequel la confiance sera de mise, à l’image des standardisations dans les autres domaines tels que l’aéronautique ou l’automobile.

3. COMPRENDRE LA CONTROVERSE

Malgré les réels besoins exprimés en matière de standardisation des IA, des craintes se propagent concernant le fait que l’innovation se retrouverait limitée par l’instauration d’un cadre trop rigide. Nombre de personnes pensent que la standardisation va empêcher les entreprises d’agir selon leur volonté concernant l’IA.

Il est vrai que la standardisation peut représenter un risque pour l’innovation, en imposant un certain nombre de règles qui ne permettraient plus de penser « hors du cadre » et qui limiteraient les utilisations. Par ailleurs, la standardisation a déjà pu limiter le développement de l’intelligence dans certains secteurs, tel que celui de l’aéronautique. C’est un fait, les standards actuels ne permettent pas l’utilisation de l’IA dans les avions ; ce qui implique que les recherches sont plus lentes que dans d’autres domaines où l’implémentation d’IA peut être plus simple. Cependant, la balance entre les valeurs ajoutées à la standardisation et les potentiels risques est indubitable, notamment concernant l’implémentation de l’IA. Tout simplement, à quoi bon conserver une totale « liberté » dans le développement des IA si l’utilisation de ces systèmes reste impossible dans la majorité des cas, car jugée trop risquée ?

Plus généralement, il peut également exister une aversion vis-à-vis de la standardisation et du fait qu’il a toujours été difficile pour certains de devoir se plier à des règles strictes. A l’époque de l’agilité, les cadres « rigides » peuvent être perçus comme un frein pour cette dernière, et ce même si des communautés agilistes reconnaissent que la standardisation est tout de même nécessaire et pas forcément antinomique à l’innovation (4).

Quoi qu’il en soit, l’innovation peut toujours avoir lieu. Dans la pire des situations, elle est effectuée en laboratoire sans être déployée en attendant que la standardisation s’adapte pour l’inclure. C’est exactement le cas pour l’IA dans l’aviation ou encore dans le transport ferroviaire, qui attendent que les standards évoluent pour permettre d’inclure cette technologie dans ces moyens de transports. Il est également important de noter que la standardisation ne doit pas être vue comme un processus statique mais plutôt comme un processus continu. Les normes et les standards doivent être révisés et mis à jour régulièrement pour s’assurer qu’ils restent pertinents et efficaces face aux évolutions technologiques.
Ce qui serait surtout à craindre sans standard, serait la mise sur le marché d’IA dont on ne peut pas valider l’éthique, la robustesse, ou encore dont on ne peut pas expliquer le fonctionnement.

Également, des solutions existent pour limiter au maximum l’impact de la standardisation sur l’innovation (5). Il est par exemple possible de concentrer la standardisation sur les résultats et non sur les procédés. C’est-à-dire que pour les biais par exemple, il est possible de standardiser le fait d’avoir des algorithmes dans les systèmes d’IA qui ne présentent pas de biais, sans pour autant standardiser tout un processus de développement permettant d’obtenir un algorithme non biaisé. Il semble plus important de se concentrer sur la validation que sur la conception en tant que telle.

 

Dans tous les cas, il est à noter que la standardisation, telle qu’elle est prévue dans l’AI-Act, le projet européen de normalisation, n’est exigeante que pour les systèmes considérés comme critiques (6). C’est-à-dire qu’ils représentent un risque potentiel pour les êtres humains, comme dans les applications médicales, les véhicules autonomes, les systèmes de surveillance ou encore les systèmes potentiellement discriminatoires. Il est évident que ce genre d’utilisation doit être soumis à des contrôles poussés, pour sécuriser les algorithmes et assurer leur fiabilité pour éviter de mettre en danger des humains. Cependant des IA qui ne seraient pas à risque, comme des IA de traitement de mails par exemple, n’auront que très peu de contrôles. Ainsi, les applications d’intelligence artificielle ne seraient pas affectées en totalité par la standardisation.

Enfin, la standardisation de l’intelligence artificielle ne mettra pas un terme à la volonté d’accompagnement et d’incitation à l’innovation. Effectivement, l’intelligence artificielle est considérée comme une technologie de première importance pour de nombreuses organisations qui sont prêtes à aider pour son développement. En France, des fonds comme la BPI proposent des aides au développement d’innovations à base d’IA (7). C’est également le cas au niveau européen avec un plan d’actions de la commission européenne concernant le développement de l’IA (8). Les aides sont nombreuses et elles pourraient même être plus importantes dans le cadre d’un environnement standardisé, puisque comme expliqué précédemment de forts besoins de standardisation sont ressentis pour permettre d’accélérer le déploiement de la technologie.

 

CONCLUSION

Pour conclure, aujourd’hui les besoins concernant la standardisation et la régulation de l’intelligence artificielle sont clairement exprimés, notamment pour permettre d’implémenter réellement et plus largement ces systèmes automatisés dans la société. En IA la standardisation n’a pas vocation à détruire l’innovation, mais seulement à instaurer un cadre de confiance pour faciliter les déploiements. Actuellement, des standards internationaux sont développés concernant les technologies d’IA, notamment au sein de l’ISO avec les standards de la série 24029 (9). L’Europe développe également son cadre, un peu dans le même principe que pour le règlement RGPD, qui se prénomme AI-Act et qui sera notamment basé sur ces mêmes standards ISO. Les initiatives pour la régulation de l’IA se développent de plus en plus et devraient pour beaucoup arriver à échéance autour de 2025. Par exemple, dernièrement, l’UE vient d’adopter deux propositions concernant les aspects de responsabilité des IA, facilitant les actions juridiques en cas de litige (10).

Retrouvez tous nos articles sur : https://numalis.com/publications.php

Lire l’article sur le site de l’exposant