Régulation de l’IA : frein ou catalyseur de l'innovation ?
Comment la régulation de l'IA influence-t-elle l'innovation ? Quelques éléments de réflexion sur ce sujet qui fait débat.
RÈGLEMENTATION
La relation entre la réglementation et l'innovation est complexe et fait l'objet de nombreux débats. Ceux-ci ont ressurgi avec vigueur lors des négociations entourant la rédaction du Règlement européen sur l’IA, aussi dénommé AI Act, publié finalement en juillet 2024, certains affirmant qu’une réglementation comme l'AI Act va freiner l'innovation en imposant un cadre trop rigide. Qu'en est-il vraiment ?
Des risques qui doivent être maîtrisés
L'intelligence artificielle (IA) offre de nombreuses opportunités, mais son développement rapide a fait naître des préoccupations quant aux risques qu'elle peut présenter. Les systèmes d'IA peuvent avoir un impact direct sur la santé et la sécurité des personnes, les droits fondamentaux des individus, notamment en matière de vie privée et de protection des données personnelles. Son utilisation non encadrée pourrait également conduire à des discriminations, dues aux données d'entraînement ou aux algorithmes eux-mêmes.
Il est donc impératif de mettre en place un cadre solide qui permette de tirer parti des avantages de l'IA tout en minimisant ses risques. Cela implique notamment d'identifier et d'analyser les risques, d'évaluer leur impact, et de mettre en œuvre des mesures appropriées de gestion de ces risques.
Une auto-régulation illusoire
Mais alors, à qui doit revenir la charge de poser ce cadre ? L’idée que la régulation, principalement réglementaire, freine l’innovation va souvent de pair avec celle que les concepteurs, fournisseurs ou déployeurs de systèmes d’IA sont les mieux à même d’encadrer les usages et qu’il faut leur laisser la charge de cette régulation.
Or, ceci ne se vérifie pas en pratique. De façon générale, les grandes entreprises technologiques, acteurs majeurs du numérique ou de l’IA, prennent des mesures de régulation uniquement sous la pression de l’opinion publique et face à un risque de baisse du nombre d’utilisateurs de leurs services, notamment à la suite de scandales ou sous la pression réglementaire et les sanctions financières. Les intérêts commerciaux des entreprises entrent souvent en conflit avec les impératifs de sécurité et d'éthique et les entreprises sont naturellement incitées à maximiser leurs profits et à gagner des parts de marché. Ceci peut les pousser à privilégier le développement rapide de nouvelles technologies au détriment d'une évaluation approfondie des risques.
Par ailleurs, l'autorégulation manque souvent de transparence et de responsabilité. Sans supervision externe, il est difficile de garantir que les entreprises respectent réellement leurs propres engagements ou qu'elles prennent en compte tous les risques de leurs technologies. Les grands acteurs du marché peuvent aussi établir des normes qui favorisent leurs propres intérêts au détriment des petites entreprises ou des start-ups, freinant ainsi l'innovation et la concurrence. L'autorégulation peut créer des inégalités entre les acteurs du marché.
Enfin, des enjeux tels que la protection des droits fondamentaux, la non-discrimination ou la préservation de la démocratie nécessitent une approche globale et coordonnée qui dépasse le cadre individuel des entreprises. Une régulation publique, élaborée en concertation avec toutes les parties prenantes (entreprises, chercheurs, société civile) et prenant la forme d’une règlementation, paraît donc indispensable pour définir un cadre commun, équitable et transparent.
La réglementation comme levier de l’innovation
La règlementation n’est pas non plus sans avantages pour l’innovation. Elle peut permettre de créer un cadre clair et prévisible pour les entreprises développant des systèmes d'IA. En définissant des normes et des exigences précises, en facilitant l'interopérabilité et la compatibilité des systèmes d'IA, elle offre une sécurité juridique qui peut encourager les investissements et l'innovation à long terme. Les entreprises peuvent ainsi développer leurs produits en sachant précisément à quelles règles ils devront se conformer. La règlementation peut aussi promouvoir une concurrence équitable entre les acteurs du marché en imposant des règles communes à toutes les entreprises, quelle que soit leur taille, et empêcher les grandes entreprises d'abuser de leur position dominante.
Du point de vue des utilisateurs, la règlementation contribue à renforcer la confiance du public dans les technologies d'IA. En garantissant que les systèmes d'IA sont développés et utilisés de manière éthique et responsable, elle peut favoriser leur adoption par les consommateurs et les entreprises. Cette confiance accrue peut à son tour stimuler la demande et l’innovation.
Plus largement, la règlementation, en mettant l’accent sur l’encadrement des systèmes d’IA, peut stimuler la recherche et le développement vers des solutions plus sûres et plus conformes aux principes éthiques. Par exemple, l'exigence de transparence et d'explicabilité des systèmes d'IA peut encourager le développement de nouvelles méthodes d'IA interprétable. A l’instar du RGPD qui, bien qu'initialement perçu comme un frein, a conduit à l'émergence de nouvelles technologies et de nouveaux services axés sur la protection des données. Une règlementation bien conçue peut aussi éviter une fragmentation règlementaire au niveau international et favoriser la collaboration internationale et l'harmonisation des normes. Cela peut faciliter le déploiement global des technologies d'IA et renforcer la position compétitive des entreprises qui se conforment à ces normes élevées.
Règlementation et innovation : un équilibre à trouver
Ces avantages ne doivent cependant pas faire oublier un certain nombre de difficultés. Une règlementation trop stricte peut limiter la créativité et l'innovation en imposant un cadre rigide qui empêche d’expérimenter. La mise en conformité avec la réglementation peut ralentir les processus d'innovation, les entreprises devant investir du temps et des ressources pour se conformer à des règles et des normes lourdes à mettre en place. Elle peut aussi freiner le développement des acteurs les plus innovants ne pouvant supporter le coût de cette mise en conformité. Un autre défi est de trouver le bon équilibre entre la protection des droits individuels et l'innovation, notamment dans certaines applications bénéfiques de l’IA.
Il est donc important d’adopter une approche équilibrée entre la nécessité d’encadrer le développement de l’IA et la possibilité de s’adapter aux évolutions technologiques rapides pour préserver un espace d'innovation permettant aux entreprises et aux chercheurs d'explorer ces possibilités. Plusieurs pistes de réflexion se dégagent pour concilier ces deux impératifs apparemment contradictoires :
L'approche par les résultats plutôt que par les procédés. Cette approche permet de garantir des objectifs de sécurité, de fiabilité et d'éthique sans pour autant brider la créativité des développeurs en imposant des méthodes de conception rigides. L'accent est mis sur la validation des systèmes d'IA, en s'assurant qu'ils répondent à des critères précis en matière de biais, de robustesse et d'explicabilité, plutôt que de dicter une méthode unique pour les atteindre. En se concentrant sur la validation des résultats plutôt que sur la prescription des procédés de développement, la réglementation peut laisser une plus grande marge de manœuvre pour l'innovation.
Une approche sélective, ciblée en priorité sur les systèmes d'IA à haut risque. L'AI Act européen, par exemple, se concentre sur la règlementation des applications d'IA présentant les risques les plus élevés pour la sécurité et les droits fondamentaux. Cette approche permet de garantir un niveau de protection élevé là où il est nécessaire, tout en laissant une marge de manœuvre pour l'innovation dans les domaines à faible risque. Standardisation sélective des systèmes à haut risque: En ne s'appliquant qu'aux systèmes d'IA à haut risque, la réglementation laisse la place à l'innovation dans les applications à faible risque.
Un processus de règlementation continu et adaptatif. Face à l'évolution rapide de l'IA, il est crucial que les normes et les standards ne soient pas figés une fois pour toutes, mais qu'ils soient régulièrement mis à jour pour tenir compte des progrès technologiques et des nouveaux défis. Un dialogue constant entre les régulateurs, les chercheurs et les entreprises est essentiel pour garantir que les normes restent pertinentes et n'entravent pas l'innovation. L'approche réglementaire doit être évolutive, avec des révisions régulières impliquant entreprises, chercheurs, société civile pour s'adapter aux avancées technologiques.
Favoriser l'open source. L'AI Act encourage le développement de l'IA open source, qui est considéré comme plus transparent et plus propice à l'innovation. En rendant le code source accessible à tous, l'open source permet une collaboration plus large, une meilleure détection des biais et des failles potentielles, et une plus grande flexibilité pour adapter les systèmes d'IA à différents contextes.
Mettre en place des "bacs à sable réglementaires". L’AI Act reprend cette idée de mise à disposition par les autorités nationales d’environnements permettant d'expérimenter de nouvelles applications d'IA dans un cadre contrôlé. L'introduction de ces "bacs à sable réglementaires" permet aux entreprises de tester leurs innovations dans un environnement contrôlé, sans les contraintes réglementaires habituelles. Cela favorise l'expérimentation, notamment par des acteurs n’ayant pas les moyens de mettre en place de grosses infrastructures de tests, tout en permettant aux régulateurs de suivre de près les évolutions.
Trouver l’équilibre entre un progrès technologique hors de contrôle et un cadre trop strict paralysant ce progrès est un sujet complexe. Cependant, même si l’intelligence artificielle est prometteuse, l’encadrement de son développement est aujourd’hui un enjeu crucial pour l'avenir de nos sociétés. Il est impératif dans cet avenir de préserver la place de l’humain et que l’IA demeure un outil à son service et bénéfique pour l’ensemble de l'humanité. Des règles adaptées sont indispensables et peuvent y aider.

