# 8 / 2023
05.12.2023

L’IA en Suisse: des conditions-cadre de qualité avec des instruments qui ont fait leurs preuves

Évolutions internationales

UE

L’Union européenne a une approche très interventionniste et donc fortement axée sur la réglementation des développements liés à la numérisation. Au cours de ces dernières années, elle a ainsi lancé plusieurs initiatives dans le but de réglementer l’intelligence artificielle. En avril 2021, la Commission européenne a publié un projet de règlement concernant l'IA, qui classe les applications en fonction du niveau de risque qu’elles présentent. Ce dernier interdit les applications aux risques les plus élevés, comme la reconnaissance biométrique pour surveiller des personnes ou le «scoring social».

Ce projet de règlement prévoit également une obligation de certification pour certaines applications d’IA afin de garantir leur conformité aux normes européennes. Les fournisseurs de systèmes d’IA seraient en outre tenus de fournir des informations transparentes et compréhensibles sur le fonctionnement de leurs systèmes.

Certains ont toutefois des doutes en ce qui concerne l’applicabilité d’un tel règlement, car certaines applications d’IA sont difficiles à classer et à réglementer. En juillet 2023, des experts techniques et juridiques ont ainsi soumis l’AI Act de l’UE à un test pratique. On a constaté là aussi qu’on se heurtait assez rapidement à des problèmes d’applicabilité. D’autres craignent que la réglementation n’entrave aussi l’innovation.

Le projet de règlement doit encore recevoir le feu vert des États membres de l’UE et du Parlement européen. On s’attend à ce qu’il soit adopté fin 2023 au plus tôt.

Plusieurs États membres de l’UE ont déjà lancé leurs propres initiatives afin d’encadrer ou même d’interdire l’utilisation de l’IA dans certains domaines. En 2018, la France a, ainsi, publié une stratégie nationale pour l’intelligence artificielle, fondée sur des principes éthiques et juridiques, et censée promouvoir le développement de l’IA. En 2020, l’Allemagne a publié un document stratégique sur l’IA qui aborde entre autres des aspects éthiques et juridiques et propose un cadre pour la réglementation des applications d’IA.

Pour en revenir à l’UE, elle élabore un règlement aussi complet que possible, fondé sur les risques et conçu spécifiquement pour l’IA. Celui-ci couvre de manière centralisée les différents domaines juridiques et des questions juridiques relatives aux systèmes et aux applications d’IA. Avec cette démarche qui s’insère dans son système juridique, l’UE fait probablement œuvre de pionnier pour d’autres États. Dès lors que le texte n’est pas définitif, il est difficile aujourd’hui d’évaluer comment il sera appliqué concrètement. Cependant, il apparaît déjà que, au vu des progrès effrénés de cette technologie, certains éléments du règlement prévu seront dépassés avant même leur entrée en vigueur.

Conseil de l’Europe

Des négociations sont en cours au Conseil de l’Europe au sujet d’une convention sur l’intelligence artificielle. Celle-ci doit garantir que les systèmes d’IA sont développés, conçus et utilisés dans le respect des droits de l’homme, de l’État de droit, de la démocratie et d’autres valeurs importantes.

Un aspect important des discussions est l’exigence de transparence envers les systèmes d’IA. Cela signifie qu’on doit pouvoir comprendre comment ils prennent des décisions. Et ce, surtout lorsque celles-ci peuvent avoir un impact sur la vie de personnes, comme lors de l’attribution d’un emploi.

Un autre aspect de la convention est l’idée que les systèmes d’IA devraient respecter les droits de l’homme. Ils devraient donc être conçus de manière à respecter la dignité humaine, la vie privée et la liberté. Dès lors, des systèmes d’IA ne devraient pas être utilisés pour encourager la discrimination ou la surveillance.

Le projet actuel de convention s’adresse aux membres du Conseil de l’Europe et donc aux États. En tant que membre, la Suisse devra adopter les principes et obligations qui découlent de la convention. À y regarder de plus près, les adaptations concrètes nécessaires devraient toutefois rester assez limitées, car les principes fondamentaux du projet de convention, comme l’absence de discrimination, sont déjà largement présents dans le système juridique suisse et de manière technologiquement neutre. Cela dit, il ne sera possible de réellement prendre position sur le texte que lorsque celui-ci sera définitif.

États-Unis

Au cours de l’été 2023, sept grandes entreprises technologiques américaines ont fixé, avec le gouvernement américain, des règles fondamentales concernant l’utilisation des nouvelles technologies. La sécurité est au cœur de cette démarche. Les entreprises concurrentes ont déclaré garantir que les technologies sont sûres avant de les rendre accessibles au public. Elles entendent également les protéger le mieux possible contre des cyberattaques. Des dispositions en matière de transparence, dans le sens d’un signalement des contenus créés ou modifiés avec l’IA, sont également prévues.

Le 30 octobre 2023, le président américain Joe Biden a édicté un décret présidentiel sur l’utilisation des systèmes d’IA, qui prévoit des mesures exhaustives pour protéger la population américaine des risques potentiels associés à ces systèmes. Les mesures en question comprennent l’obligation pour les développeurs de partager avec le gouvernement les résultats de tests de sécurité, de développer des mesures visant à garantir que les systèmes d’IA sont sûrs et dignes de confiance, de protéger la population contre l’escroquerie via l’IA et de mettre en place des programmes de cybersécurité. Le Parlement américain, pour sa part, est chargé d’édicter une loi sur la protection des données qui protège aussi la sphère privée des Américains contre les risques générés par l’IA. Le décret en question aborde également d’autres thèmes comme la promotion de l’égalité et la protection des consommateurs et des travailleurs. Les États-Unis entendent néanmoins conserver leur rôle de pionnier dans le développement de l’IA et s’assurer que l’innovation et la concurrence restent encore possibles.

Alors qu’il n’existe aucune réglementation au niveau national, l’État de New York a adopté une loi qui réglemente l’utilisation de l’IA dans les processus d’embauche et entend prévenir les inégalités de traitement inappropriées. Les dispositions en matière de transparence sont essentielles à cet égard. Les entreprises doivent ainsi indiquer dans le processus d’embauche quel logiciel d’IA elles utilisent. Des études statistiques indépendantes doivent être menées pour identifier les préjugés et les corriger. Sans surprise, la réglementation est critiquée et ne fait pas l’unanimité; pour les uns, elle ne va pas assez loin, pour les autres, elle est tout simplement inutile.

Chine

En Chine aussi, les nouvelles technologies sont source de défis. ChatGPT n’est pas disponible en raison de l’important pare-feu du gouvernement chinois et il n’existe pas encore d’alternative chinoise valable. Cela dit, la Chine est présente lors de grandes conférences sur l’IA avec de nombreux projets. Les Chinois sont actuellement en tête dans le domaine des logiciels de reconnaissance faciale. En raison de la vidéosurveillance très répandue dans le pays, on y dispose d’ailleurs de suffisamment de données.

En Chine, un projet de réglementation de l’intelligence artificielle générative a été publié au printemps 2023. Elle est ainsi le premier pays à préparer une réglementation pour des logiciels capables de générer des images et des textes. L’objectif est que les contenus générés «reflètent les valeurs fondamentales du socialisme». Le projet interdit de discriminer sur la base de l’ethnie, de l’âge ou du sexe, d’inciter à la division du pays, de saper l’unité nationale ou de renverser le système socialiste par exemple.

Le projet de loi contient en outre diverses obligations pour les fournisseurs et les développeurs de programmes d’IA générative. Non seulement tous les développements de logiciels devraient être soumis aux autorités avant leur publication, mais certaines obligations s’appliqueraient dès le développement. Dans un souci de transparence, les images ou textes déjà développés par des programmes d’IA génératifs doivent être identifiés par une sorte de filigrane. Les entreprises qui fournissent leurs logiciels uniquement à des clients et des entreprises étrangers seraient exemptées de certaines obligations.

Les experts ne sont pas d’accord quant à l’impact de cette réglementation sur la position de la Chine dans la course à l’IA. Le gouvernement chinois a exprimé son soutien de principe à l’IA générative, mais semble toutefois accorder davantage d’importance à la sécurité nationale.