Frau mit Tablet

L’IA en Suisse: des conditions-cadre de qualité avec des instruments qui ont fait leurs preuves

05.12.2023

D'un coup d'oeil

Au cours de ces derniers mois, le débat sur l’intelligence artificielle (IA) a pris une ampleur considérable. Cela s’explique peut-être par le fait que le potentiel de cette technologie est devenu tangible pour le grand public, notamment grâce à des applications d’IA générative, comme ChatGPT, ou des générateurs d’images accessibles à tous. Cela a sensibilisé la population à la question, y compris dans les milieux politiques.

Pour les milieux économiques, il est fondamental que les développements entourant l’IA soient traités de manière adéquate sur le plan réglementaire. Le présent dossierpolitique propose une introduction au thème de l’IA et en présente différents aspects dans l’optique d’une réglementation.

L’essentiel en bref

L’intelligence artificielle revêt une grande importance pour la Suisse. Elle a le potentiel de renforcer la compétitivité dans des secteurs économiques importants. La Suisse, justement, est championne du monde de l’innovation et héberge des pôles dans les services financiers, la pharmacie et la haute technologie. L’IA peut l’aider à accroître encore l’efficacité, à développer des solutions innovantes et à faire progresser la recherche. En outre, la Suisse, connue pour sa formation et sa recherche de premier plan, a la capacité d’être une pionnière dans le développement de technologies et d’applications d’IA, ce qui peut conduire à une hausse de sa prospérité économique à long terme. Pour l’économie, investir dans la recherche, la formation et l’innovation en matière d’IA est donc crucial. Elle pourra ainsi saisir les nombreuses opportunités offertes par cette technologie transformatrice.

Les développements relayés par les médias ces derniers mois, entre autres en lien avec des systèmes tels que ChatGPT et les développements réglementaires au sein de l’UE, ont attiré l’attention de l’opinion publique sur les possibilités de l’IA. Cela a suscité des discussions dans les milieux politiques. Dans ce cadre, des revendications allant parfois très loin ont été formulées, comme un arrêt temporaire du développement voire une interdiction technologique pour des applications spécifiques. economiesuisse souhaite contribuer à objectiver le débat et montre, en s’appuyant sur les champs de tension dans le domaine de l’IA, comment la Suisse peut réagir de manière appropriée.

Position d’economiesuisse

  •  Les développements technologiques autour de l’IA revêtent une grande importance pour l’innovation suisse. Ils renferment un potentiel considérable dans les domaines d’application les plus divers: ils peuvent, par exemple, être utilisés pour concevoir des processus plus efficaces et donc plus dynamiques et moins coûteux.
  • Si la Suisse n’autorise pas l’utilisation du potentiel de l’IA, d’autres pays le feront. Alors, la place économique perdra sa capacité d’innovation et son attractivité.
  • Il doit être possible de développer l’IA en Suisse et de l’utiliser au quotidien dans le domaine opérationnel.
  • Les nombreuses opportunités offertes par l’IA ne doivent pas être étouffées dans l’œuf par une réglementation hâtive ou allant trop loin.
  • Des adaptations réglementaires ponctuelles devraient – pour autant qu’elles soient nécessaires – être conçues de la manière la plus flexible possible.
  • Il faut refuser une législation portant spécifiquement sur l’IA – en particulier si elle se fonde sur le modèle de celle de l’UE.
Frau mit Tablet

Introduction

La réglementation de l’intelligence artificielle doit être coordonnée avec le cadre juridique existant. Il convient d’éviter toute action hâtive qui risquerait d’étouffer dans l’œuf le développement de l’IA. En même temps, il faut faire en sorte que la population ait confiance dans l’IA et cette technologie doit pouvoir contribuer à la capacité d’innovation de la Suisse à long terme.

Dans l’éventualité d’une réglementation de l’IA, il faut trouver le bon équilibre. La Suisse peut jouer un rôle de pionnier dans le paysage mondial de l’IA, à condition de miser sur ses atouts législatifs et de tendre vers une réglementation fondée sur des principes, technologiquement neutre et coordonnée avec le système juridique actuel.

Frau mit Tablet

Qu’est-ce que l’intelligence artificielle?

Il n’existe pas de définition uniforme du terme d’«intelligence artificielle». En guise de description, on pourrait dire que:

  • L’IA est déjà utilisée dans de nombreux domaines, comme dans l’industrie des machines, la finance, le système de la santé, le divertissement, la robotique et les sciences.
  • L’IA est notamment utilisée pour développer des ordinateurs ou des machines capables de reproduire des capacités cognitives telles que l’apprentissage, la résolution de problèmes et la prise de décision.
  • L’IA est un domaine interdisciplinaire qui englobe différentes technologies, telles que l’apprentissage automatique, les réseaux neuronaux, le traitement du langage naturel et la robotique.
  • Contrairement aux processus automatisés traditionnels, il ne s’agit pas de schémas «si-alors» préprogrammés, mais d’algorithmes capables de se développer de manière autonome et donc «d’apprendre».

L’UE, qui exerce une forte pression pour que l’IA soit réglementée, est elle-même encore en train de peaufiner la définition de l’intelligence artificielle dans le cadre de son Artificial Intelligence Act (AI Act). Les propositions connues se fondent largement sur la définition de l’OCDE: «Un système d’intelligence artificielle est un système automatisé qui, pour un ensemble donné d’objectifs, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur l’environnement. Il utilise des données et entrées générées par la machine et/ou apportées par l’homme pour (i) percevoir des environnements réels et/ou virtuels; (ii) produire une représentation abstraite de ces perceptions sous forme de modèles issus d’une analyse automatisée (par exemple, apprentissage automatisé) ou manuelle; et (iii) utiliser les résultats inférés du modèle pour formuler différentes options de résultats. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers.»

L’AI Act continue de susciter la controverse au sein de l’UE. Élaborer une définition est compliqué, car le développement de nouveaux systèmes d’IA, et en particulier d’IA générative, s’est fortement .

Il apparaît que nous sommes face à un défi majeur: il n’est actuellement pas possible de donner une définition juridique précise de cette technologie. Dès lors, les tentatives de réglementer l’IA en tant que technologie sont un échec; il faut en effet adapter en permanence la réglementation dans un environnement en constante évolution.

Potentiel pour l’économie et la société

Apporter une réponse sur mesure à une question individuelle:

Les systèmes d’intelligence artificielle permettent à l’offre et à la demande de se rencontrer, à un coût acceptable. Ce gain d’efficience impacte aussi bien les individus que les entreprises et les services publics. Or, qui dit efficacité accrue dit réduction des ressources nécessaires et des coûts. Cela contribue à augmenter la productivité et la qualité de vie.

 

Intégration dans tous les domaines de la société et de l’économie:

L’utilisation de l’IA va influencer presque tous les domaines de notre société et de notre économie. Elle libère l’homme de tâches répétitives et permet d’accroître la productivité ainsi que de réduire les ressources consommées. À l’instar de la révolution industrielle du XIXe siècle, au cours de laquelle les machines ont progressivement remplacé l’homme pour des travaux physiques répétitifs, une évolution se dessine au XXIe siècle, à savoir que les machines effectuent de plus en plus de tâches cognitives répétitives.

Frau mit Tablet

Champs de tension réglementaires

L’évolution de l’intelligence artificielle soulève diverses questions qui ne sont pas seulement d’ordre technique, mais qui touchent également des dimensions éthiques, économiques et juridiques. Dans le présent dossierpolitique, nous souhaitons aborder ces questions importantes en lien avec l’IA et montrer dans quelle mesure elles sont déjà couvertes par le cadre sociétal, économique et juridique en place en Suisse. Une adaptation même ponctuelle du cadre juridique ne doit être réalisée que dans les cas où les réglementations existantes ne peuvent pas être appliquées de manière appropriée à des faits impliquant l’IA avec une interprétation .

Champs de tension

Éthique

Les questions autour de l’éthique sont importantes tant pour le développement que pour l’utilisation de l’IA. Du point de vue strictement juridique, les principes purement éthiques ne jouent un rôle que dans la mesure où ils sont formulés expressément et de manière concrète dans des règles légales. L’abondante jurisprudence relative au principe général de la bonne foi (art. 2 CC) ainsi que les principes de bonne gouvernance d’entreprise («good governance») contiennent toutefois de nombreuses règles intégrées sur la base d’une volonté d’équité ou d’éthique. Dans le cas de l’IA, il faut notamment tenir compte du fait que les processus pilotés par elle doivent répondre aux exigences éthiques de notre société, c’est-à-dire à nos valeurs et normes fondamentales.

L’intégration de principes éthiques dans le processus de développement de systèmes d’IA contribue à ce que les applications soient dignes de la confiance des utilisateurs et donc de la population. À cet égard, les entreprises devraient être conscientes de la responsabilité qui accompagne la création de technologies d’IA et s’engager à respecter des lignes directrices en matière d’éthique.

Les aspects suivants sont particulièrement pertinents à cet égard:

Inégalité de traitement: Les systèmes d’IA peuvent renforcer et promouvoir des préjugés s’ils ne sont pas entraînés sur la base de jeux de données représentatifs. Cela peut entraîner une inégalité de traitement non justifiée, ce dont il faut tenir compte lors du développement et de l’utilisation de systèmes d’IA. Il faut s’assurer qu’ils sont utilisés de manière juste et qu’une différenciation, entre différents groupes de clients par exemple, n’est faite que dans la mesure où des arguments matériellement convaincants le suggèrent.

Il existe déjà des instruments juridiques qui permettent de lutter contre des inégalités de traitement sans raison matérielle. En Suisse, par exemple, la Constitution interdit la , surtout à l’intention de l’État, mais celle-ci lie également les particuliers qui assument des tâches .

Aujourd’hui, la doctrine reconnaît largement qu’une inégalité de traitement sans raison matérielle lors de la conclusion d’un contrat peut constituer une atteinte à la personnalité. Il ne s’agit pas d’une protection absolue contre des inégalités de traitement, mais d’une «interdiction indirecte de discriminer, en vertu du droit privé, en ce sens qu’une inégalité de traitement fondée sur des caractéristiques d’une personne protégées par son droit de la personnalité peut constituer une atteinte à la .

Le droit de la personnalité et le droit s’appliquent également à des situations impliquant des applications d’IA inéquitables, déloyales ou trompeuses: c’est le cas par exemple des «deep fakes», où la représentation insultante ou falsifiée d’une personne peut ainsi constituer une atteinte à sa personnalité. En présence d’une volonté de tromper, les éléments constitutifs d’une infraction pénale, formulés eux aussi de manière technologiquement neutre, sont .

D’autres textes imposent clairement l’égalité de traitement aux particuliers. C’est le cas de la loi fédérale sur l’égalité entre femmes et et de celle sur l’élimination des inégalités frappant les personnes .

Une IA bien entraînée peut même empêcher une inégalité de traitement. Des systèmes d’IA peuvent ainsi être plus neutres que des  ou, à partir de décisions, identifier des schémas indiquant une inégalité de traitement.

Vie privée et protection des données: Lors de l’utilisation de systèmes d’IA, il convient de s’assurer que les règles applicables en matière de protection des données sont respectées à la fois en ce qui concerne les données fournies et les résultats générés. En Suisse, c’est avant tout la nouvelle loi sur la protection des données (LPD) qui est pertinente à cet égard. Celle-ci s’applique au traitement de données personnelles par des particuliers et des organes . Début novembre 2023, le préposé fédéral à la protection des données et à la transparence (PFPDT) a confirmé que la loi sur la protection des données actuellement en vigueur est directement applicable à l’. Les dispositions ci-après sont particulièrement pertinentes à cet égard:

  • minimisation des données (art. 6, al. 2 LPD),
  • devoir d’informer / transparence (art. 19 LPD),
  • profilage (art. 5, let. f-g LPD),
  • décisions individuelles automatisées (art. 21, al. 1-3 LPD),
  • droit d’accès (art. 25 LPD).

Une analyse des différents domaines concernés par l’utilisation de l’IA montre que le cadre juridique en vigueur offre presque toujours une prise adéquate. C’est le cas aujourd’hui et il appartiendra au législateur d’agir en temps utile pour régler des cas – dans l’éventualité où l’évolution de la technologie créerait des lacunes dans la loi.

L’IA et l’État

Comme nous l’avons expliqué, l’interdiction de discriminer dans les relations entre l’État et les citoyens va très loin et constitue une condition importante pour le respect des droits constitutionnels des citoyennes et citoyens dans une démocratie libérale comme la Suisse.

Dans ses lignes directrices sur l’intelligence artificielle pour l’administration , la Confédération aborde la question du risque de discrimination découlant de jeux de données lorsque des décisions sont fondées sur l’IA. Elle place l’être humain, sa dignité et son bien-être au centre. L’utilisation de l’IA doit «soutenir l’égalité des chances des personnes, mais aussi encourager et faciliter l’accès à la formation, aux biens, aux services et aux technologies». Les droits fondamentaux doivent être respectés à tout moment. Lorsqu’il existe une probabilité que des droits fondamentaux soient violés, en particulier dans le contexte de systèmes de «self learning», une analyse d’impact complète devrait être effectuée. Ce processus devrait s’accompagner d’une surveillance continue afin de mettre en place des mesures de protection et des contrôles appropriés. L’objectif premier est de protéger les personnes concernées de toute discrimination et stigmatisation. En même temps, le respect de la vie privée devrait être assuré par une application stricte des dispositions relatives à la protection des données. Ces développements se déroulent de manière analogue à ceux au sein du Conseil de l’Europe. L’objectif est également de s’assurer que les pouvoirs publics n’utilisent pas les outils d’IA d’une manière qui ne serait pas appropriée dans une société libérale comme la Suisse.

Transparence

En règle générale, les décisions sont acceptées lorsqu’elles sont prises de manière transparente et donc compréhensible. Il en va de même pour les décisions prises en utilisant l’IA. Les utilisateurs doivent pouvoir savoir quand une décision a été prise par une IA. Ils devraient également comprendre comment les systèmes d’IA aboutissent à leurs conclusions. Non seulement cela favorise la confiance, mais cela permet également d’identifier et de corriger d’éventuelles erreurs ou préjugés dans les systèmes. Dans ces conditions, il est essentiel de développer des méthodes pour expliquer les décisions d’IA. Pour cela, il faut des processus transparents. La nouvelle loi suisse sur la protection des données peut donc être utilisée comme base juridique: elle prévoit des dispositions en matière de transparence étendues eu égard aux décisions automatisées. En même temps, il faut éviter des exigences excessives. Des décisions prises par des humains peuvent, en effet, également manquer de transparence et reposer sur de nombreux préjugés (pas toujours ).

Pour l’OCDE aussi, la transparence est importante pour garantir la traçabilité. Elle exige des acteurs d’IA qu’ils fassent preuve de transparence afin de «favoriser une compréhension générale des systèmes d’IA» ainsi qu’une prise de conscience et une compréhension des interactions avec des systèmes d’.

Liberté économique

La liberté économique et la liberté de contracter sont deux des piliers d’une économie dynamique caractérisée par la libre concurrence. En Suisse, la liberté économique est un droit fondamental selon l’art. 26 Cst. La liberté contractuelle, inscrite dans le code des obligations, veut que, dans les limites de la loi, chacun est libre de décider avec qui il souhaite conclure une relation . À noter, c’est important, que les systèmes d’IA ne limitent pas ces libertés, mais peuvent même les soutenir. L’IA peut servir d’outil pour prendre des décisions fondées et développer des modèles d’affaires innovants. En ce qui concerne la réglementation de l’IA, il faut s’assurer que la liberté économique, et notamment la liberté contractuelle, reste garantie.

Un contrat doit en principe respecter les limites fixées par le code des obligations, et notamment les art. 19, al. 2 et art. 20, al. 1. En même temps, il n’est pas interdit d’individualiser – indépendamment de la question de savoir si l’on fait appel à une IA. Une individualisation dans le sens de la liberté contractuelle est en principe possible et doit le Pouvoir personnaliser une offre est effectivement indispensable pour la libre concurrence.

Propriété intellectuelle

En lien avec l’IA, les questions relatives à la propriété intellectuelle sont nombreuses: les systèmes d’IA sont souvent développés et entraînés sur la base de vastes volumes de données, d’algorithmes et d’œuvres créés par l’homme.

Des questions relatives aux droits d’auteur se posent également en ce qui concerne les résultats générés par des systèmes d’IA. Lorsque des données sont traitées à l’aide de l’intelligence artificielle, des données protégées peuvent être copiées numériquement, ce qui peut porter atteinte aux droits des auteurs. Des fragments d’un résultat généré par ChatGPT peuvent ainsi être protégés par des droits d’auteur, de sorte qu’un utilisateur éventuel porterait atteinte à ces droits sans le savoir.

Des questions se posent encore quant à la paternité des résultats produits par une IA. Si une IA peut produire des biens immatériels à bas coût, le droit de la propriété intellectuelle devra éventuellement être ajusté. En particulier lorsque des systèmes d’IA génèrent des œuvres créatives de manière autonome, cela pose la question de la protection et de l’«inventeur» de telles œuvres. S’il devient difficile d’attribuer clairement des actes créatifs ou inventifs à des êtres humains ou à des systèmes d’IA, les critères traditionnels de la «création intellectuelle» et de l’«activité inventive» pourraient, par exemple, être mis à l’épreuve. En effet, peut-on attribuer une performance intellectuelle à un produit créé par une IA? Une jurisprudence devra donc se développer sur cette question pour définir les limites du droit de la propriété intellectuelle en lien avec l’IA.

Les possibilités offertes par l’IA soulèvent par ailleurs des questions en ce qui concerne le droit des brevets. On n’a pas encore répondu à la question de savoir si une IA peut aussi être un inventeur ou alors à qui ce rôle revient, ou à partir de quel degré d’autonomie l’homme qui utilise une IA n’est plus considéré comme un inventeur. Pour trouver une réponse, il s’agit tout d’abord de revenir à l’idée initiale de la législation concernée et de la transposer à la situation particulière impliquant une IA.

Il n’est, toutefois, pas urgent d’adapter le droit de la propriété intellectuelle pour tenir compte de l’essor de l’IA, car le droit en vigueur semble offrir suffisamment de flexibilité. Entre les tribunaux qui continueront de développer les concepts juridiques pertinents et les discussions menées dans les milieux spécialisés, une approche appropriée et adaptée émergera. À l’échelle internationale, il existe déjà ici et là des ébauches de solution, sur la base desquelles les tribunaux clarifient les questions en . Cela sera possible également en Suisse.

Responsabilité

L’exploitation de systèmes d’IA comporte des risques en matière de responsabilité. La première question qui se pose est celle de l’«autonomie» et, puis, celle de savoir à partir de quand une IA a réellement causé un dommage.

On peut imaginer un robot tondeuse qui au lieu de tondre la pelouse de son propriétaire tond le parterre de fleurs du voisin. Une fois que le mal est fait, on a, primo, le voisin qui demande à être remboursé pour ses fleurs, secundo, le propriétaire du robot qui est sommé par le voisin de payer et, tertio, le fabricant du robot contre lequel le propriétaire va se .

Il convient ici de faire la distinction entre une décision erronée et un défaut du produit. On parle de la première «si, lors du choix entre plusieurs alternatives, on choisit le comportement qui conduit à un dommage ou à une aggravation du dommage», alors qu’un défaut du produit «découle d’un défaut de ses ».

En Suisse, la loi sur la responsabilité du fait des produits (LRFP), entre autres, régit la responsabilité du producteur pour les produits défectueux. Cette loi présente des similitudes avec la directive européenne 85/374/CEE, qu’il est question de réviser, notamment en raison de la rapidité des évolutions technologiques. Dans ce cadre, on aborde plusieurs faiblesses du régime de la responsabilité du fait des produits, comme le champ d’application restreint aux produits malgré l’importance croissante des logiciels, la détermination de la défectuosité des produits susceptibles d’être développés ou la possibilité de faire valoir des droits en raison de la répartition du fardeau de la preuve. Le législateur suisse serait bien inspiré d’examiner, lui aussi, sérieusement ces questions.

À l’heure actuelle, un système d’IA ne peut pas être un sujet responsable, car il ne possède pas la capacité juridique. On ignore pour l’heure si un système d’IA entre dans la définition des logiciels figurant dans la loi sur la responsabilité du fait des produits. Dans le domaine de la responsabilité, certaines questions demeurent ouvertes et il sera intéressant de voir comment la jurisprudence y répondra. La distinction entre défaut du produit et décision inopportune, mentionnée ci-dessus, jouera probablement un rôle important à cet égard.

Frau mit Tablet

Évolutions internationales

UE

L’Union européenne a une approche très interventionniste et donc fortement axée sur la réglementation des développements liés à la numérisation. Au cours de ces dernières années, elle a ainsi lancé plusieurs initiatives dans le but de réglementer l’intelligence artificielle. En avril 2021, la Commission européenne a publié un projet de règlement concernant l', qui classe les applications en fonction du niveau de risque qu’elles présentent. Ce dernier interdit les applications aux risques les plus élevés, comme la reconnaissance biométrique pour surveiller des personnes ou le «scoring social».

Ce projet de règlement prévoit également une obligation de certification pour certaines applications d’IA afin de garantir leur conformité aux normes européennes. Les fournisseurs de systèmes d’IA seraient en outre tenus de fournir des informations transparentes et compréhensibles sur le fonctionnement de leurs systèmes.

Certains ont toutefois des doutes en ce qui concerne l’applicabilité d’un tel règlement, car certaines applications d’IA sont difficiles à classer et à réglementer. En juillet 2023, des experts techniques et juridiques ont ainsi soumis l’AI Act de l’UE à un test pratique. On a constaté là aussi qu’on se heurtait assez rapidement à des problèmes . D’autres craignent que la réglementation n’entrave aussi l’innovation.

Le projet de règlement doit encore recevoir le feu vert des États membres de l’UE et du Parlement européen. On s’attend à ce qu’il soit adopté fin 2023 au plus tôt.

Plusieurs États membres de l’UE ont déjà lancé leurs propres initiatives afin d’encadrer ou même d’interdire l’utilisation de l’IA dans certains domaines. En 2018, la France a, ainsi, publié une stratégie nationale pour l’intelligence artificielle, fondée sur des principes éthiques et juridiques, et censée promouvoir le développement de l’IA. En 2020, l’Allemagne a publié un document stratégique sur l’ qui aborde entre autres des aspects éthiques et juridiques et propose un cadre pour la réglementation des applications d’.

Pour en revenir à l’UE, elle élabore un règlement aussi complet que possible, fondé sur les risques et conçu spécifiquement pour l’IA. Celui-ci couvre de manière centralisée les différents domaines juridiques et des questions juridiques relatives aux systèmes et aux applications d’IA. Avec cette démarche qui s’insère dans son système juridique, l’UE fait probablement œuvre de pionnier pour d’autres États. Dès lors que le texte n’est pas définitif, il est difficile aujourd’hui d’évaluer comment il sera appliqué concrètement. Cependant, il apparaît déjà que, au vu des progrès effrénés de cette technologie, certains éléments du règlement prévu seront dépassés avant même leur entrée en vigueur.

Conseil de l’Europe

Des négociations sont en cours au Conseil de l’Europe au sujet d’une convention sur l’intelligence artificielle. Celle-ci doit garantir que les systèmes d’IA sont développés, conçus et utilisés dans le respect des droits de l’homme, de l’État de droit, de la démocratie et d’autres valeurs .

Un aspect important des discussions est l’exigence de transparence envers les systèmes d’IA. Cela signifie qu’on doit pouvoir comprendre comment ils prennent des décisions. Et ce, surtout lorsque celles-ci peuvent avoir un impact sur la vie de personnes, comme lors de l’attribution d’un emploi.

Un autre aspect de la convention est l’idée que les systèmes d’IA devraient respecter les droits de l’homme. Ils devraient donc être conçus de manière à respecter la dignité humaine, la vie privée et la liberté. Dès lors, des systèmes d’IA ne devraient pas être utilisés pour encourager la discrimination ou la surveillance.

Le projet actuel de convention s’adresse aux membres du Conseil de l’Europe et donc aux États. En tant que membre, la Suisse devra adopter les principes et obligations qui découlent de la convention. À y regarder de plus près, les adaptations concrètes nécessaires devraient toutefois rester assez limitées, car les principes fondamentaux du projet de convention, comme l’absence de discrimination, sont déjà largement présents dans le système juridique suisse et de manière technologiquement neutre. Cela dit, il ne sera possible de réellement prendre position sur le texte que lorsque celui-ci sera définitif.

États-Unis

Au cours de l’été 2023, sept grandes entreprises technologiques américaines ont fixé, avec le gouvernement américain, des règles fondamentales concernant l’utilisation des nouvelles technologies. La sécurité est au cœur de cette démarche. Les entreprises concurrentes ont déclaré garantir que les technologies sont sûres avant de les rendre accessibles au public. Elles entendent également les protéger le mieux possible contre des cyberattaques. Des dispositions en matière de transparence, dans le sens d’un signalement des contenus créés ou modifiés avec l’IA, sont également .

Le 30 octobre 2023, le président américain Joe Biden a édicté un décret présidentiel sur l’utilisation des systèmes d’IA, qui prévoit des mesures exhaustives pour protéger la population américaine des risques potentiels associés à ces systèmes. Les mesures en question comprennent l’obligation pour les développeurs de partager avec le gouvernement les résultats de tests de sécurité, de développer des mesures visant à garantir que les systèmes d’IA sont sûrs et dignes de confiance, de protéger la population contre l’escroquerie via l’IA et de mettre en place des programmes de cybersécurité. Le Parlement américain, pour sa part, est chargé d’édicter une loi sur la protection des données qui protège aussi la sphère privée des Américains contre les risques générés par l’IA. Le décret en question aborde également d’autres thèmes comme la promotion de l’égalité et la protection des consommateurs et des travailleurs. Les États-Unis entendent néanmoins conserver leur rôle de pionnier dans le développement de l’IA et s’assurer que l’innovation et la concurrence restent encore .

Alors qu’il n’existe aucune réglementation au niveau national, l’État de New York a adopté une qui réglemente l’utilisation de l’IA dans les processus d’embauche et entend prévenir les inégalités de traitement inappropriées. Les dispositions en matière de transparence sont essentielles à cet égard. Les entreprises doivent ainsi indiquer dans le processus d’embauche quel logiciel d’IA elles utilisent. Des études statistiques indépendantes doivent être menées pour identifier les préjugés et les corriger. Sans surprise, la réglementation est critiquée et ne fait pas l’unanimité; pour les uns, elle ne va pas assez loin, pour les autres, elle est tout simplement .

Chine

En Chine aussi, les nouvelles technologies sont source de défis. ChatGPT n’est pas disponible en raison de l’important pare-feu du gouvernement chinois et il n’existe pas encore d’alternative chinoise valable. Cela dit, la Chine est présente lors de grandes conférences sur l’IA avec de nombreux projets. Les Chinois sont actuellement en tête dans le domaine des logiciels de reconnaissance faciale. En raison de la vidéosurveillance très répandue dans le pays, on y dispose d’ailleurs de suffisamment de données.

En Chine, un projet de réglementation de l’intelligence artificielle générative a été publié au printemps 2023. Elle est ainsi le premier pays à préparer une réglementation pour des logiciels capables de générer des images et des textes. L’objectif est que les contenus générés «reflètent les valeurs fondamentales du socialisme». Le projet interdit de discriminer sur la base de l’ethnie, de l’âge ou du sexe, d’inciter à la division du pays, de saper l’unité nationale ou de renverser le système socialiste par exemple.

Le projet de loi contient en outre diverses obligations pour les fournisseurs et les développeurs de programmes d’IA générative. Non seulement tous les développements de logiciels devraient être soumis aux autorités avant leur publication, mais certaines obligations s’appliqueraient dès le développement. Dans un souci de transparence, les images ou textes déjà développés par des programmes d’IA génératifs doivent être identifiés par une sorte de filigrane. Les entreprises qui fournissent leurs logiciels uniquement à des clients et des entreprises étrangers seraient exemptées de certaines obligations.

Les experts ne sont pas d’accord quant à l’impact de cette réglementation sur la position de la Chine dans la course à l’IA. Le gouvernement chinois a exprimé son soutien de principe à l’IA générative, mais semble toutefois accorder davantage d’importance à la sécurité .

Frau mit Tablet

Discussion en Suisse

Débat politique

Le Conseil fédéral a publié un rapport sur l’IA dès 2019, dans lequel il met en lumière les opportunités et les défis associés à cette . Il y souligne que la Suisse doit jouer un rôle de premier plan dans le développement et l’utilisation de l’IA, mais qu’elle doit également tenir compte des questions éthiques, juridiques et sociétales que cela soulève. En ce qui concerne la réglementation de l’IA, le Conseil fédéral a recommandé une approche prudente et différenciée. Afin d’encourager l’utilisation de l’IA, il privilégie une autorégulation volontaire et des directives éthiques. Parallèlement, le Conseil fédéral reconnaît toutefois la nécessité de réglementer certains domaines de l’IA via des dispositions légales, notamment eu égard aux risques pour la sécurité, la sphère privée ou la protection des droits fondamentaux des individus.

Le 22 novembre 2023, le Conseil fédéral a décidé que les approches réglementaires de l’intelligence artificielle feront l’objet d’un examen. Il souhaite, à cet égard, promouvoir l’utilité positive de l’IA et minimiser d’éventuels risques. Le rapport demandé au Département fédéral de l’environnement, des transports, de l’énergie et de la communication (DETEC) doit être présenté d’ici à fin 2024 et montrer différentes approches compatibles avec les exigences internationales en vigueur. Ce rapport servira ensuite de point de départ pour élaborer un mandat en vue d’un projet de réglementation concret de l’IA en .

Diverses interventions ont été déposées au Parlement suisse en rapport avec l’IA. Des initiatives parlementaires demandent de clarifier le cadre juridique de son utilisation et d’introduire éventuellement des règles spécifiques. Ces interventions poursuivent des objectifs très différents: certaines visent à garantir la protection de la vie , à promouvoir la transparence de systèmes d’, à établir la responsabilité pour des décisions ou à réglementer les «deep ». D’autres encore vont jusqu’à demander une surveillance, voire un moratoire, pour certains types d’application. On suggère ici et là de s’inspirer de la réglementation de l’UE.

Du point de vue de l’économie, de telles interventions montrent l’importance d’un débat sur les opportunités et les risques de l’IA. En même temps, l’orientation des interventions montre aussi qu’une réglementation précipitée et globale de l’IA serait la mauvaise approche. Il s’agit plutôt de suivre de près les évolutions et d’analyser de manière ciblée dans quelle mesure le système juridique présente des lacunes spécifiques qu’il conviendra de combler. De nombreuses lois actuelles, technologiquement neutres, semblent ainsi offrir déjà de bonnes solutions face aux développements actuels. De plus, il appartiendra aux tribunaux de développer une pratique sur la base de cas concrets et en appliquant des normes généralement abstraites. Des interventions ciblées devraient ainsi être effectuées uniquement dans les domaines où il existe des lacunes juridiques clairement identifiées ou une trop grande insécurité juridique.

La motion 23.3201 de Marcel Dobler (PLR) «Situation juridique de l’intelligence artificielle. Clarifier les incertitudes, encourager l'!» est un exemple d’intervention réussie.

Projet relatif à la technologie des registres distribués (TRD)

En 2019, le législateur suisse a déjà été confronté au défi de réglementer une nouvelle technologie, celle des registres distribués (TRD, ou distributed ledger technology et DLT, en anglais). La solution développée à l’époque est exemplaire pour ce qui concerne l’approche sur le plan réglementaire de nouvelles technologies. Au lieu d’élaborer une «législation pour la blockchain», la loi DLT a été conçue comme une loi-cadre adaptant et complétant différentes lois. Trois axes de travail étaient importants: renforcer la sécurité juridique, supprimer des obstacles aux applications fondées sur la DLT ou la blockchain et limiter les nouveaux risques. Fondée sur des principes existants de notre système juridique, la loi a bénéficié d’un large soutien au Parlement. La mise en œuvre a montré que la Suisse peut relever les défis du développement technologique et permettre l’innovation sur la base du droit existant.

Position des milieux économiques

Il est trop tôt pour édicter des réglementations. Une réglementation précipitée de l’IA aurait un impact négatif sur l’innovation, la concurrence et la coopération internationale. Les PME, en particulier, seraient massivement pénalisées par une telle réglementation.

Plutôt que de céder à l’activisme politique, les milieux économiques préconisent une stratégie claire pour la suite des événements. S’ils considèrent, eux aussi, que des mesures s’imposent sur certains points, ils estiment cependant important de focaliser le débat sur les éléments pertinents.

Grâce à ses longs processus d’élaboration et à sa tradition législative, le système juridique suisse est fondé, réfléchi et pérenne. Dans la plupart des cas, il n’est pas nécessaire de revoir une loi en profondeur, car elle est conçue dès le départ sur la base de principes et de risques et neutre sous l’angle de la concurrence et de la technologie. Les lois peuvent ainsi couvrir de nombreux développements, y compris l’IA.

Élaborer une réglementation exhaustive sous la forme d’une loi sur l’IA n’est pas nécessaire. En tant que nouveau «phénomène» ou nouvelle possibilité technique, l’IA est – comme tout autre phénomène – couverte par l’ordre juridique dans son ensemble.

Grâce à une approche fondée sur des principes, le droit en vigueur est également applicable à des développements rapides tels que l’IA. Cette approche permet en outre aux entreprises de développer leurs nouveaux produits en conformité avec les principes juridiques en vigueur.

Bon nombre de questions liées à l’IA devraient ainsi pouvoir être résolues aujourd’hui sur la base des lois existantes, sans qu’il soit nécessaire de les adapter (comme la loi sur la protection des données, le code civil, la loi fédérale contre la concurrence déloyale, le code pénal, etc.). Si une personne pratique une concurrence déloyale, elle enfreint les règles de la loi contre la concurrence déloyale même si elle recourt à l’IA pour cela. Si, contre toute attente, aucune solution appropriée n’est trouvée pour une application donnée utilisant l’IA sur la base de la législation en vigueur, les lacunes spécifiques pourront être comblées de manière ciblée.

L’ordre juridique suisse contient déjà des dispositions ciblées. L’art. 21 LPD, en particulier l’al. 1, introduit dans le cadre de la dernière révision de la cette loi, en est un exemple frappant. En vertu de cet article, la personne concernée doit être informée de toute décision prise exclusivement sur la base d’un traitement de données personnelles automatisé et qui a des effets juridiques pour elle ou l’affecte de manière significative. Ce serait par exemple le cas si les taux d’intérêt hypothécaires de certains clients étaient fixés exclusivement de manière automatisée.

Au fur et à mesure de l’expérience acquise avec l’IA, il se peut que des besoins réglementaires ponctuels apparaissent, pour garantir une sécurité juridique suffisante pour les modèles commerciaux adaptés aux opérations de masse, comme cela a été le cas avec la législation sur la TRD, par exemple. Le cas échéant, ces adaptations réglementaires ponctuelles devraient être conçues de la manière la plus flexible possible afin de pouvoir tenir compte rapidement d’évolutions techniques très dynamiques.

Il faut refuser une législation portant spécifiquement sur l’IA – en particulier si elle se fonde sur le modèle de celle de l’UE. Une telle législation ne correspondrait pas à la tradition législative suisse et serait probablement dépassée dès son entrée en vigueur.

Si, en se fondant sur sa tradition législative, la Suisse comble des lacunes clairement identifiées, cela sera plus efficace que l’approche de l’UE, qui tente de réglementer une technologie peu tangible. Avec une réglementation autonome, la Suisse peut permettre des développements innovants et créer la sécurité juridique en même temps. Une telle approche est à privilégier, en particulier face à la concurrence internationale entre places économiques, car elle permet de trouver des solutions flexibles et technologiquement neutres qui répondent également aux besoins de l’économie suisse.

S'abonner à la newsletter

Inscrivez-vous ici à notre newsletter. En vous inscrivant, vous recevrez dès la semaine prochaine toutes les informations actuelles sur la politique économique ainsi que les activités de notre association.

Adresse e-mail
L’IA en Suisse | economiesuisse | economiesuisse