Frau mit Tablet

L’IA in Svizzera: condizioni quadro intelligenti con strumenti collaudati

A colpo d'occhio

Nel corso degli ultimi mesi, il dibattito sull’intelligenza artificiale (IA) ha assunto un’ampiezza considerevole. Ciò si spiega probabilmente con il fatto che il potenziale di questa tecnologia è diventato tangibile per il grande pubblico, in particolare grazie alle applicazioni di IA generativa, come ChatGPT, o generatori di immagini accessibili a tutti. Questo ha sensibilizzato la popolazione sulla tema, anche la politica.

Secondo l’economia, è essenziale che gli sviluppi attorno all’IA siano trattati adeguatamente a livello normativo. Il presente dossierpolitica propone un’introduzione sul tema dell’IA e ne presenta i vari aspetti nell’ottica di una regolamentazione.

Condividi

L’essenziale in breve

L’intelligenza artificiale riveste grande importanza per la Svizzera. Essa ha il potenziale di rafforzare la competitività in settori economici importanti. La Svizzera, giustamente, è campione del mondo dell’innovazione e ospita poli nei servizi finanziari, nella farmaceutica e nelle tecnologie di punta. L’IA può aiutarla ad aumentare ulteriormente l’efficienza, a sviluppare soluzioni innovative e a far progredire la ricerca. Inoltre, la Svizzera, nota per la sua formazione e ricerca di prim’ordine, ha la capacità di essere un pioniere nello sviluppo di tecnologie e di applicazioni di IA, ciò che può portare a un aumento del suo benessere economico a lungo termine. Per l’economia, investire nella ricerca, nella formazione e nell’innovazione in materia di IA è dunque cruciale. Essa potrà così cogliere le numerose opportunità offerte da questa tecnologia trasformatrice.

Gli sviluppi mediatici degli ultimi mesi, tra cui sistemi come ChatGPT e gli sviluppi normativi nell'UE, hanno focalizzato l'attenzione del pubblico sulle possibilità dell'IA.

Questo, in ambito politico, ha suscitato numerose discussioni. In alcuni casi sono state avanzate richieste di ampia portata, come l'interruzione temporanea dello sviluppo o addirittura il divieto di utilizzo della tecnologia per applicazioni specifiche. economiesuisse desidera contribuire all'obiettività del dibattito e, sulla base delle aree di tensione nel campo dell'IA, mostrare come la Svizzera può reagire in modo adeguato.

Posizione di economiesuisse

  • Gli sviluppi tecnologici concernenti l’IA rivestono grande importanza per l’innovazione elvetica. Essi celano un considerevole potenziale nei campi d’applicazione più disparati: possono, ad esempio, essere utilizzati per concepire procedure più efficaci e dunque più dinamiche e meno costose.
  • Anche se la Svizzera non dovesse autorizzare l’utilizzo del potenziale dell’IA, altri paesi lo faranno. Allora la piazza economica perderebbe la sua capacità d’innovazione e la sua attrattività.
  • Dev’essere possibile sviluppare l’IA in Svizzera e utilizzarla quotidianamente.
  • Le numerose opportunità offerte dall’IA non devono essere soffocate da una regolamentazione affrettata o eccessiva.
  • Gli adattamenti normativi puntuali dovrebbero – sempre che siano necessari – essere concepiti nella maniera più flessibile possibile.
  • Occorre rifiutare una legislazione che concerna specificamente l’IA – in particolare se basata sul modello di quella dell’UE.
Frau mit Tablet

Introduzione

La regolamentazione dell'intelligenza artificiale deve essere coordinata con il quadro giuridico esistente. Occorre evitare azioni affrettate che potrebbero bloccare sul nascere lo sviluppo dell'IA. Allo stesso tempo, dobbiamo garantire che il pubblico abbia fiducia nell'IA e che questa tecnologia possa contribuire alla capacità di innovazione della Svizzera a lungo termine.

In caso di regolamentazione dell'IA, è necessario trovare il giusto equilibrio. La Svizzera può svolgere un ruolo pionieristico nel panorama globale dell'IA, a condizione che si basi sui suoi punti di forza legislativi e si orienti verso una regolamentazione basata sui principi e neutrale dal punto di vista tecnologico, in linea con il sistema giuridico esistente.

Frau mit Tablet

Cos’è l’intelligenza artificiale?

Non esiste una definizione uniforme del termine "intelligenza artificiale". A titolo descrittivo, potremmo dire che:

  • L’IA è già utilizzata in numerosi settori, come nell’industria delle macchine, la finanza, il sistema sanitario, il tempo libero, la robotica e le scienze.
  • L’IA è particolarmente utilizzata per sviluppare computer o macchine in grado di riprodurre capacità cognitive quali l’apprendimento, la risoluzione di problemi e la presa di decisioni.
  • L’IA è un settore interdisciplinare che comprende varie tecnologie, quali l’apprendimento automatico, le reti neurali, l’elaborazione del linguaggio naturale e la robotica.
  • A differenza dei processi automatizzati tradizionali, non si tratta di schemi "se-quando" pre-programmati, ma di algoritmi in grado di svilupparsi autonomamente e quindi di "imparare".

L'UE, che sta spingendo molto per la regolamentazione dell'intelligenza artificiale, sta a sua volta perfezionando la definizione di intelligenza artificiale nell'ambito del suo Artificial Intelligence Act (AI Act). Le proposte finora conosciute si basano in gran parte sulla definizione dell'OCSE: "Un sistema di intelligenza artificiale è un sistema automatizzato che, per un determinato insieme di scopi, è in grado di fare previsioni, raccomandazioni o decisioni che influenzano l'ambiente. Utilizza dati e input generati dalla macchina e/o dall'uomo per (i) percepire ambienti reali e/o virtuali; (ii) produrre una rappresentazione astratta di queste percezioni sotto forma di modelli derivati da analisi automatizzate (ad esempio, apprendimento automatico) o manuali; e (iii) utilizzare i risultati dedotti dal modello per formulare diverse opzioni di risultato. I sistemi di IA sono progettati per operare con vari gradi di autonomia".

L’AI Act continua a suscitare controversie all'interno dell'UE. L'elaborazione di una definizione è complicata, poiché lo sviluppo di nuovi sistemi di IA, e in particolare di IA generativa, ha subito una forte .

Tutto lascia presagire che ci troviamo di fronte a una sfida importante: attualmente non è possibile dare una definizione giuridica precisa di questa tecnologia. Di conseguenza, i tentativi di regolamentare l'IA come tecnologia sono falliti, poiché la regolamentazione deve essere costantemente adattata a un ambiente in costante evoluzione.

Potenziale per l’economia e la società

Fornire una risposta su misura a una questione individuale:

I sistemi di intelligenza artificiale consentono alla domanda e all’offerta di incontrarsi a costi accettabili. Questo aumento dell'efficienza riguarda sia gli individui che le imprese e i servizi pubblici. Maggiore efficienza significa meno risorse e meno costi. Ciò contribuisce ad aumentare la produttività e la qualità della vita.

Integrazione in tutti i settori della società e dell’economia:

L'uso dell'IA influenzerà quasi tutti i settori della nostra società ed economia. Libera l'uomo da compiti ripetitivi, aumentando la produttività e riducendo le risorse consumate. Così come nella rivoluzione industriale del XIX secolo le macchine hanno gradualmente sostituito l'uomo nei lavori fisici ripetitivi, nel XXI secolo stiamo assistendo a uno spostamento verso le macchine che svolgono sempre più compiti cognitivi ripetitivi.

Frau mit Tablet

Aree di dibattito a livello di regolamentazione

Lo sviluppo dell'intelligenza artificiale solleva una serie di questioni che non sono solo di natura tecnica, ma toccano anche dimensioni etiche, economiche e legali. In questo dossierpolitica, vorremmo affrontare queste importanti questioni legate all'intelligenza artificiale e mostrare in che misura sono già coperte dal quadro sociale, economico e legale esistente in Svizzera. Il quadro giuridico dovrebbe essere adattato, anche caso per caso, solo laddove le normative esistenti non possono essere interpretate e applicate correttamente agli eventi che coinvolgono l'.

Ambiti conflittuali

Etica

Le questioni etiche sono importanti sia per lo sviluppo che per l'uso dell'IA. Da un punto di vista strettamente giuridico, i principi puramente etici svolgono un ruolo solo nella misura in cui sono espressamente e concretamente formulati in norme giuridiche. Ma l'abbondante giurisprudenza relativa al principio generale di buona fede (art. 2 CC) e i principi di buona governance aziendale contengono numerose norme incorporate sulla base di un desiderio di correttezza o di etica. Nel caso dell'IA, è particolarmente importante tenere presente che i processi pilotati da essa devono soddisfare i requisiti etici della nostra società, ossia i nostri valori e standard fondamentali.

Incorporare i principi etici nel processo di sviluppo dei sistemi di IA aiuta a garantire che le applicazioni siano degne della fiducia degli utenti e quindi del pubblico in generale. A questo proposito, le aziende dovrebbero essere consapevoli della responsabilità che accompagna la creazione di tecnologie di IA e impegnarsi a rispettare le linee guida etiche.

A tale proposito sono particolarmente rilevanti gli aspetti seguenti:

Disparità di trattamento: I sistemi di IA possono rafforzare e promuovere i pregiudizi se non vengono allenati sulla base di serie di dati rappresentative. Ciò può portare a una disparità di trattamento ingiustificata, che deve essere presa in considerazione quando si sviluppano e si utilizzano i sistemi di IA. È necessario garantire che vengano utilizzati in modo equo e che la differenziazione, ad esempio tra diversi gruppi di clienti, avvenga solo nella misura in cui lo suggeriscono argomenti materialmente .

Esistono già strumenti giuridici per combattere la disparità di trattamento senza motivo materiale. In Svizzera, ad esempio, la Costituzione vieta la , soprattutto da parte dello Stato, ma si applica anche ai privati che svolgono funzioni .

Oggi la dottrina riconosce ampiamente che una disparità di trattamento senza motivi sostanziali nella conclusione di un contratto possa costituire una violazione della personalità. Non si tratta di una protezione assoluta contro la disparità di trattamento, ma di un «divieto indiretto di discriminazione nel diritto privato», nel senso che una disparità di trattamento basata su caratteristiche di una persona protetta dai suoi diritti della personalità può costituire una violazione della .

Il diritto della personalità e il diritto si applicano anche a situazioni che comportano applicazioni ingiuste, scorrette o fuorvianti dell'IA: è il caso, ad esempio, dei "deep fake", dove la rappresentazione ingiuriosa o falsificata di una persona può quindi costituire un attacco alla sua personalità. Laddove vi sia l'intenzione di ingannare, sono presenti gli elementi costitutivi di un reato penale, anch'essi formulati in modo tecnologicamente .

Altri testi impongono chiaramente la parità di trattamento tra gli individui. È il caso della legge federale sulla parità tra donne e e di quella sull’eliminazione delle disparità che colpiscono le persone .

Un’intelligenza artificiale ben utilizzata può persino prevenire la disparità di trattamento. I sistemi di intelligenza artificiale possono quindi essere più neutrali degli esseri o, sulla base delle decisioni, identificare modelli che indicano una disparità di trattamento.

Privacy e protezione dei dati: quando si utilizzano sistemi di intelligenza artificiale, è necessario prestare attenzione per garantire che le norme applicabili sulla protezione dei dati siano rispettate sia in relazione ai dati forniti che ai risultati generati.

In Svizzera è soprattutto la nuova legge sulla protezione dei dati (LPD) ad essere rilevante. Ciò vale per il trattamento dei dati personali da parte di privati e organi . All’inizio di novembre 2023 il responsabile federale della protezione dei dati e della trasparenza (IFPDT) ha confermato che la legge sulla protezione dei dati attualmente in vigore è direttamente applicabile all’. Particolarmente rilevanti a questo proposito sono le seguenti disposizioni:

  • Minimizzazione dei dati (art. 6, cpv. 2 LPD),
  • dovere di informare / trasparenza (art. 19 LPD),
  • profilazione (art. 5, let. f-g LPD), m
  • decisioni individuali automatizzate (art. 21, cpv. 1-3 LPD)
  • diritto d’accesso (art. 25 LPD).

Un’analisi dei diversi ambiti interessati dall’uso dell’IA mostra che l’attuale quadro giuridico offre quasi sempre un sostegno adeguato. Questo è il caso oggi e spetterà al legislatore agire in tempo utile per risolvere i casi – nel caso in cui l’evoluzione della tecnologia crei lacune nella legge.

L’IA e lo Stato

Come abbiamo spiegato, il divieto di discriminazione nei rapporti tra Stato e cittadini va molto lontano e costituisce una condizione importante per il rispetto dei diritti costituzionali dei cittadini in una democrazia liberale come la Svizzera.

Nelle sue linee direttive sull’intelligenza artificiale per l’amministrazione , la Confederazione affronta la questione del rischio di discriminazione derivante dai set di dati quando le decisioni si basano sull’intelligenza artificiale. Mette al centro l’essere umano, la sua dignità e il suo benessere. L’utilizzo dell’AI deve «sostenere le pari opportunità per le persone, ma anche incoraggiare e facilitare l’accesso alla formazione, ai beni, ai servizi e alle tecnologie». I diritti fondamentali devono essere sempre rispettati. Laddove vi sia la probabilità che i diritti fondamentali vengano violati, in particolare nel contesto dei sistemi di autoapprendimento, dovrebbe essere effettuata una valutazione d’impatto globale. Questo processo dovrebbe essere accompagnato da un monitoraggio continuo per mettere in atto tutele e controlli adeguati. L’obiettivo primario è tutelare le persone interessate da ogni discriminazione e stigmatizzazione. Allo stesso tempo, il rispetto della privacy dovrebbe essere garantito attraverso una rigorosa applicazione delle disposizioni sulla protezione dei dati. Questi sviluppi si svolgono in modo analogo a quelli all’interno del Consiglio d’Europa. (cf. X.X.). L’obiettivo è anche garantire che le autorità pubbliche non utilizzino gli strumenti di intelligenza artificiale in un modo che non sarebbe appropriato in una società liberale come quella svizzera.

Trasparenza

Come regola generale, le decisioni sono accettate quando vengono prese in modo trasparente e quindi comprensibile. Lo stesso vale per le decisioni prese utilizzando l’intelligenza artificiale. Gli utenti devono essere in grado di sapere quando una decisione è stata presa da un’intelligenza artificiale. Dovrebbero anche capire come i sistemi di intelligenza artificiale arrivano alle loro conclusioni. Ciò non solo promuove la fiducia, ma aiuta anche a identificare e correggere possibili errori o pregiudizi nei sistemi. In queste condizioni, è essenziale sviluppare metodi per spiegare le decisioni dell’IA. Ciò richiede processi trasparenti. Come base giuridica può quindi essere utilizzata la nuova legge svizzera sulla protezione dei dati: essa prevede ampie disposizioni in materia di trasparenza per quanto riguarda le decisioni automatizzate. Allo stesso tempo, dovrebbero essere evitate richieste eccessive. Le decisioni prese dagli esseri umani possono, infatti, anche mancare di trasparenza e basarsi su numerosi pregiudizi (non sempre ).

Anche per l’OCSE la trasparenza è importante per garantire la tracciabilità. Richiede agli attori dell’IA di dimostrare trasparenza al fine di «promuovere una comprensione generale dei sistemi di intelligenza artificiale» nonché la consapevolezza e la comprensione delle interazioni con i sistemi di intelligenza .

Libertà economica

La libertà economica e la libertà contrattuale sono due dei pilastri di un’economia dinamica caratterizzata dalla libera concorrenza. In Svizzera la libertà economica è un diritto fondamentale ai sensi dell’art. 26 Cost. La libertà contrattuale, sancita dal codice delle obbligazioni, significa che, nei limiti della legge, ognuno è libero di decidere con chi desidera entrare in un rapporto . È importante sottolineare che i sistemi di intelligenza artificiale non limitano queste libertà, ma possono addirittura supportarle. L’intelligenza artificiale può essere utilizzata come strumento per prendere decisioni fondate e sviluppare modelli commerciali innovativi. Per quanto riguarda la regolamentazione dell’IA, dobbiamo garantire che la libertà economica, e in particolare la libertà contrattuale, rimanga garantita.

Un contratto deve in linea di principio rispettare i limiti posti dal codice delle obbligazioni, in particolare dagli artt. 19, par. 2 e dell'art. 20, par. 1. Allo stesso tempo, l’individualizzazione non è vietata, indipendentemente dal fatto che venga utilizzata l’intelligenza artificiale. L'individualizzazione nel senso della libertà contrattuale è in linea di principio possibile e tale deve . Poter personalizzare l'offerta è infatti essenziale per la libera concorrenza.

Proprietà intellettuale

Le questioni relative alla proprietà intellettuale in relazione all'IA sono numerose: i sistemi di IA sono spesso sviluppati ed esercitati sulla base di grandi volumi di dati, algoritmi e lavori creati dall'uomo.

I problemi relativi ai diritti d’autore sorgono anche in relazione ai risultati generati dai sistemi di intelligenza artificiale. Quando i dati vengono elaborati con l'intelligenza artificiale, i dati protetti possono essere copiati digitalmente, violando così i diritti degli autori. I frammenti di un risultato generato da ChatGPT possono quindi essere protetti dal diritto d'autore, per cui un potenziale utente violerebbe inconsapevolmente tali diritti.

Ci sono ancora dubbi sulla paternità dei risultati prodotti da un'IA. Se un'IA è in grado di produrre beni immateriali a basso costo, potrebbe essere necessario adeguare il diritto di proprietà intellettuale. In particolare, quando i sistemi di IA generano autonomamente opere creative, si pone la questione della protezione e dell'"inventore" di tali opere. Se diventa difficile attribuire chiaramente atti creativi o inventivi agli esseri umani o ai sistemi di IA, i criteri tradizionali di "creazione intellettuale" e "attività inventiva", potrebbero essere messi in discussione. È possibile attribuire una prestazione intellettuale a un prodotto creato da un'IA? La giurisprudenza dovrà quindi sviluppare questo tema per definire i limiti del diritto di proprietà intellettuale in relazione all'IA.

Le possibilità offerte dall'IA sollevano anche questioni relative al diritto dei brevetti. Non c'è ancora una risposta alla domanda se un'IA possa essere anche un inventore, o a chi appartenga questo ruolo, o a quale livello di autonomia un umano che utilizza un'IA non sia più considerato un inventore. Per trovare una risposta, dobbiamo innanzitutto risalire all'idea originaria che sta alla base della legislazione in questione e trasporla alla situazione particolare di un'IA.

Ma non vi è alcuna necessità urgente di adattare il diritto della proprietà intellettuale per tenere conto dell'ascesa dell'IA, poiché la legge attuale sembra offrire una flessibilità sufficiente. Tra i tribunali, che continueranno a sviluppare i concetti giuridici pertinenti, e le discussioni nei circoli specializzati, emergerà un approccio appropriato e adeguato. A livello internazionale, esistono già alcune soluzioni provvisorie, sulla base delle quali i tribunali stanno chiarendo le questioni in . Ciò sarà possibile anche in Svizzera.

Responsabilità

L'uso di sistemi di intelligenza artificiale comporta rischi in termini di responsabilità. La prima questione che si pone è quella dell'"autonomia" e, in secondo luogo, quella di sapere quando un'IA ha effettivamente causato un danno.

Immaginiamo un robot tagliaerba che, invece di tagliare il prato del suo proprietario, taglia l'aiuola del vicino. Una volta che il danno è stato fatto, in primo luogo, il vicino chiede di essere rimborsato per i suoi fiori; in secondo luogo, il proprietario del robot viene convocato dal vicino per pagare; in terzo luogo, il produttore del robot viene citato in giudizio dal .

A questo proposito è necessario distinguere tra una decisione errata e un difetto del prodotto. La prima si verifica se «di fronte a una scelta tra più alternative, si sceglie il comportamento che porta al danno o all'aggravamento del danno«, mentre il difetto del prodotto «deriva da un difetto dei suoi ».

In Svizzera, la legge sulla responsabilità dei prodotti (LRDP) disciplina, tra l'altro, la responsabilità del produttore per i prodotti difettosi. Questa legge presenta alcune analogie con la direttiva europea 85/374/CEE, che deve essere rivista, in particolare alla luce del rapido ritmo dell'evoluzione tecnologica. In questo contesto, vengono affrontati diversi punti deboli del regime di responsabilità per danno da prodotto, come il campo di applicazione limitato ai prodotti nonostante la crescente importanza del software, la determinazione della difettosità dei prodotti che possono essere sviluppati o la possibilità di far valere i diritti a causa della suddivisione dell'onere della prova. Il legislatore svizzero farebbe bene a prendere in seria considerazione anche questi aspetti.

Attualmente, un sistema di intelligenza artificiale non può essere un soggetto responsabile perché non ha capacità giuridica. Non è ancora noto se un sistema di intelligenza artificiale rientri nella definizione di software della legge sulla responsabilità del prodotto. Nell'ambito della responsabilità, alcune questioni rimangono aperte e sarà interessante vedere come la giurisprudenza risponderà ad esse. La distinzione tra difetto del prodotto e decisione inappropriata, menzionata in precedenza, giocherà probabilmente un ruolo importante a questo proposito.

Frau mit Tablet

Sviluppi internazionali

UE

L’Unione europea ha un approccio molto interventista e dunque fortemente basato sulla regolamentazione degli sviluppi legati alla digitalizzazione. Nel corso di questi ultimi anni, essa ha lanciato numerose iniziative allo scopo di regolamentare l’intelligenza artificiale. Nell'aprile 2021, la Commissione europea ha pubblicato una bozza di regolamento sull', che classifica le applicazioni in base al livello di rischio che presentano. Il regolamento vieta le applicazioni a più alto rischio, come il riconoscimento biometrico per monitorare le persone o il "social scoring".

Questo progetto di regolamento prevede anche un requisito di certificazione per alcune applicazioni di IA, per garantire che siano conformi agli standard europei. I fornitori di sistemi di IA sarebbero inoltre tenuti a fornire informazioni trasparenti e comprensibili sul funzionamento dei loro sistemi.

Tuttavia, alcuni dubitano dell'applicabilità di tale regolamento, poiché alcune applicazioni di IA sono difficili da classificare e regolamentare. Nel luglio 2023, esperti tecnici e legali hanno sottoposto la legge europea sull'IA a un test pratico. Anche in questo caso, i problemi di applicabilità sono stati riscontrati abbastanza . Altri temono che i regolamenti ostacolino anche l'innovazione. Il progetto di regolamento deve ancora ricevere il via libera dagli Stati membri dell'UE e dal Parlamento europeo. L'adozione è prevista non prima della fine del 2023.

Diversi Stati membri dell'UE hanno già lanciato le proprie iniziative per regolamentare o addirittura vietare l'uso dell'IA in determinati settori. Nel 2018, la Francia ha pubblicato una strategia nazionale per l'intelligenza artificiale, basata su principi etici e legali e volta a promuovere lo sviluppo dell'. Nel 2020, la Germania ha pubblicato un documento strategico sull'IA che affronta, tra le altre cose, gli aspetti etici e legali e propone un quadro per la regolamentazione delle applicazioni dell'.

Tornando all'UE, si sta sviluppando un regolamento il più completo possibile, basato sul rischio e progettato specificamente per l'IA. Questo regolamento coprirà in modo centralizzato le varie aree e questioni legali relative ai sistemi e alle applicazioni di IA. Con questo approccio, che si inserisce nel suo sistema giuridico, l'UE sta probabilmente aprendo nuove strade per gli altri paesi. Dal momento che il testo non è ancora definitivo, è difficile valutare come verrà applicato nella pratica. Tuttavia, sembra già che, dato il progresso veloce di questa tecnologia, alcuni elementi del regolamento previsto saranno già obsoleti prima di entrare in vigore.

Consiglio d’Europa

Il Consiglio d'Europa sta attualmente negoziando una convenzione sull'intelligenza artificiale. Questa dovrebbe garantire che i sistemi di intelligenza artificiale siano sviluppati, progettati e utilizzati nel rispetto dei diritti umani, dello Stato di diritto, della democrazia e di altri valori .

Un aspetto importante delle discussioni è la richiesta di trasparenza nei confronti dei sistemi di IA. Ciò significa che dobbiamo essere in grado di capire come prendono le decisioni. Soprattutto quando queste decisioni possono avere un impatto sulla vita delle persone, come nel caso dell'assegnazione di un posto di lavoro.

Un altro aspetto della convenzione è l'idea che i sistemi di IA debbano rispettare i diritti umani. Dovrebbero quindi essere progettati per rispettare la dignità umana, la privacy e la libertà. Pertanto, i sistemi di IA non dovrebbero essere utilizzati per incoraggiare la discriminazione o la sorveglianza.

L'attuale progetto di Convenzione è rivolto ai membri del Consiglio d'Europa e quindi agli Stati. In quanto membro, la Svizzera dovrà adottare i principi e gli obblighi derivanti dalla Convenzione. A un esame più attento, però, gli adattamenti concreti richiesti dovrebbero rimanere piuttosto limitati, poiché i principi fondamentali del progetto di Convenzione, come la non discriminazione, sono già ampiamente presenti nell'ordinamento giuridico svizzero e in modo tecnologicamente neutro (cfr. XX). Detto questo, sarà possibile prendere una posizione reale sul testo solo dopo la sua finalizzazione.

Stati Uniti

Nell'estate del 2023, sette grandi aziende tecnologiche statunitensi, insieme al governo degli Stati Uniti, hanno stabilito regole fondamentali per l'utilizzo delle nuove tecnologie. La sicurezza è al centro di questo approccio. Le aziende concorrenti hanno dichiarato che garantiranno la sicurezza delle tecnologie prima di renderle disponibili al pubblico. Intendono inoltre proteggerle il più possibile dagli attacchi informatici. Sono previste anche disposizioni sulla trasparenza, nel senso di segnalare i contenuti creati o modificati con l'.

Il 30 ottobre 2023, il presidente degli Stati Uniti Joe Biden ha emesso un ordine esecutivo presidenziale sull'uso dei sistemi di IA, che stabilisce misure complete per proteggere la popolazione statunitense dai potenziali rischi associati a questi sistemi. Le misure in questione includono l'obbligo per gli sviluppatori di condividere i risultati dei test di sicurezza con il governo, di sviluppare misure per garantire che i sistemi di IA siano sicuri e degni di fiducia, di proteggere il pubblico dalle truffe dell'IA e di istituire programmi di cybersecurity. Il Parlamento degli Stati Uniti, da parte sua, è responsabile dell'emanazione di una legge sulla protezione dei dati che protegga anche la sfera privata degli americani dai rischi generati dall'IA. Il decreto in questione affronta anche altre questioni, come la promozione dell'uguaglianza e la protezione dei consumatori e dei lavoratori. Ma gli Stati Uniti intendono mantenere il loro ruolo di pionieri nello sviluppo dell'IA e garantire che l'innovazione e la concorrenza siano ancora .

Sebbene non esistano normative a livello nazionale, lo Stato di New York ha approvato una che regolamenta l'uso dell'IA nei processi di assunzione e mira a prevenire disparità di trattamento inappropriate. Le disposizioni sulla trasparenza sono essenziali a questo proposito. Le aziende devono indicare nel processo di assunzione quale software di IA stanno utilizzando. Devono essere condotti studi statistici indipendenti per identificare e correggere i pregiudizi. Non sorprende che i regolamenti siano stati criticati e non siano sostenuti all'unanimità: per alcuni non si spingono abbastanza in là, per altri sono semplicemente .

Cina

Anche in Cina le nuove tecnologie sono una fonte di sfide. ChatGPT non è disponibile a causa dell'esteso firewall del governo cinese e non esiste ancora una valida alternativa cinese. Detto questo, la Cina è presente alle principali conferenze sull'IA con numerosi progetti. I cinesi sono attualmente all'avanguardia nel software di riconoscimento facciale. L'uso diffuso della videosorveglianza nel paese si traduce in una grande disponibilità di dati.

In Cina, nella primavera del 2023 è stata pubblicata una bozza di regolamento sull'intelligenza artificiale generativa. Questo fa della Cina il primo paese ad elaborare una normativa per i software in grado di generare immagini e testi. L'obiettivo è garantire che i contenuti generati «riflettano i valori fondamentali del socialismo». La bozza vieta, ad esempio, la discriminazione sulla base dell'etnia, dell'età o del sesso, l'incitamento alla divisione all'interno del paese, la minaccia all'unità nazionale o il rovesciamento del sistema socialista.

Il progetto di legge prevede anche diversi obblighi per i fornitori e gli sviluppatori di programmi di IA generativa. Non solo tutti gli sviluppi del software dovranno essere sottoposti alle autorità prima della pubblicazione, ma alcuni obblighi si applicheranno fin dalla fase di sviluppo. Nell'interesse della trasparenza, le immagini o i testi già sviluppati da programmi di IA generativa devono essere identificati da una sorta di filigrana. Le aziende che forniscono il loro software solo a clienti e imprese straniere sarebbero esentate da alcuni obblighi.

Gli esperti non sono d'accordo sull'impatto di queste norme sulla posizione della Cina nella corsa all'IA. Il governo cinese ha espresso il suo sostegno di principio all'IA generativa, ma sembra porre maggiore enfasi sulla sicurezza .

Frau mit Tablet

Discussione in Svizzera

Dibattito politico

Il Consiglio federale ha pubblicato un rapporto sull'IA dal 2019, in cui evidenzia le opportunità e le sfide associate a questa . Sottolinea che la Svizzera deve svolgere un ruolo di primo piano nello sviluppo e nell'utilizzo dell'IA, ma che deve anche tenere conto delle questioni etiche, legali e sociali che ciò solleva. Per quanto riguarda la regolamentazione dell'IA, il Consiglio federale ha raccomandato un approccio cauto e differenziato. Per incoraggiare l'uso dell'IA, favorisce l'autoregolamentazione volontaria e le linee guida etiche. Allo stesso tempo, però, il Consiglio federale riconosce la necessità di regolamentare alcuni ambiti dell'IA attraverso disposizioni di legge, soprattutto in considerazione dei rischi per la sicurezza, la sfera privata o la protezione dei diritti fondamentali degli individui.

Il 22 novembre 2023, il Consiglio federale ha deciso che gli approcci normativi all'intelligenza artificiale saranno rivisti. L'obiettivo è promuovere i benefici positivi dell'IA e ridurre al minimo gli eventuali rischi. Il rapporto richiesto al Dipartimento federale dell'ambiente, dei trasporti, dell'energia e delle comunicazioni (DATEC) dovrà essere presentato entro la fine del 2024 e mostrerà diversi approcci compatibili con gli attuali requisiti internazionali. Il rapporto servirà quindi come punto di partenza per la stesura di un mandato per un progetto concreto di regolamentazione dell'IA nel .

Nel Parlamento svizzero sono stati presentati diversi interventi relativi all'IA. Le iniziative parlamentari chiedono di chiarire il quadro giuridico per il suo utilizzo e se necessario di introdurre norme specifiche. Queste iniziative perseguono obiettivi molto diversi: alcune mirano a garantire la protezione della , a promuovere la trasparenza dei sistemi di , a stabilire la responsabilità per decisioni o a regolamentare i «». Altre ancora si spingono fino a chiedere un monitoraggio, o addirittura una moratoria, per alcuni tipi di applicazioni. Qui e là si suggerisce di prendere a modello i regolamenti dell'UE.

Da un punto di vista economico, tali interventi dimostrano l'importanza di un dibattito sulle opportunità e sui rischi dell'IA. Al contempo, il focus degli interventi dimostra anche che una regolamentazione frettolosa e onnicomprensiva dell'IA sarebbe l'approccio sbagliato. Dobbiamo invece seguire da vicino gli sviluppi e analizzare in modo mirato in che misura vi siano lacune specifiche nel sistema giuridico che devono essere colmate (cfr. punto X). Molte delle attuali leggi neutrali dal punto di vista tecnologico sembrano già offrire buone soluzioni agli sviluppi attuali. Inoltre, spetterà ai tribunali sviluppare una prassi basata su casi concreti e sull'applicazione di standard generalmente astratti. Interventi mirati dovrebbero quindi essere effettuati solo in aree in cui esistono lacune legali chiaramente identificate o un'eccessiva incertezza giuridica.

La mozione 23.3201 di Marcel Dobler (PLR) «Situazione giuridica dell’intelligenza artificiale. Chiarire le incertezze, incoraggiare " è un esempio di intervento riuscito.

Progetto relativo alla tecnologia dei registri distribuiti (TRD)

Già nel 2019 i legislatori svizzeri si sono trovati di fronte alla sfida di regolamentare una nuova tecnologia, la distributed ledger technology (DLT). La soluzione sviluppata in quel periodo è esemplare in termini di approccio normativo alle nuove tecnologie. Invece di sviluppare una «legislazione per la blockchain», la legge sulla DLT è stata concepita come una legge quadro che adatta e integra varie leggi. Tre sono state le principali aree di lavoro: rafforzare la certezza del diritto, eliminare gli ostacoli alle applicazioni basate su DLT o blockchain e limitare i nuovi rischi. Basata sui principi esistenti del nostro sistema giuridico, la legge ha ricevuto un ampio sostegno in Parlamento. L'attuazione ha dimostrato che la Svizzera può affrontare le sfide dello sviluppo tecnologico e consentire l'innovazione sulla base del diritto vigente.

La posizione dell’economia

È troppo presto per emanare regolamenti. Una regolamentazione affrettata dell'IA avrebbe un impatto negativo sull'innovazione, sulla concorrenza e sulla cooperazione internazionale. Soprattutto le PMI sarebbero fortemente penalizzate da tale regolamentazione.

Piuttosto che cedere all'attivismo politico, l’economia sostiene una chiara strategia per il futuro. Pur ritenendo necessarie misure su alcuni punti, ritiene importante concentrare il dibattito sugli elementi rilevanti.

Grazie ai suoi lunghi processi di sviluppo e alla sua tradizione giuridica, il sistema giuridico svizzero è ben fondato, ponderato e sostenibile. Nella maggior parte dei casi, non è necessario rivedere una legge in profondità, perché è stata concepita fin dall'inizio sulla base di principi e rischi ed è neutrale dal punto di vista della concorrenza e della tecnologia. Ciò significa che le leggi possono coprire un'ampia gamma di sviluppi, compresa l'IA.

Non è necessaria una regolamentazione completa sotto forma di legislazione sull'IA. In quanto nuovo "fenomeno" o nuova possibilità tecnica, l'IA è - come qualsiasi altro fenomeno - coperta dal sistema giuridico nel suo complesso.

Grazie a un approccio basato sui principi, il diritto vigente è applicabile anche a sviluppi rapidi come l'IA. Questo approccio consente inoltre alle aziende di sviluppare i loro nuovi prodotti in linea con i principi giuridici vigenti.

Molte questioni legate all'IA dovrebbero quindi poter essere risolte oggi sulla base delle leggi esistenti, senza la necessità di adattarle (come la legge sulla protezione dei dati, il codice civile, la legge federale contro la concorrenza sleale, il codice penale, ecc.) Se qualcuno commette un atto di concorrenza sleale, viola la LCD anche se utilizza l'IA per farlo. Se, contro ogni aspettativa, non si trova una soluzione adeguata per una determinata applicazione utilizzando l'IA sulla base della legislazione in vigore, le lacune specifiche possono essere colmate in modo mirato.

L'ordinamento giuridico svizzero contiene già disposizioni mirate. L'art. 21 LPD, in particolare il paragrafo 1, introdotto nell'ultima revisione della LPD, ne è un esempio lampante. In base a questo articolo, la persona interessata deve essere informata di qualsiasi decisione presa esclusivamente sulla base di un trattamento automatizzato di dati personali che abbia effetti giuridici nei suoi confronti o che la riguardi in modo significativo. Questo sarebbe il caso, ad esempio, se i tassi di interesse ipotecari per determinati clienti fossero stabiliti esclusivamente con mezzi automatizzati.

Man mano che si acquisisce esperienza con l'IA, potrebbero emergere esigenze normative ad hoc, per garantire una sufficiente certezza giuridica ai modelli commerciali adattati alle transazioni di massa, come è avvenuto, ad esempio, con la legislazione TRD. Se necessario, questi adattamenti normativi ad hoc dovrebbero essere concepiti nel modo più flessibile possibile, in modo da poter tenere rapidamente conto degli sviluppi tecnici altamente dinamici.

La legislazione che riguarda specificamente l'IA deve essere respinta, in particolare se si basa sul modello dell'UE. Una simile legislazione non sarebbe in linea con la tradizione legislativa della Svizzera e sarebbe probabilmente obsoleta non appena entrata in vigore.

Se la Svizzera, sulla base della sua tradizione legislativa, colmerà le lacune chiaramente identificate, sarà più efficace dell'approccio dell'UE, che tenta di regolamentare una tecnologia poco tangibile. Con una regolamentazione autonoma, la Svizzera può consentire sviluppi innovativi e creare allo stesso tempo certezza del diritto. Questo approccio è da preferire, soprattutto di fronte alla concorrenza internazionale tra le piazze economiche, perché consente di trovare soluzioni flessibili e tecnologicamente neutre che rispondono anche alle esigenze dell'economia svizzera.

Iscriviti alla newsletter

Iscriviti qui alla nostra newsletter. Registrandoti, riceverai dalla prossima settimana tutte le informazioni attuali sulla politica economica e le attività della nostra associazione.

Indirizzo email
L’IA in Svizzera | economiesuisse | economiesuisse