# 8 / 2023
05.12.2023

L’IA in Svizzera: condizioni quadro intelligenti con strumenti collaudati

Sviluppi internazionali

UE

L’Unione europea ha un approccio molto interventista e dunque fortemente basato sulla regolamentazione degli sviluppi legati alla digitalizzazione. Nel corso di questi ultimi anni, essa ha lanciato numerose iniziative allo scopo di regolamentare l’intelligenza artificiale. Nell'aprile 2021, la Commissione europea ha pubblicato una bozza di regolamento sull'IA, che classifica le applicazioni in base al livello di rischio che presentano. Il regolamento vieta le applicazioni a più alto rischio, come il riconoscimento biometrico per monitorare le persone o il "social scoring".

Questo progetto di regolamento prevede anche un requisito di certificazione per alcune applicazioni di IA, per garantire che siano conformi agli standard europei. I fornitori di sistemi di IA sarebbero inoltre tenuti a fornire informazioni trasparenti e comprensibili sul funzionamento dei loro sistemi.

Tuttavia, alcuni dubitano dell'applicabilità di tale regolamento, poiché alcune applicazioni di IA sono difficili da classificare e regolamentare. Nel luglio 2023, esperti tecnici e legali hanno sottoposto la legge europea sull'IA a un test pratico. Anche in questo caso, i problemi di applicabilità sono stati riscontrati abbastanza rapidamente. Altri temono che i regolamenti ostacolino anche l'innovazione. Il progetto di regolamento deve ancora ricevere il via libera dagli Stati membri dell'UE e dal Parlamento europeo. L'adozione è prevista non prima della fine del 2023.

Diversi Stati membri dell'UE hanno già lanciato le proprie iniziative per regolamentare o addirittura vietare l'uso dell'IA in determinati settori. Nel 2018, la Francia ha pubblicato una strategia nazionale per l'intelligenza artificiale, basata su principi etici e legali e volta a promuovere lo sviluppo dell'IA. Nel 2020, la Germania ha pubblicato un documento strategico sull'IA che affronta, tra le altre cose, gli aspetti etici e legali e propone un quadro per la regolamentazione delle applicazioni dell'IA.

Tornando all'UE, si sta sviluppando un regolamento il più completo possibile, basato sul rischio e progettato specificamente per l'IA. Questo regolamento coprirà in modo centralizzato le varie aree e questioni legali relative ai sistemi e alle applicazioni di IA. Con questo approccio, che si inserisce nel suo sistema giuridico, l'UE sta probabilmente aprendo nuove strade per gli altri paesi. Dal momento che il testo non è ancora definitivo, è difficile valutare come verrà applicato nella pratica. Tuttavia, sembra già che, dato il progresso veloce di questa tecnologia, alcuni elementi del regolamento previsto saranno già obsoleti prima di entrare in vigore.

Consiglio d’Europa

Il Consiglio d'Europa sta attualmente negoziando una convenzione sull'intelligenza artificiale. Questa dovrebbe garantire che i sistemi di intelligenza artificiale siano sviluppati, progettati e utilizzati nel rispetto dei diritti umani, dello Stato di diritto, della democrazia e di altri valori importanti.

Un aspetto importante delle discussioni è la richiesta di trasparenza nei confronti dei sistemi di IA. Ciò significa che dobbiamo essere in grado di capire come prendono le decisioni. Soprattutto quando queste decisioni possono avere un impatto sulla vita delle persone, come nel caso dell'assegnazione di un posto di lavoro.

Un altro aspetto della convenzione è l'idea che i sistemi di IA debbano rispettare i diritti umani. Dovrebbero quindi essere progettati per rispettare la dignità umana, la privacy e la libertà. Pertanto, i sistemi di IA non dovrebbero essere utilizzati per incoraggiare la discriminazione o la sorveglianza.

L'attuale progetto di Convenzione è rivolto ai membri del Consiglio d'Europa e quindi agli Stati. In quanto membro, la Svizzera dovrà adottare i principi e gli obblighi derivanti dalla Convenzione. A un esame più attento, però, gli adattamenti concreti richiesti dovrebbero rimanere piuttosto limitati, poiché i principi fondamentali del progetto di Convenzione, come la non discriminazione, sono già ampiamente presenti nell'ordinamento giuridico svizzero e in modo tecnologicamente neutro (cfr. XX). Detto questo, sarà possibile prendere una posizione reale sul testo solo dopo la sua finalizzazione.

Stati Uniti

Nell'estate del 2023, sette grandi aziende tecnologiche statunitensi, insieme al governo degli Stati Uniti, hanno stabilito regole fondamentali per l'utilizzo delle nuove tecnologie. La sicurezza è al centro di questo approccio. Le aziende concorrenti hanno dichiarato che garantiranno la sicurezza delle tecnologie prima di renderle disponibili al pubblico. Intendono inoltre proteggerle il più possibile dagli attacchi informatici. Sono previste anche disposizioni sulla trasparenza, nel senso di segnalare i contenuti creati o modificati con l'IA.

Il 30 ottobre 2023, il presidente degli Stati Uniti Joe Biden ha emesso un ordine esecutivo presidenziale sull'uso dei sistemi di IA, che stabilisce misure complete per proteggere la popolazione statunitense dai potenziali rischi associati a questi sistemi. Le misure in questione includono l'obbligo per gli sviluppatori di condividere i risultati dei test di sicurezza con il governo, di sviluppare misure per garantire che i sistemi di IA siano sicuri e degni di fiducia, di proteggere il pubblico dalle truffe dell'IA e di istituire programmi di cybersecurity. Il Parlamento degli Stati Uniti, da parte sua, è responsabile dell'emanazione di una legge sulla protezione dei dati che protegga anche la sfera privata degli americani dai rischi generati dall'IA. Il decreto in questione affronta anche altre questioni, come la promozione dell'uguaglianza e la protezione dei consumatori e dei lavoratori. Ma gli Stati Uniti intendono mantenere il loro ruolo di pionieri nello sviluppo dell'IA e garantire che l'innovazione e la concorrenza siano ancora possibili.

Sebbene non esistano normative a livello nazionale, lo Stato di New York ha approvato una legge che regolamenta l'uso dell'IA nei processi di assunzione e mira a prevenire disparità di trattamento inappropriate. Le disposizioni sulla trasparenza sono essenziali a questo proposito. Le aziende devono indicare nel processo di assunzione quale software di IA stanno utilizzando. Devono essere condotti studi statistici indipendenti per identificare e correggere i pregiudizi. Non sorprende che i regolamenti siano stati criticati e non siano sostenuti all'unanimità: per alcuni non si spingono abbastanza in là, per altri sono semplicemente inutili.

Cina

Anche in Cina le nuove tecnologie sono una fonte di sfide. ChatGPT non è disponibile a causa dell'esteso firewall del governo cinese e non esiste ancora una valida alternativa cinese. Detto questo, la Cina è presente alle principali conferenze sull'IA con numerosi progetti. I cinesi sono attualmente all'avanguardia nel software di riconoscimento facciale. L'uso diffuso della videosorveglianza nel paese si traduce in una grande disponibilità di dati.

In Cina, nella primavera del 2023 è stata pubblicata una bozza di regolamento sull'intelligenza artificiale generativa. Questo fa della Cina il primo paese ad elaborare una normativa per i software in grado di generare immagini e testi. L'obiettivo è garantire che i contenuti generati «riflettano i valori fondamentali del socialismo». La bozza vieta, ad esempio, la discriminazione sulla base dell'etnia, dell'età o del sesso, l'incitamento alla divisione all'interno del paese, la minaccia all'unità nazionale o il rovesciamento del sistema socialista.

Il progetto di legge prevede anche diversi obblighi per i fornitori e gli sviluppatori di programmi di IA generativa. Non solo tutti gli sviluppi del software dovranno essere sottoposti alle autorità prima della pubblicazione, ma alcuni obblighi si applicheranno fin dalla fase di sviluppo. Nell'interesse della trasparenza, le immagini o i testi già sviluppati da programmi di IA generativa devono essere identificati da una sorta di filigrana. Le aziende che forniscono il loro software solo a clienti e imprese straniere sarebbero esentate da alcuni obblighi.

Gli esperti non sono d'accordo sull'impatto di queste norme sulla posizione della Cina nella corsa all'IA. Il governo cinese ha espresso il suo sostegno di principio all'IA generativa, ma sembra porre maggiore enfasi sulla sicurezza nazionale.