AI Act: la legge UE sull’intelligenza artificiale

L’intelligenza artificiale (IA) è una tecnologia in rapida evoluzione che può offrire un’ampia gamma di vantaggi economici e benefici per la società. Migliorando la previsione, l’ottimizzazione delle operazioni, l’allocazione delle risorse e la personalizzazione dell’erogazione dei servizi, l’uso dell’IA può supportare risultati socialmente e ambientalmente vantaggiosi e fornire vantaggi competitivi fondamentali alle imprese e all’economia. Tuttavia, gli stessi
elementi e tecniche che alimentano i benefici socio-economici dell’intelligenza artificiale possono anche portare
nuovi rischi o conseguenze negative per gli individui e la società. Alla luce della velocità del cambiamento tecnologico e le possibili sfide, l’UE ha presentato una legislazione per un approccio coordinato sulle implicazioni umane ed etiche dell’intelligenza artificiale – l’AI Act.

Cos’è l’AI Act?

L’AI Act è una proposta di legge europea sull’intelligenza artificiale. Si tratta della prima legge sull’IA da parte di un importante regolatore a livello mondiale. La legge assegna le applicazioni dell’IA a tre categorie di rischio. In primo luogo, le applicazioni e i sistemi che creano un rischio inaccettabile, come il punteggio sociale gestito dal governo del tipo utilizzato in Cina, sono vietati. In secondo luogo, le candidature ad alto rischio, come uno strumento di scansione dei CV che classifica i candidati al lavoro, sono soggette a requisiti legali specifici. Infine, le applicazioni non esplicitamente vietate o elencate come ad alto rischio sono in gran parte lasciate non regolamentate.

La proposta della Commissione Europea è stata presentata nell’aprile 2021. Da lì sono partiti i lavori delle altre due istituzioni europee, al fine di definire le proprie posizioni comuni. Quella del Consiglio è arrivata nel dicembre 2022 sotto la presidenza ceca, mentre la posizione negoziale del Parlamento è stata definitivamente approvata con il voto della scorsa settimana.

Come il regolamento generale sulla protezione dei dati (GDPR) dell’UE nel 2018, l’AI Act dell’Unione Europea potrebbe diventare uno standard globale, determinando fino a che punto l’IA ha un effetto positivo piuttosto che negativo sulla tua vita ovunque tu sia.

Con il voto della scorsa settimana, il Parlamento europeo ha compiuto un passo decisivo verso un futuro in cui l’intelligenza artificiale è regolamentata a livello globale. Il pericolo è che queste nuove regole possano diventare una gabbia troppo stretta, spingendo le startup di intelligenza artificiale a cercare rifugio al di fuori dell’Unione Europea.

Il risultato raggiunto in Parlamento apre ora la porta ad una nuova fase in cui i rappresentanti delle tre istituzioni europee si incontreranno per negoziare il testo finale che vedremo auspicabilmente tra la fine del 2023 e l’inizio del 2024.

Gli obiettivi dell’AI Act

La Commissione ha proposto la legislazione sull’intelligenza artificiale con i seguenti obiettivi specifici:

  • garantire che i sistemi di IA immessi sul mercato e utilizzati siano sicuri e rispettosi delle leggi in materia di diritti fondamentali e dei valori dell’Unione Europea;
  • garantire la certezza del diritto per facilitare gli investimenti e l’innovazione nell’IA;
  • migliorare la governance e l’effettiva applicazione del diritto vigente in materia di diritti fondamentali e dei requisiti di sicurezza applicabili ai sistemi di IA;
  • facilitare lo sviluppo di un mercato unico per un’IA legale, sicura e affidabile, prevenendo la frammentazione del mercato.

Tra i principali punti sui quali sono intervenute le modifiche del Parlamento possono segnalarsi:

  • la scelta di una nuova definizione di “sistema di IA”;
  • l’introduzione di un elenco di principi generali applicabili a tutti i sistemi di IA, tra cui privacy e data governance;
  • l’ampliamento delle pratiche di intelligenza artificiale vietate, con l’inclusione di nuove fattispecie, come ad esempio i sistemi di polizia predittiva;
  • sempre sulle pratiche di IA vietate, la scelta di escludere del tutto l’ammissibilità dell’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico e di vietare l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, a meno che questi ultimi non siano soggetti a previa autorizzazione giudiziaria e siano strettamente necessari per la ricerca mirata collegata a uno specifico reato grave;
  • la modifica dei criteri di classificazione e delle ipotesi di sistemi di IA ad alto rischio;
  • l’inserimento di nuovi obblighi per i fornitori di foundation models e per i sistemi di intelligenza artificiale generativa;
  • l’inserimento dell’obbligo di effettuare una valutazione d’impatto sui diritti fondamentali per i sistemi di IA ad alto rischio;
  • l’istituzione dell’Ufficio europeo per l’intelligenza artificiale, che prende il posto del Comitato europeo per l’intelligenza artificiale proposto dalla Commissione, al quale viene affidato il compito di monitorare l’attuazione del regolamento;
  • la modifica di alcuni aspetti dell’impianto sanzionatorio;
  • un più esteso coordinamento con le norme del GDPR.

Il costo dell’AI Act

Il Center for Data Innovation, un’organizzazione no profit focalizzata sull’innovazione basata sui dati, ha pubblicato un rapporto in cui afferma che l’AI Act costerà 31 miliardi di euro nei prossimi cinque anni e ridurrà gli investimenti nel settore di quasi il 20%. L’imprenditore Meeri Haataja e l’accademica Joanna Bryson hanno pubblicato la loro ricerca scrivendo che probabilmente sarà molto più economica, poiché il regolamento copre principalmente una piccola percentuale di applicazioni di intelligenza artificiale considerate ad alto rischio. Inoltre, l’analisi dei costi non tiene conto di tutti i vantaggi della regolamentazione per il pubblico. Infine, il CEPS, un think tank e forum per il dibattito sugli affari dell’UE, ha pubblicato le proprie analisi delle stime dei costi e ha raggiunto una conclusione simile a quella di Haataja e Bryson.

OpenAI chiede modifiche all’AI Act

OpenAI avrebbe esercitato pressioni su eurodeputati e funzionari dell’Unione europea per “annacquare” alcuni elementi dell’AI Act, suggerendo emendamenti al testo per far si che i sistemi IA come Gpt-3 non fossero classificati come “ad alto rischio” e quindi sottoposti a severi requisiti legali.

La creatrice di ChatGpt avrebbe condiviso con i funzionari europei un ‘white paper’ in cui venivano evidenziate le misure di sicurezza implementate da OpenAI per prevenire l’uso improprio dei suoi strumenti di intelligenza artificiale generativa. Il testo spingeva per una posizione sostanzialmente orientata verso l’autoregolamentazione. OpenAI avrebbe anche chiesto modifiche alla testo dell’Eurocamera per consentire rapidi aggiornamenti dei suoi sistemi senza lunghe valutazioni.

ARTICOLI CORRELATI:

Intelligenza artificiale: ChatGPT non è più bravo degli umani a battere il mercato

Elon Musk sull’intelligenza artificiale: un rischio per la società

ChatGPT: come investire nella rivoluzione dell’intelligenza artificiale

Nvidia: previsioni di vendita rialziste grazie al boom dell’intelligenza artificiale

Exit mobile version