Insediamento di Trump: Tutte le Decisioni che stanno dividendo l’America
Il ritorno di Donald Trump alla Casa Bianca come 47° presidente degli Stati Uniti ha portato una serie di decisioni immediate e controverse. Tra proclami sulle tariffe universali, una revisione della politica commerciale e una valanga di ordini esecutivi, il primo giorno del suo nuovo
Cosa fa muovere Wall Street e la Borsa Europea? Sintesi Macro – Settimana 03
Le borse hanno chiuso in grande stile, segnando la settimana più brillante per l’S&P 500 da quando si è votato per le elezioni presidenziali. Il venerdì l’indice ha guadagnato un ulteriore 1%, trainato dai colossi Nvidia e Tesla. E mentre Intel ha visto un balzo
Previsioni Crypto 2025: Sarà Estate o Inverno per le Criptovalute?
Il passato ci guida nel futuro, quindi, prima di esplorare le previsioni crypto per il 2025, diamo uno sguardo indietro. La storia delle criptovalute è fatta di cicli: estati di euforia e rapidi aumenti dei prezzi, seguite da inverni rigidi, con crolli di mercato e
2025: Cosa Aspettarsi dai Mercati delle Materie Prime
Una tazzina di caffè al bar, il profumo intenso che avvolge l’aria. Ma qualcosa è cambiato. Il prezzo non è più quello di un anno fa. Benvenuti nel 2025, l’anno in cui le materie prime, dal caffè al petrolio, stanno riscrivendo le regole del mercato
Le ultime sanzioni USA sul petrolio russo: perché sono un vero punto di svolta
Negli ultimi giorni della presidenza di Joe Biden, gli Stati Uniti hanno lanciato un’azione decisa per colpire le esportazioni di petrolio russe. Una mossa che punta a togliere alla Russia una delle sue principali fonti di finanziamento nella guerra contro l’Ucraina. 160 le petroliere sanzionate.
Comprare Casa nel 2025: Cosa devi sapere
Acquistare casa è uno dei passi più importanti della vita. Nel 2025 questa decisione potrebbe essere più interessante che mai grazie a tendenze che stanno rivoluzionando il mercato immobiliare. Ma attenzione, il panorama è in continuo movimento e rimanere aggiornati è fondamentale. Ecco tutto ciò
AI Act: la legge UE sull’intelligenza artificiale
L’intelligenza artificiale (IA) è una tecnologia in rapida evoluzione che può offrire un’ampia gamma di vantaggi economici e benefici per la società. Migliorando la previsione, l’ottimizzazione delle operazioni, l’allocazione delle risorse e la personalizzazione dell’erogazione dei servizi, l’uso dell’IA può supportare risultati socialmente e ambientalmente vantaggiosi e fornire vantaggi competitivi fondamentali alle imprese e all’economia. Tuttavia, gli stessi
elementi e tecniche che alimentano i benefici socio-economici dell’intelligenza artificiale possono anche portare
nuovi rischi o conseguenze negative per gli individui e la società. Alla luce della velocità del cambiamento tecnologico e le possibili sfide, l’UE ha presentato una legislazione per un approccio coordinato sulle implicazioni umane ed etiche dell’intelligenza artificiale – l’AI Act.
Cos’è l’AI Act?
L’AI Act è una proposta di legge europea sull’intelligenza artificiale. Si tratta della prima legge sull’IA da parte di un importante regolatore a livello mondiale. La legge assegna le applicazioni dell’IA a tre categorie di rischio. In primo luogo, le applicazioni e i sistemi che creano un rischio inaccettabile, come il punteggio sociale gestito dal governo del tipo utilizzato in Cina, sono vietati. In secondo luogo, le candidature ad alto rischio, come uno strumento di scansione dei CV che classifica i candidati al lavoro, sono soggette a requisiti legali specifici. Infine, le applicazioni non esplicitamente vietate o elencate come ad alto rischio sono in gran parte lasciate non regolamentate.
La proposta della Commissione Europea è stata presentata nell’aprile 2021. Da lì sono partiti i lavori delle altre due istituzioni europee, al fine di definire le proprie posizioni comuni. Quella del Consiglio è arrivata nel dicembre 2022 sotto la presidenza ceca, mentre la posizione negoziale del Parlamento è stata definitivamente approvata con il voto della scorsa settimana.
Come il regolamento generale sulla protezione dei dati (GDPR) dell’UE nel 2018, l’AI Act dell’Unione Europea potrebbe diventare uno standard globale, determinando fino a che punto l’IA ha un effetto positivo piuttosto che negativo sulla tua vita ovunque tu sia.
Con il voto della scorsa settimana, il Parlamento europeo ha compiuto un passo decisivo verso un futuro in cui l’intelligenza artificiale è regolamentata a livello globale. Il pericolo è che queste nuove regole possano diventare una gabbia troppo stretta, spingendo le startup di intelligenza artificiale a cercare rifugio al di fuori dell’Unione Europea.
Il risultato raggiunto in Parlamento apre ora la porta ad una nuova fase in cui i rappresentanti delle tre istituzioni europee si incontreranno per negoziare il testo finale che vedremo auspicabilmente tra la fine del 2023 e l’inizio del 2024.
Gli obiettivi dell’AI Act
La Commissione ha proposto la legislazione sull’intelligenza artificiale con i seguenti obiettivi specifici:
- garantire che i sistemi di IA immessi sul mercato e utilizzati siano sicuri e rispettosi delle leggi in materia di diritti fondamentali e dei valori dell’Unione Europea;
- garantire la certezza del diritto per facilitare gli investimenti e l’innovazione nell’IA;
- migliorare la governance e l’effettiva applicazione del diritto vigente in materia di diritti fondamentali e dei requisiti di sicurezza applicabili ai sistemi di IA;
- facilitare lo sviluppo di un mercato unico per un’IA legale, sicura e affidabile, prevenendo la frammentazione del mercato.
Tra i principali punti sui quali sono intervenute le modifiche del Parlamento possono segnalarsi:
- la scelta di una nuova definizione di “sistema di IA”;
- l’introduzione di un elenco di principi generali applicabili a tutti i sistemi di IA, tra cui privacy e data governance;
- l’ampliamento delle pratiche di intelligenza artificiale vietate, con l’inclusione di nuove fattispecie, come ad esempio i sistemi di polizia predittiva;
- sempre sulle pratiche di IA vietate, la scelta di escludere del tutto l’ammissibilità dell’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico e di vietare l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, a meno che questi ultimi non siano soggetti a previa autorizzazione giudiziaria e siano strettamente necessari per la ricerca mirata collegata a uno specifico reato grave;
- la modifica dei criteri di classificazione e delle ipotesi di sistemi di IA ad alto rischio;
- l’inserimento di nuovi obblighi per i fornitori di foundation models e per i sistemi di intelligenza artificiale generativa;
- l’inserimento dell’obbligo di effettuare una valutazione d’impatto sui diritti fondamentali per i sistemi di IA ad alto rischio;
- l’istituzione dell’Ufficio europeo per l’intelligenza artificiale, che prende il posto del Comitato europeo per l’intelligenza artificiale proposto dalla Commissione, al quale viene affidato il compito di monitorare l’attuazione del regolamento;
- la modifica di alcuni aspetti dell’impianto sanzionatorio;
- un più esteso coordinamento con le norme del GDPR.
Il costo dell’AI Act
Il Center for Data Innovation, un’organizzazione no profit focalizzata sull’innovazione basata sui dati, ha pubblicato un rapporto in cui afferma che l’AI Act costerà 31 miliardi di euro nei prossimi cinque anni e ridurrà gli investimenti nel settore di quasi il 20%. L’imprenditore Meeri Haataja e l’accademica Joanna Bryson hanno pubblicato la loro ricerca scrivendo che probabilmente sarà molto più economica, poiché il regolamento copre principalmente una piccola percentuale di applicazioni di intelligenza artificiale considerate ad alto rischio. Inoltre, l’analisi dei costi non tiene conto di tutti i vantaggi della regolamentazione per il pubblico. Infine, il CEPS, un think tank e forum per il dibattito sugli affari dell’UE, ha pubblicato le proprie analisi delle stime dei costi e ha raggiunto una conclusione simile a quella di Haataja e Bryson.
OpenAI chiede modifiche all’AI Act
OpenAI avrebbe esercitato pressioni su eurodeputati e funzionari dell’Unione europea per “annacquare” alcuni elementi dell’AI Act, suggerendo emendamenti al testo per far si che i sistemi IA come Gpt-3 non fossero classificati come “ad alto rischio” e quindi sottoposti a severi requisiti legali.
La creatrice di ChatGpt avrebbe condiviso con i funzionari europei un ‘white paper’ in cui venivano evidenziate le misure di sicurezza implementate da OpenAI per prevenire l’uso improprio dei suoi strumenti di intelligenza artificiale generativa. Il testo spingeva per una posizione sostanzialmente orientata verso l’autoregolamentazione. OpenAI avrebbe anche chiesto modifiche alla testo dell’Eurocamera per consentire rapidi aggiornamenti dei suoi sistemi senza lunghe valutazioni.
ARTICOLI CORRELATI:
Intelligenza artificiale: ChatGPT non è più bravo degli umani a battere il mercato
Elon Musk sull’intelligenza artificiale: un rischio per la società
ChatGPT: come investire nella rivoluzione dell’intelligenza artificiale
Nvidia: previsioni di vendita rialziste grazie al boom dell’intelligenza artificiale