
SpaceX di Elon Musk valutata a $ 175 miliardi in un’offerta pubblica
SpaceX di Elon Musk ha avviato discussioni sulla vendita di azioni privilegiate a un prezzo che valuta la società a stretto controllo a 175 miliardi di dollari. L’offerta pubblica di SpaceX potrebbe variare da 500 a 750 milioni di dollari e le azioni potrebbero essere

Bull Run di Bitcoin: dovresti comprare sopra i 40.000 dollari?
Bitcoin è aumentato di oltre il 160% quest’anno. Martedì il token ha superato i 43.000 dollari, aggiungendo circa il 16%. L’ottimismo per ulteriori guadagni è alto. Stiamo assistendo a una bull run di Bitcoin oppure il prezzo del token è destinato a fermarsi? La performance

Spotify non è immune dal rallentamento economico e taglia 1.500 posti di lavoro
Spotify sta riducendo la sua forza lavoro del 17% nell’ambito di uno sforzo che porterà al taglio di 1.500 posti di lavoro e servirà a ridurre i costi e aumentare la redditività. Il colosso dell’audio streaming è sulla buona strada per aggiungere più di 100

Cosa fa muovere Wall Street e la Borsa Europea? Sintesi Macro – Settimana 48
E’ stato un novembre da record per i mercati finanziari. L’S&P 500 ha ottenuto un guadagno superiore all’8%. Questo è successo meno di 10 volte dal 1928 nel mese di novembre. In rialzo per la quinta settimana consecutiva, l’indice ha raggiunto il livello più alto

L’evoluzione del sistema bancario ombra
L’innovazione finanziaria e tecnologica e i cambiamenti nel contesto macroeconomico hanno portato alla crescita delle istituzioni finanziarie non bancarie e allo spostamento delle banche nella fornitura dei tradizionali servizi di intermediazione finanziaria (raccolta di depositi, concessione di prestiti e facilitazione dei pagamenti). In questo post,

Guida per iniziare ad investire: le basi degli investimenti
Se sei un investitore principiante o devi ancora iniziare ad investire, magari perché pensi di aver bisogno di molti soldi o non sei sicuro di quale sia il miglior investimento, ti servono le basi. Tutti devono iniziare da qualche parte. Warren Buffet, uno degli uomini
AI Act: la legge UE sull’intelligenza artificiale
L’intelligenza artificiale (IA) è una tecnologia in rapida evoluzione che può offrire un’ampia gamma di vantaggi economici e benefici per la società. Migliorando la previsione, l’ottimizzazione delle operazioni, l’allocazione delle risorse e la personalizzazione dell’erogazione dei servizi, l’uso dell’IA può supportare risultati socialmente e ambientalmente vantaggiosi e fornire vantaggi competitivi fondamentali alle imprese e all’economia. Tuttavia, gli stessi
elementi e tecniche che alimentano i benefici socio-economici dell’intelligenza artificiale possono anche portare
nuovi rischi o conseguenze negative per gli individui e la società. Alla luce della velocità del cambiamento tecnologico e le possibili sfide, l’UE ha presentato una legislazione per un approccio coordinato sulle implicazioni umane ed etiche dell’intelligenza artificiale – l’AI Act.
Cos’è l’AI Act?
L’AI Act è una proposta di legge europea sull’intelligenza artificiale. Si tratta della prima legge sull’IA da parte di un importante regolatore a livello mondiale. La legge assegna le applicazioni dell’IA a tre categorie di rischio. In primo luogo, le applicazioni e i sistemi che creano un rischio inaccettabile, come il punteggio sociale gestito dal governo del tipo utilizzato in Cina, sono vietati. In secondo luogo, le candidature ad alto rischio, come uno strumento di scansione dei CV che classifica i candidati al lavoro, sono soggette a requisiti legali specifici. Infine, le applicazioni non esplicitamente vietate o elencate come ad alto rischio sono in gran parte lasciate non regolamentate.
La proposta della Commissione Europea è stata presentata nell’aprile 2021. Da lì sono partiti i lavori delle altre due istituzioni europee, al fine di definire le proprie posizioni comuni. Quella del Consiglio è arrivata nel dicembre 2022 sotto la presidenza ceca, mentre la posizione negoziale del Parlamento è stata definitivamente approvata con il voto della scorsa settimana.
Come il regolamento generale sulla protezione dei dati (GDPR) dell’UE nel 2018, l’AI Act dell’Unione Europea potrebbe diventare uno standard globale, determinando fino a che punto l’IA ha un effetto positivo piuttosto che negativo sulla tua vita ovunque tu sia.
Con il voto della scorsa settimana, il Parlamento europeo ha compiuto un passo decisivo verso un futuro in cui l’intelligenza artificiale è regolamentata a livello globale. Il pericolo è che queste nuove regole possano diventare una gabbia troppo stretta, spingendo le startup di intelligenza artificiale a cercare rifugio al di fuori dell’Unione Europea.
Il risultato raggiunto in Parlamento apre ora la porta ad una nuova fase in cui i rappresentanti delle tre istituzioni europee si incontreranno per negoziare il testo finale che vedremo auspicabilmente tra la fine del 2023 e l’inizio del 2024.
Gli obiettivi dell’AI Act
La Commissione ha proposto la legislazione sull’intelligenza artificiale con i seguenti obiettivi specifici:
- garantire che i sistemi di IA immessi sul mercato e utilizzati siano sicuri e rispettosi delle leggi in materia di diritti fondamentali e dei valori dell’Unione Europea;
- garantire la certezza del diritto per facilitare gli investimenti e l’innovazione nell’IA;
- migliorare la governance e l’effettiva applicazione del diritto vigente in materia di diritti fondamentali e dei requisiti di sicurezza applicabili ai sistemi di IA;
- facilitare lo sviluppo di un mercato unico per un’IA legale, sicura e affidabile, prevenendo la frammentazione del mercato.
Tra i principali punti sui quali sono intervenute le modifiche del Parlamento possono segnalarsi:
- la scelta di una nuova definizione di “sistema di IA”;
- l’introduzione di un elenco di principi generali applicabili a tutti i sistemi di IA, tra cui privacy e data governance;
- l’ampliamento delle pratiche di intelligenza artificiale vietate, con l’inclusione di nuove fattispecie, come ad esempio i sistemi di polizia predittiva;
- sempre sulle pratiche di IA vietate, la scelta di escludere del tutto l’ammissibilità dell’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico e di vietare l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, a meno che questi ultimi non siano soggetti a previa autorizzazione giudiziaria e siano strettamente necessari per la ricerca mirata collegata a uno specifico reato grave;
- la modifica dei criteri di classificazione e delle ipotesi di sistemi di IA ad alto rischio;
- l’inserimento di nuovi obblighi per i fornitori di foundation models e per i sistemi di intelligenza artificiale generativa;
- l’inserimento dell’obbligo di effettuare una valutazione d’impatto sui diritti fondamentali per i sistemi di IA ad alto rischio;
- l’istituzione dell’Ufficio europeo per l’intelligenza artificiale, che prende il posto del Comitato europeo per l’intelligenza artificiale proposto dalla Commissione, al quale viene affidato il compito di monitorare l’attuazione del regolamento;
- la modifica di alcuni aspetti dell’impianto sanzionatorio;
- un più esteso coordinamento con le norme del GDPR.
Il costo dell’AI Act
Il Center for Data Innovation, un’organizzazione no profit focalizzata sull’innovazione basata sui dati, ha pubblicato un rapporto in cui afferma che l’AI Act costerà 31 miliardi di euro nei prossimi cinque anni e ridurrà gli investimenti nel settore di quasi il 20%. L’imprenditore Meeri Haataja e l’accademica Joanna Bryson hanno pubblicato la loro ricerca scrivendo che probabilmente sarà molto più economica, poiché il regolamento copre principalmente una piccola percentuale di applicazioni di intelligenza artificiale considerate ad alto rischio. Inoltre, l’analisi dei costi non tiene conto di tutti i vantaggi della regolamentazione per il pubblico. Infine, il CEPS, un think tank e forum per il dibattito sugli affari dell’UE, ha pubblicato le proprie analisi delle stime dei costi e ha raggiunto una conclusione simile a quella di Haataja e Bryson.
OpenAI chiede modifiche all’AI Act
OpenAI avrebbe esercitato pressioni su eurodeputati e funzionari dell’Unione europea per “annacquare” alcuni elementi dell’AI Act, suggerendo emendamenti al testo per far si che i sistemi IA come Gpt-3 non fossero classificati come “ad alto rischio” e quindi sottoposti a severi requisiti legali.
La creatrice di ChatGpt avrebbe condiviso con i funzionari europei un ‘white paper’ in cui venivano evidenziate le misure di sicurezza implementate da OpenAI per prevenire l’uso improprio dei suoi strumenti di intelligenza artificiale generativa. Il testo spingeva per una posizione sostanzialmente orientata verso l’autoregolamentazione. OpenAI avrebbe anche chiesto modifiche alla testo dell’Eurocamera per consentire rapidi aggiornamenti dei suoi sistemi senza lunghe valutazioni.
ARTICOLI CORRELATI:
Intelligenza artificiale: ChatGPT non è più bravo degli umani a battere il mercato
Elon Musk sull’intelligenza artificiale: un rischio per la società
ChatGPT: come investire nella rivoluzione dell’intelligenza artificiale
Nvidia: previsioni di vendita rialziste grazie al boom dell’intelligenza artificiale