Il 9 dicembre 2023 è stato approvato l’AI Act (Artificial Intelligence Act) da parte di Commissione, Consiglio e Parlamento europeo, la prima legge che mira a regolamentare la produzione di sistemi di intelligenza artificiale in Unione Europea. Questo provvedimento è ancora al vaglio dei tecnici per limare gli ultimi dettagli, ma siamo di fronte a un momento storico per il vecchio continente (e per il mondo intero). Che effetti avrà questa normativa sul mondo della tecnologia? Scopriamolo insieme!
L’intelligenza artificiale ha rivoluzionato gli ultimi anni del mondo tecnologico e non solo, lo scenario di un mondo sempre più legato a questi strumenti è plausibile ma è fondamentale una regolamentazione che possa garantire la sicurezza di tutti.
Per questo motivo l’AI Act vuole assicurare che i diritti e le libertà dei cittadini siano sempre posti al centro dello sviluppo tecnologico, per garantire un corretto bilanciamento tra innovazione e protezione. Il principio alla base della norma è quello di responsabilizzazione e autovalutazione da parte delle aziende che producono sistemi di AI, che dovranno essere in grado di dimostrare che lo sviluppo delle tecnologie non lede in nessun modo i diritti fondamentali dell’uomo.
Un altro obiettivo ambizioso di questa legge è la promozione della leadership europea nel campo dell’AI: questa norma intende sostenere in particolar modo le PMI e le startup europee impegnate nella ricerca tecnologica, per poter recuperare terreno nei confronti di Stati Uniti e Cina, a oggi ancora distanti rispetto all’Unione Europea in materia alla ricerca in ambito di intelligenza artificiale.
L’AI Act è stato approvato dopo circa 36 ore di negoziati tra il Consiglio e il Parlamento europeo ed è ancora al vaglio dei tecnici per l’approvazione di tutti i documenti. I punti critici di una discussione così ampia sono stati principalmente due: l’applicazione dell’intelligenza artificiale a sistemi di sorveglianza e la legislazione sui modelli fondativi. Per quanto riguarda la sorveglianza, il riconoscimento biometrico in tempo reale è stato negato se non per tre casi specifici, ovvero in casi di prevista ed evidente minaccia terroristica, per la ricerca di vittime e per la persecuzione di crimini molto gravi.
Questa “bocciatura”, voluta dal Parlamento, impone quindi grandi limiti alla polizia “predittiva”, che attraverso sistemi di intelligenza artificiale, è in grado di prevedere la probabilità con cui può essere commesso un reato, oltre che predire l’identità del colpevole.
Il secondo punto di discussione è riferito ai modelli fondativi, quelle forme di AI in grado di svolgere compiti complessi, allenati da enormi quantità di dati non categorizzati. I modelli più famosi sono GPT-4 di OpenAI e LaMDA di Google, su cui si basano rispettivamente ChatGPT e Bard.
L’AI Act prevede che l’inquadramento di questi modelli sia diviso in due categorie diverse in base all’impatto: alle intelligenze artificiali ad “alto impatto”, come GPT-4, vengono applicate ex ante le regole sulla sicurezza informatica, soprattutto per quanto riguarda la trasparenza dei processi di addestramento e la condivisione della documentazione tecnica, ancor prima dell’uscita sul mercato. Per le AI considerate a “basso impatto”, la legge viene applicata solo nel momento in cui le tecnologie vengono lanciate sul mercato.
I provvedimenti attuati con l’AI Act sono diversi e prevedono procedimenti lunghi per essere attuati correttamente alle aziende. Per questo motivo la Commissione europea ha stimato una durata di 24 mesi per il dispiegamento totale delle funzioni, ma solo 6 mesi per inibire gli usi vietati, tra cui rientrano il divieto di social scoring (valutazione delle persone sulla base di comportamenti o caratteristiche personali) e di tecniche manipolative o di AI che sfruttano le emozioni e la vulnerabilità delle persone, a protezione dei cittadini vulnerabili.
Per poter affiancare le PMI e le startup più giovani, l’Unione Europea ha stipulato anche l’AI Pact, una conformità volontaria che aiuta le aziende ad adeguarsi all’AI Act prima ancora che esso diventi operativo.
Il processo di adozione della norma sarà guidato da un ufficio europeo dedicato all’intelligenza artificiale, oltre che da ambienti di test esenti da regole (detti regulatory sandbox) in cui le aziende potranno sperimentare le proprie tecnologie e renderle conformi alle disposizioni della legge. Sono, inoltre, previste pesanti sanzioni per chi non rispetta questa norma: si va dall’1,5% del fatturato globale (circa 7.5 milioni) fino al 7% (circa 35 milioni).
L’intelligenza artificiale è l’assoluta protagonista di questi ultimi anni nel mondo tech, le sfide da affrontare e le opportunità sono ancora molte. L’AI Act è un provvedimento sicuramente utile per chiarire i temi più delicati in materia di intelligenza artificiale, ma l’incertezza è ancora molta. Nei prossimi mesi vedremo come altre organizzazioni, oltre all’UE si muoveranno per aprire o chiudere il rubinetto, soprattutto in materia di privacy, di diritto d’autore e per la salvaguardia di alcuni profili professionali messi a rischio da questa nuova rivoluzione.
Se hai domande o feedback, scrivici. Saremo contenti di leggere le tue richieste o le tue opinioni.
Lo realizzeremo con amore e passione. Il nostro team è a tua disposizione.