ultimo aggiornamento:
December 14, 2023

Artificial intelligence act: intesa tra Consiglio e Parlamento Europeo sulle prime regole mondiali sull'Intelligenza Artificiale

News
PRESS AREA
Indice

La presidenza del Consiglio e i rappresentanti del Parlamento Europeo hanno raggiunto un accordo provvisorio sulla proposta di regole armonizzate sull'intelligenza artificiale (IA), denominata "artificial intelligence act." Questa proposta pionieristica mira a garantire che i sistemi di IA sul mercato europeo rispettino i diritti fondamentali e i valori dell'UE, promuovendo contemporaneamente investimenti e innovazioni nel settore.

La proposta della Commissione, presentata nell'aprile 2021, è un elemento chiave della politica dell'UE per promuovere lo sviluppo e l'adozione di sistemi di IA sicuri e leciti nel mercato unico. Il Consiglio ha raggiunto un accordo sulla proposta il 6 dicembre 2022, avviando i negoziati con il Parlamento Europeo nel giugno 2023. Dopo il recente accordo provvisorio, il testo sarà sottoposto a revisione legale e linguistica prima della sua adozione formale da parte dei co-legislatori.

Cosa si intende con il termine Intelligenza artificiale (IA)

L’intelligenza artificiale è definita come la capacità di una macchina di “ragionare, apprendere e risolvere problemi” proprio come le menti umane, combinando insieme grandi quantità di dati mediante precise istruzioni (algoritmi) che vengono apprese dalla macchina in modo automatico.

Quali sono i campi di applicazione dell’intelligenza artificiale

I campi di applicazione dell’Intelligenza artificiale sono molteplici e associati a diversi livelli di rischio (per esempio in riferimento ai propri diritti, sicurezza, salute). Dai correttori automatici inseriti nei software che abitualmente usiamo, ai sistemi in grado di proporre suggerimenti in base alle proprie abitudini di navigazione sul web, ai sistemi di riconoscimento facciale e i sistemi di supporto alle decisioni per qualunque genere di professione, compresa quella medica, fino ad arrivare al supporto alle diagnosi cliniche. Non esiste campo nel quale questi sistemi non siano usati, anche solo con obiettivi sperimentali. Quello che riguarda la salute è peraltro un ambito nel quale maggiori sono le criticità, legate alla affidabilità dei sistemi, ai problemi etici e alle attribuzioni delle responsabilità tra i vari attori coinvolti.

Artificial intelligence act: perché è importante regolamentare il settore dell’Intelligenza artificiale

La maggior parte delle nuove tecnologie,  prima di una loro definitiva adozione, passano attraverso processi di valutazione e regolamentazione. L’intelligenza artificiale non fa eccezione. Troppo criptico il suo comportamento, poco trasparenti i suoi algoritmi, troppo invadenti i suoi modi di operare tali da mettere a rischio privacy e libertà dei cittadini.

Non sempre affidabili in certi campi, con attribuzioni di responsabilità non sempre chiare, soprattutto quando commettono errori. Per questo è importante regolamentare questo settore. L’artificiale Intelligence Act è un tentativo di regolamentare questo settore in Europa attraverso regole chiare per i produttori che intendano immettere sul mercato sistemi basati sull’intelligenza artificiale e per tutelare i cittadini/utenti/consumatori/pazienti che li useranno.

Obiettivi dell'artificial intelligence act

Il principale obiettivo dell'accordo è stabilire regole basate sul rischio, dove sistemi di IA ad alto impatto e potenzialmente rischiosi saranno soggetti a normative più severe. Questa proposta, unica nel suo genere a livello internazionale, potrebbe diventare uno standard globale per la regolamentazione dell'IA, simile a quanto il GDPR ha fatto per la protezione dei dati, promuovendo l'approccio europeo nella regolamentazione tecnologica a livello mondiale.

Principali Elementi dell'Accordo Provvisorio dell'artificial intelligence act:

  1. Regole per Modelli di IA ad Alto Impatto: Sono previste normative più rigide per modelli di IA ad alto impatto che potrebbero causare rischi sistemici in futuro.
  2. Governance Riveduta: Identificazione di un sistema di governance rinnovato con poteri di applicazione a livello dell'UE.
  3. Estensione delle proibizioni: Inclusione di nuove proibizioni, ma con la possibilità di utilizzare l'identificazione biometrica remota in spazi pubblici per forze dell'ordine, soggetta a salvaguardie.
  4. Protezione dei Diritti: Gli utilizzatori di sistemi di IA ad alto rischio devono condurre una valutazione dell'impatto sui diritti fondamentali prima di mettere in uso il sistema.
Piramide che definisce i livelli di rischio dell'intelligenza artificiale
The Regulatory Framework defines 4 levels of risk in AI

Classificazione e pratiche proibite di sistemi di intelligenza artificiale

L'accordo prevede una classificazione orizzontale di protezione, con un'attenzione particolare ai sistemi di IA ad alto rischio. Vieta pratiche come la manipolazione comportamentale cognitiva, il rastrellamento non mirato di immagini facciali e il riconoscimento delle emozioni in determinati contesti. I sistemi di intelligenza artificiale che presentano solo rischi limitati sono soggetti a obblighi di trasparenza molto leggeri, ad esempio rivelando che il contenuto è stato generato dall’intelligenza artificiale in modo che gli utenti possano prendere decisioni informate sull’ulteriore utilizzo.

L’accordo comprende modifiche che chiariscono l’assegnazione delle responsabilità e dei ruoli dei vari attori, in particolare dei fornitori e degli utenti dei sistemi di IA. Chiarisce inoltre il rapporto tra le responsabilità ai sensi della legge sull’AI e le responsabilità già esistenti ai sensi di altre normative, come la pertinente protezione dei dati dell’UE o la legislazione settoriale.

Eccezioni per le Forze dell'Ordine:

Vengono apportate modifiche alla proposta della Commissione per rispettare le specificità delle forze dell'ordine, consentendo loro di utilizzare sistemi di IA ad alto rischio in casi di urgenza.

Architettura di Governance:

L'Accordo istituisce un Ufficio per l'IA presso la Commissione per supervisionare i modelli di IA avanzati, insieme a un panel scientifico di esperti indipendenti. Il Consiglio per l'IA rimane un organo di coordinamento, coinvolgendo gli Stati membri, mentre un forum consultivo coinvolge rappresentanti dell'industria, PMI, start-up, società civile e accademie per fornire competenze tecniche.

Sanzioni e Protezione dei Diritti Fondamentali:

Le multe per le violazioni dell'AI act sono stabilite come percentuale del fatturato annuo globale dell'azienda o una somma prestabilita. Sono previsti limiti più proporzionati per PMI e start-up. L'accordo prevede una valutazione dell'impatto sui diritti fondamentali prima di mettere sul mercato sistemi di IA ad alto rischio.

Misure a Supporto dell'Innovazione:

Le disposizioni a sostegno dell'innovazione sono modificate per rendere il quadro legale più favorevole e  per ridurre l'onere amministrativo per le PMI.

Entrata in Vigore e Passi Successivi:

L'accordo provvisorio stabilisce che l'AI act dovrebbe entrare in vigore due anni dopo la sua adozione, con alcune eccezioni per specifiche disposizioni.

Il lavoro tecnico continuerà nelle prossime settimane per finalizzare i dettagli della nuova regolamentazione, che sarà sottoposta agli Stati membri per l'approvazione formale.

Artificial intelligence act: sono sufficienti queste regole?

L’Artificial intelligence act è senza dubbio un risultato storico e una pietra miliare verso il futuro. L’accordo affronta una sfida globale in un ambiente tecnologico in rapida evoluzione in un settore chiave per il futuro delle nostre società ed economie. Mantenere un equilibrio estremamente delicato tra la promozione dell’innovazione e l’adozione dell’intelligenza artificiale in tutta Europa, nel pieno rispetto dei diritti fondamentali dei cittadini europei, è una sfida importante.

Tuttavia, quanto è stato reso disponibile oggi con l'Artificial intelligence act è un documento provvisorio. Un documento definitivo e completo sarà pubblicato più avanti.

Sarebbe auspicabile che nel documento definitivo si chiedesse ai produttori di tali strumenti di rendere la black box (su cui tali sistemi di AI si basano) più trasparente al fine di spiegare il ragionamento fatto per arrivare a un dato suggerimento. Sempre in ottica di trasparenza sarebbe utile che il documento definitivo richiedesse che la validazione di sistemi di AI proprietari (quelli operanti nel mondo sanitario ma la cosa può essere estesa a tutti i sistemi di AI) venisse fatta da enti terzi (come per esempio accademia ed enti di ricerca) davvero indipendenti.

Eugenio Santoro - Unità di Ricerca in sanità digitale e terapie digitali

Tag relativi all’articolo

No items found.
Pagina Inglese