Regole per l’intelligenza artificiale: l'Europa approva l’AI Act

  Articoli (Articles)
  Jacopo Biagi
  30 giugno 2023
  4 minuti, 32 secondi

Con lo sviluppo del settore tecnologico e di strumenti innovativi, sono sempre più numerose le società impegnate nella ricerca e nell’addestramento di intelligenze artificiali. Da mesi ormai i modelli di generative AI come ChatGpt, sviluppato da OpenAI, o Bard, chatbot di Google, sono sempre più conosciuti e utilizzati in tutto il mondo, e non solo. La rapidità con cui le ricerche e il progresso di tali tecnologie avanzano è ormai quasi fuori controllo.

All’inizio di aprile, sul sito Futureoflife.org, è stata pubblicata una petizione, sottoscritta da oltre mille esperti, con la quale si chiedeva a governi e ad aziende coinvolte nel potenziamento di intelligenza artificiale di interrompere per sei mesi l’addestramento delle IA. Domenico Talia, professore di Ingegneria informatica all’Università della Calabria e firmatario della petizione, riferisce a Italian Tech: “Quello che sono in grado di fare queste tecnologie non è chiaro nemmeno a chi le crea. Sta succedendo tutto troppo in fretta. […] Queste tecnologie sono destinate a cambiare tutto. Cambieranno il lavoro di milioni di persone. Centinaia di milioni di persone.” Un appello preoccupato degli esperti, che chiedono alle autorità di disciplinare questo nuovo settore, il quale porta con sé grandi potenzialità ma, allo stesso tempo, altrettanti rischi. “Sono chatbot che rispondono direttamente dai motori di ricerca. Sono alimentati da miliardi di parametri, ma chi ha il controllo sulle risposte? - commenta preoccupato Talia - Chi può evitare che diffondano disinformazione? Magari in comunità particolarmente sensibili?”

In risposta a questo crescente timore il Parlamento Europeo ha approvato, a metà giugno, la bozza di regolamento europeo che mira a disciplinare l’impiego e lo sviluppo dell’intelligenza artificiale: con 499 voti a favore, 28 contrari e 93 astenuti la camera ha approvato il regolamento AI Act.

Che cosa prevede il regolamento?

Il regolamento introduce a un sistema di classificazione che identifica i diversi livelli di rischio associati ai sistemi di intelligenza artificiale. I livelli di classificazione sono “rischio minimo o nullo”, “limitato”, “alto” e “rischio inaccettabile”. Più alto è il grado di rischio che comporta l’impiego di un sistema di IA e maggiori sono gli obblighi e le responsabilità che sorgono in capo a chi ne fa uso. Invece, per tutte le applicazioni di strumenti di IA che comportino intrinsecamente un rischio inaccettabile per la sicurezza delle persone sarà fatto assoluto divieto d’uso: il Parlamento Europeo ha infatti collocato i sistemi di identificazione biometrica remota, in tempo reale e a posteriori, delle aree aperte al pubblico tra gli utilizzi con un rischio inaccettabile. Questo principio, ad oggi, presenta delle possibili deroghe, precisamente definite e disciplinate, come nel caso in cui sia necessario identificare e localizzare l’autore di un reato grave o per effettuare la ricerca di un minore scomparso. Dunque, la scelta del Parlamento di vietare completamente l’utilizzo di una tecnologia simile potrebbe sembrare una scelta estrema, dettata dalla volontà di garantire il diritto alla privacy delle persone. 

Una soluzione alternativa, che potrebbe essere proposta in sede di dialogo con il Consiglio e la Commissione Europea, sarebbe una norma che riesca a conciliare sia l’inviolabile diritto alla privacy sia la necessità di utilizzare, solo in casi particolari e con limitazioni ben definite, ogni mezzo necessario per garantire la sicurezza dei cittadini. Si ritiene che costituisca un rischio inaccettabile anche l’impiego di sistemi di categorizzazione biometrica basati su attributi sensibili, come il genere, la razza, l’etnia, la religione, l’orientamento politico, e sistemi di riconoscimento delle emozioni sul luogo di lavoro o da parte delle forze di polizia. Tra gli strumenti vietati nella prima stesura del regolamento vi sono anche i modelli di polizia predittiva, già in fase di sperimentazione in Paesi come Stati Uniti e Gran Bretagna, e presto anche in Italia. Il Ministero dell’Interno vorrebbe dotare le questure di tutta Italia di un innovativo sistema di polizia predittiva denominato Giove: questo algoritmo di intelligenza artificiale sfrutta le banche dati delle forze dell’ordine per analizzare informazioni e prevedere dove e quando altri reati simili potrebbero essere commessi. Tuttavia, questo sistema è ancora molto lontano dall’essere perfetto. Molte ricerche hanno evidenziato come questi sistemi siano spesso sviati da forti pregiudizi e non siano sempre in grado di svolgere correttamente il loro compito. L’utilizzo di un simile strumento si muove sul delicato confine tra l’esigenza di aumentare la sicurezza per i cittadini, la privacy e la tutela della libertà personale.

Il nuovo regolamento europeo sull’intelligenza artificiale rappresenta quindi un significativo passo avanti nella disciplina di questa tecnologia, tanto utile quanto pericolosa, puntando a mitigare i rischi connessi all’uso della IA attraverso linee guida e obblighi per chi ne faccia uso e anche promuovendo la fiducia in questo settore. Tuttavia, non mancano le critiche alle eccessive restrizioni, contenute nella prima stesura, che potrebbero avere l’effetto di limitare l’innovazione e l’adozione di tecnologie all’avanguardia. Sarà fondamentale monitorare attentamente i cambiamenti che verranno apportati alla bozza in seguito al suo esame da parte del Consiglio e della Commissione Europea. I negoziati sul testo finale del regolamento sono già avviati ed è previsto che si concludano entro la fine dell’anno in modo da approvarne la versione definitiva prima delle ormai prossime elezioni del Parlamento Europeo. Il regolamento europeo AI Act è il primo ad occuparsi di intelligenza artificiale in modo così estensivo e ci si aspetta che altri Paesi seguano, presto, l’esempio dell’Europa.

Mondo Internazionale APS – Riproduzione Riservata ® 2023


Fonti consultate per il presente articolo:

Credits immagine: https://unsplash.com/it/foto/sAU7tNW09Tk

https://www.altalex.com/documents/news/2023/06/23/ai-act-ue-traccia-futuro-intelligenza-artificiale

https://www.repubblica.it/tecnologia/blog/strategikon/2023/06/23/news/riconoscimento_facciale_biometrico_e_ai_act_la_tempesta_perfetta-405474951/

https://www.ilsole24ore.com/art/il-parlamento-europeo-approva-l-ai-act-cosa-cambiera-le-nostre-aziende-AE2aw3gD?refresh_ce

https://www.repubblica.it/tecnologia/2023/06/14/news/parlamento_europeo_approva_ai_act_stop_riconoscimento_facciale-404431010/

https://www.econopoly.ilsole24ore.com/2023/06/15/ai-unione-europea/

https://www.ansa.it/osservatorio_intelligenza_artificiale/notizie/approfondimenti/2023/06/20/lai-act-cambiera-lintelligenza-artificiale.-in-meglio_4825bc98-e7d3-4c3b-8e41-f4d372d1a23d.html

https://www.ilsole24ore.com/art/quale-autorita-governera-l-intelligenza-artificiale-AEVKPYAD?refresh_ce

https://www.vanityfair.it/article/ai-act-legge-intelligenza-artificiale

https://www.repubblica.it/tecnologia/2023/03/29/news/musk_stop_sviluppo_chatgpt_rischi_umanita-394154071/

https://www.nytimes.com/2023/06/14/technology/europe-ai-regulation.html

https://www.ilsole24ore.com/art/nome-codice-giove-ecco-l-algoritmo-polizia-prevenire-reati-AEAoJIZD

https://www.wired.it/article/giove-polizia-predittiva-software-italiano-come-funziona-garante-privacy/

Condividi il post

L'Autore

Jacopo Biagi

Tag

Artificial Intelligence intelligenza artificiale AI IA Parlamento Europeo Europa Privacy Tecnologia Ai Act generative AI Biometria polizia predittiva Sicurezza libertà personale