Hubdate – AI Act: la discussione in seno al Parlamento europeo

  Focus - Allegati
  03 maggio 2023
  2 minuti, 9 secondi

MIPP – Digitalizzazione & Sicurezza

A cura di Mariella Brunetti, Senior Policy Analyst MIPP

Primo accordo provvisorio per il primo regolamento al mondo

L’Intelligenza Artificiale è oggetto di discussione al Parlamento europeo. È stato raggiunto un primo accordo provvisorio in materia su quello che verrà a rappresentare il primo regolamento al mondo sull’Intelligenza Artificiale: AI Act.

La leva del regolamento

Il regolamento ancora in fase di definizione fa leva sul concetto di “potenziale di danno” nei confronti dei diritti fondamentali. La cornice normativa prevede una classificazione per quattro livelli di rischio: inaccettabile, minimo, limitato, elevato. Il Forum Economico Mondiale (WEF) esemplifica in un articolo tali livelli di rischio. In termini concreti:

  • un sistema di intelligenza artificiale – come i filtri antispam o i videogiochi – che presenta livelli di rischio “limitati” o “minimi” deve rispettare i comuni obblighi di trasparenza dettati dall’Unione Europea, mentre sono previste regole meno stringenti sui prerequisiti;
  • all’opposto, i sistemi considerati “a rischio inaccettabile” – come i social scoring governativi e i sistemi di identificazione biometrica in tempo reale negli spazi pubblici – sono vietati con poche eccezioni;
  • nel caso di sistemi di AI ad “elevato rischio” – si pensi ai veicoli autonomi, ai dispositivi medici o ai macchinari delle infrastrutture critiche – sviluppatori e utenti devono attenersi al rispetto di test più rigorosi.

Le regole stringenti

Il rafforzamento delle regole riguarda aree fra cui: la qualità dei dati, la supervisione umana e la responsabilità. Il campo d’indagine è esteso e vario, in quanto si sposta dalla considerazione di questioni prettamente etiche, all’implementazione dei sistemi di AI per l’utilizzo industriale in diversi settori, soprattutto in sanità, istruzione, finanza ed energia. L’intervento normativo europeo analizza poi i cosiddetti “sistemi di AI generici”, con gradi di rischio variabili. Un esempio è il noto sistema di Intelligenza Artificiale basato su un modello di tipo linguistico, ChatGPT.

Obiettivi sui rischi potenziali

L’Unione Europea intende adottare un approccio proattivo nel regolamentare il vasto settore dell’Artificial Intelligence al fine di intervenire sui rischi potenziali che esso può implicare. Obiettivo primario e finale è garantire un maggiore livello di sicurezza, anche da un punto di vista giuridico. Oltre a classificare i sistemi di AI in base al rischio, il regolamento europeo si propone di stabilire dei requisiti di legge per lo sviluppo e l’utilizzo degli stessi. I dettagli sono oggetto di lunghe trattative, poiché i legislatori europei si trovano a definire il delicato equilibrio fra promuovere l’innovazione dell’Intelligenza Artificiale e offrire garanzie ai cittadini.

Condividi il post