Quo vadis Europe? L’intelligenza artificiale come punto di forza dell’UE nel mercato mondiale

  Articoli (Articles)
  Redazione
  14 luglio 2020
  6 minuti, 26 secondi

A cura di Fabrizio Valerio Buongiorno


L’Unione Europea si sta dimostrando sempre più interessata a particolari ambiti di ricerca come il digitale e l’intelligenza artificiale. La necessità di contrastare l’avanzata della Cina e della Silicon Valley circa lo sviluppo e la produzione di nuove tecnologie basate sul machine learning ha portato la Commissione Europea a formulare il libro bianco sull’intelligenza artificiale. L’obiettivo è quello di creare una legislazione comune che possa garantire all’UE uno spazio all’interno del mercato globale attraverso una partnership con il sistema privato finalizzata a creare sistemi che garantiscano la piena tutela dei diritti fondamentali; il diritto alla tutela dei dati personali è il primo fra questi.

Una delle più importanti questioni relative all’intelligenza artificiale è come questa si possa combinare, dal punto di vista pratico e legale, con il GDPR. Il regolamento sulla protezione dei dati costituisce il punto di partenza per la costruzione di nuove tecnologie basate sul processamento dei dati, così come dimostra il nuovo concetto di privacy by design’ sancito dall’articolo 25 del testo: tenere in considerazione la privacy e la tutela dei dati sin dal momento della progettazione e dello sviluppo del sistema. Tale concetto è stato più volte discusso e finalmente si è arrivati ad una definizione univoca. Purtuttavia, rimane ancora oggi aperta la questione di come inserire la privacy all'interno del design delle macchine o dei sistemi dal momento che ognuno di essi, anche se appartiene alla stessa categoria di oggetti, ha una sua specifica struttura. Un esempio sono gli aeromobili a pilotaggio remoto o, come vengono comunemente definiti, droni. Ogni drone ha una sua ‘architettura’ peculiare costituita da cabina di pilotaggio, Ground control station, communication link e information link. Ciò rende ovviamente difficile poter garantire la nascita di un sistema onnicomprensivo che garantisca la privacy a 360 gradi e che, soprattutto, sia applicabile ad ogni entità robotica.

Dalla sua entrata in vigore nel maggio 2018, il Regolamento Europeo Sulla Protezione dei dati ha portato grandi vantaggi: ad esempio il trattamento delle informazioni personali basato sul risk-based approach; una vera e propria standardizzazione delle legislazioni nazionali, cosicché un’impresa che opera in conformità alle regole del GDPR possa operare in tutta Europa senza dover, di volta in volta, approcciarsi alle singole, e diversificate, regole nazionali; o ancora, la creazione di una vera e propria loyal relationtra il data subject e l’impresa, con un conseguente aumento della trasparenza nelle operazioni di trattamento dei dati. Inoltre, il GDPR ha agito come un vero e proprio motore di propaganda nei confronti del resto del mondo. Molti Stati si sono adoperati per realizzare un sistema legislativo che identificasse nel consenso dell’interessato la base giuridica per l'utilizzo delle informazioni personali. In tal senso, esempi sono il General Data Protection Law in Brasile o il Personal Data Protection Bill in India.

Ciononostante, il GDPR porta con sé anche delle problematiche di non poco conto. Prima tra tutte lo ‘state of the art’ concept. Tale nozione, che identifica lo stato di avanzamento delle ricerche in un determinato ambito, è qualcosa di mutabile, di cangiante. Esso non è un concetto statico, ma dinamico, e pertanto cambia con il tempo e in forza dell’innovazione tecnologica. Quando i sistemi e le tecnologie mutano e si trasformano, queste devono essere prese in considerazione, di volta in volta, per formulare un sistema legale che tenga conto di tutte le possibili implicazioni pratiche e giuridiche che da esse possono derivare.

Lo sviluppo di nuovi sistemi basati sull'intelligenza artificiale coinvolgerà indubbiamente l’utilizzo dei dati da parte di queste nuove tecnologie. Il problema si pone soprattutto con riferimento ai biometric systems, ossia quei sistemi che utilizzano i cosiddetti dati biometrici (quelli che garantiscono l’identificazione unica dell’individuo: retina, impronte digitali o altro) per verificare se le persone sono effettivamente chi affermano di essere. La Commissione, nel libro bianco sull'intelligenza artificiale, distingue tra remote biometric identification’ e ‘biometric authentication’. Mentre il secondo è il meccanismo utilizzato per identificare una persona attraverso le sue caratteristiche biologiche uniche (attraverso il one-to-one match), l'identificazione biometrica a distanza è invece lo strumento utilizzato per identificare più persone da lontano in uno spazio pubblico (attraverso il one-to-many match). Quest'ultimo è il più controverso. Il remote biometric identification può essere conforme al quadro giuridico europeo? Il GDPR prevede che il trattamento dei dati biometrici sia vietato a meno che il soggetto interessato non abbia dato espressamente il proprio consenso alla pubblicazione dell'immagine o in caso di necessità e urgenza (Art. 9 GDPR). Inoltre, il riconoscimento facciale comporta rischi specifici per i diritti fondamentali, dato che peculiari algoritmi di intelligenza artificiale, quando utilizzati per prevenire crimini, possono rivelarsi parziali, producendo risultati diversi solo sulla base della nazionalità, della razza, del sesso o di altri fattori. Ciò sarebbe illegale ai sensi delle leggi dell'UE sulla non discriminazione.

Posto che il diritto alla tutela dei dati personali è espressamente sancito dalla Carta dei diritti fondamentali dell’Unione Europea (Art. 7 e 8), è opportuno ricordare che il suddetto diritto non ha un valore assoluto, ma relativo, così come ricordato dalla Corte di Giustizia dell’Unione Europea nel 2009. Esso deve ‘essere considerato in relazione alla sua funzione all'interno della società’ e può essere posto in secondo piano rispetto ad un'esigenza di valore più alto. Pertanto il problema sarebbe quello di riuscire a comprendere il limite giuridico tra la prevenzione dei reati e il diritto alla tutela dei dati. Annosa questione già discussa con riferimento al trattamento delle informazioni personali da parte delle autorità giudiziarie quando tali dati vengono raccolti da terze parti per motivazioni non inerenti alla prevenzione dei crimini (Direttiva 2016/680).

L’Unione Europea è chiamata a produrre una nuova legislazione in materia di intelligenza artificiale che rispetti i principi di tutela giuridica sanciti nelle fonti primarie del diritto europeo ma che, al tempo stesso, garantisca la tutela della società e fornisca un nuovo strumento di protezione e, soprattutto, prevenzione contro eventuali crimini. È necessario studiare le possibili applicazioni dei sistemi biometrici nel mercato europeo e sostenere la loro competitività nei mercati globali. Una legislazione in tal senso è necessaria per evitare la frammentazione del mercato interno, fornire agli Stati membri dell'UE una certificazione specifica in grado di rilevare le applicazioni di intelligenza artificiale ad alto rischio e creare specifici requisiti legali vincolanti relativi al ‘training data’, tenuta dei registri, trasparenza, accuratezza e supervisione.

Inoltre, una nuova legislazione sarebbe il punto di partenza per colmare divari ancora irrisolti relativi alla responsabilità da danni derivanti dall'utilizzo di tali tecnologie. Come specificato dal Parlamento Europeo in una risoluzione del 2007, tali entità robotiche non rientrano nel concetto di responsabilità civile, poiché essa non tiene conto di tali innovazioni tecnologiche. Questa è stata una delle principali discussioni avutesi in seno al Parlamento nel maggio 2020. Tali dibattiti hanno dato vita ad un report. Nonostante le posizioni sembrino discordanti, ciò su cui si è d’accordo è l’obiettivo comune: tutelare le nuove tecnologie e l’intelligenza artificiale in modo da non avere restrizioni nel mercato interno.

L’artificial intelligence costituisce sicuramente un importantissimo canale per l’UE, da diversi punti di vista: sbocchi lavorativi, visibilità nel mercato mondiale, libertà del mercato interno, tutela dei diritti fondamentali e ricerca e sviluppo. Ciò da cui l’UE deve partire è la ricerca accademica. Spesso le ricerche vengono fatte direttamente dalle industrie attraverso esperti e l’obiettivo principale è il profitto, trascurando l’aspetto sociale. Gli studi accademici sono, senza dubbio, lo strumento più indicato per contemperare queste due realtà, garantendo la produzione di strumenti innovativi che migliorino la qualità della vita, alimentando il mercato e garantendo piena tutela ai diritti fondamentali.

Condividi il post

L'Autore

Redazione

Tag

intelligenza artificiale IA Unione Europea ue Privacy Dati machine learning Cina