Intelligenza molto artificiale ma pregiudizi molto umani

Rappresentazione e decision-making: tutto ciò che pensiamo si rifletta nei sistemi di IA, anche le cose negative

  Articoli (Articles)
  Redazione
  04 settembre 2020
  5 minuti, 57 secondi

A cura di Andrea Radaelli

Pregiudizi, preconcetti, superstizioni e favoritismi. Per quanto cerchiamo di evitarli essi sono una caratteristica che ci accomuna e ci influenza. Alcuni di essi sono positivi e ci insegnano ad essere cauti nelle situazioni pericolose; altri mettono a rischio determinati individui. Essi sono una componente fondamentale del comportamento umano: il mondo ci appare filtrato da questi pregiudizi e noi agiamo anche secondo le loro regole.

Come può, allora, una cosa così intrinsecamente umana influenzare una macchina?

I pregiudizi sociali possono essere riflessi e amplificati dall'intelligenza artificiale, che si tratti di decidere chi ottiene un prestito bancario o chi viene sorvegliato.

Partiamo dalle basi. Si potrebbe intendere il pregiudizio nel senso di pregiudizio razziale, di genere, sessista o omotransfobico. Se cerchiamo su google la parola ‘dottore’, quanti individui di colore verranno mostrati? Quanti invece per la parola ‘spacciatore’? Se invece cerchiamo la parola ‘papà’, che tipo di idea di paternità le immagini di google suscitano? Quale idea suscita la parola ‘mammo’? Questo è un aspetto del pregiudizio. È un aspetto culturale, che riguarda la sensibilità dell’opinione pubblica: esso non fa male a nessuno fisicamente o economicamente ma, allo stesso tempo, dice molto della società nella quale viviamo.

A decidere quali immagini saranno mostrate, una volta inserita una query (parola chiave) nel motore di ricerca, sono tutta una serie di complicati e organici algoritmi. Gli algoritmi sono la codifica della risoluzione di un problema da automatizzare, ossia una serie finita di istruzioni elementari, chiare e non ambigue eseguite da un calcolatore. Le logiche strutturali degli algoritmi dipendono dalla logica del programmatore che li scrive. Volente o nolente, la codifica di un algoritmo porta al suo interno numerosi biases più o meno rilevanti. In alcuni casi un algoritmo si ‘aggancia’ a qualcosa che non ha significato e potrebbe potenzialmente dare scarsi risultati.

Ad esempio, nella diagnostica gli algoritmi vengono utilizzati per prevedere delle fratture dalle immagini a raggi X elaborate da più ospedali. Se non si verificano attentamente i risultati, l'algoritmo imparerà autonomamente a riconoscere quale ospedale ha generato l'immagine. Questo perché diversi ospedali utilizzano macchine a raggi X complesse con caratteristiche diverse circa l'immagine che producono. Così facendo, l’algoritmo imparerà a distinguere le immagini provenienti dagli ospedali con una maggiore probabilità di fratture da quelli con minor probabilità e, molto semplicemente, potrebbe imparare a prevedere le fratture unicamente in base alla provenienza dell’immagine senza in realtà mai guardare l'osso.

L'algoritmo sta facendo qualcosa di corretto, ossia distinguere tra ossa fratturate e non, ma per le ragioni sbagliate. Le cause sono le stesse, nel senso che riguardano il modo in cui l'algoritmo si ‘aggancia’ a cose a cui non dovrebbe attaccarsi nel fare la sua previsione.

Per riconoscere e affrontare queste situazioni, un algoritmo deve essere testato in un regime simile a quello in cui opererà nel mondo reale. Se un algoritmo di ricerca o di apprendimento automatico è testato sulla base un database grande, eterogeneo e peculiare, i risultati saranno validi. Se invece il data set fornito è di piccole dimensioni, standardizzato secondo un preconcetto e superficiale, allora anche i risultati saranno difettosi. Questo perché risulterà più difficile all’algoritmo ‘agganciarsi’ a quei dettagli caratteristici della query di ricerca, e perciò sarà più incline ad ‘attaccarsi’ a particolari che in realtà sono casuali. Ad esempio, scegliere l’immagine di un dottore in base al colore della pelle piuttosto che la presenza di uno stetoscopio al collo. Per un essere umano la presenza di uno strumento ospedaliero piuttosto che la carnagione è chiaramente più determinante nella scelta. Ma per un computer, a cui vengono dati solo immagini di dottori bianchi, il colore viene prima. Il problema sorge se si intende utilizzare quell'algoritmo caratterizzato da pregiudizi in contesti in cui le decisioni da prendere possono avere delle conseguenze per specifici individui.

Nel complesso, possono esserci tre cause profonde di bias nei sistemi di intelligenza artificiale:

- Il primo è il bias nei dati. I programmatori stanno iniziando a ricercare metodi per individuare e mitigare i pregiudizi nei dati. Per categorie come razza e sesso, la soluzione è campionare meglio in modo da ottenere una migliore rappresentazione nel data set. Ma si può avere una rappresentazione equilibrata e, ciononostante, inviare comunque messaggi molto diversi. Se si pensa ai pregiudizi in modo ampio, certamente il sesso, la razza e l'età sono i più facili da studiare, ma ci sono anche altri tipi di preconcetti più specifici che non sono facili da analizzare, uno tra tutti la rappresentazione LGTBQ+. Non esiste una rappresentazione equilibrata del mondo, quindi i dati avranno sempre alcune categorie maggiormente rappresentate e altre relativamente poco rappresentate.

- La seconda causa principale del bias è negli algoritmi stessi. Gli algoritmi possono amplificare il bias nei dati, quindi si deve essere il più attenti possibile alla costruzione di questi sistemi.

- Questo porta alla terza causa: il pregiudizio umano. I ricercatori impegnati nello sviluppo dell’I.A. sono principalmente persone di sesso maschile, provenienti da regioni demografiche simili tra loro per quanto concerne razza, contesto socioeconomico e disabilità. Eppure, il mondo ha una popolazione abbastanza eterogenea e credere che un ristretto gruppo di persone possa definire in modo univoco le questioni mondiali è un errore. Ci sono molte opportunità per diversificare questo pool di ricercatori e, man mano che la diversità cresce, l’intelligenza artificiale che ne deriva diventa meno prevenuta. Non esiste un essere umano imparziale, quindi non potrà mai esistere un’I.A. imparziale, si può però fare molto meglio rispetto allo stato attuale delle cose.

Le sfide del futuro riguardano lo sviluppo di un’etica dei dati. Un esempio è la stesura dell'‘Ethics guidelines for trustworthy AI’ da parte della commissione europea nell'aprile 2019, secondo cui l’intelligenza artificiale non dovrà mai danneggiare la dignità, la sicurezza fisica, psicologica e finanziaria degli esseri umani, degli animali e della natura. Ovviamente questo pone un ostacolo che rallenta l’innovazione, soprattutto se in altri paesi queste considerazioni non vengono fatte. Negli Statu Uniti, l’agenzia governativa del Dipartimento della Difesa (DARPA), incaricata dello sviluppo di nuove tecnologie per uso militare, è completamente libera da ogni limitazione.

In conclusione, ci troviamo di fronte ad una scelta: decidere se continuare a sviluppare una tecnologia che ci obbliga a guardare a noi stessi come imperfetti e colmi di pregiudizi, oppure lasciare che questi pregiudizi vengano nuovamente perpetrati con conseguenze incerte. Il futuro di questa tecnologia dipenderà dalla capacità di risoluzione dei problemi, dalla capacità di calcolo e dalla disponibilità di dati. Considerati i recenti avvenimenti nel mondo della programmazione, dei computer quantici e dei big data, questi sviluppi non rappresentano un problema. Rischiamo quindi di essere travolti da un’innovazione che ancora non conosciamo del tutto. Le big tech stanno già lavorando a software per limitare i rischi dei pregiudizi nei sistemi di intelligenza artificiale, ma la soluzione definitiva non è ancora stata trovata.

Condividi il post

L'Autore

Redazione

Tag

AI IA intelligenza artificiale bias ue Unione Europea decision-making USA algoritmo etica Online DARPA