Sfide dell’Intelligenza Artificiale: IA e Fake News

  Focus - Allegati
  01 febbraio 2024
  17 minuti, 37 secondi

Autori

- Simona Chiesa - Junior Researcher Mondo Internazionale G.E.O. Cultura & Società.
- Matteo Bonazzi - Junior Researcher Mondo Internazionale G.E.O. Cultura & Società.
- Sofia Manaresi - Senior Researcher Mondo Internazionale G.E.O. Cultura & Società.
- Matteo Restivo - Senior Researcher Mondo Internazionale G.E.O. Cultura & Società.
- Francisco Duran - Head Researcher Mondo Internazionale G.E.O. Cultura & Società.

Abstract

La presente analisi, innestandosi nel recente e ampio dibattito circa l’Intelligenza Artificiale, si pone l’obiettivo di sintetizzare i più recenti assunti sul suo funzionamento, le caratteristiche positive e negative dello strumento, nonché aprire una catena di approfondimenti sui casi più emblematici di generazione delle false informazioni online. Per questo motivo, nei primi paragrafi si ripercorrono i principali metodi e utilizzi dell’Intelligenza Artificiale e come essa ha condotto una frequente mistificazione e manipolazione dei contenuti online; per concludere, infine, con un elenco dei principali comportamenti che gli utenti dovrebbero assumere per sfatare la disinformazione online e gli strumenti a sua disposizione per farlo.

I. Introduzione

L’Intelligenza Artificiale (IA) , negli ultimi anni, ha vissuto una crescita esponenziale, imparagonabile rispetto a qualsiasi altro oggetto di studio, sia dal punto di vista del progresso nell’implementazione della materia, sia in merito all’interesse che si è creato non solo nel mondo della politica, della scienza, della ricerca e del giornalismo, ma anche nella popolazione civile che ha avuto modo di entrare a contatto con l’IA sin dalla sua nascita. Quest’ultima dinamica può essere considerata la normalità, specialmente da coloro che, in una visione forse ottimistica, vedono l’Intelligenza Artificiale come uno strumento destinato ad entrare nella vita di chiunque al fine di migliorarla, aiutando nella risoluzione dei problemi più complicati e semplificando meccanismi altrimenti lunghi e complessi.

Il rovescio della medaglia è invece rappresentato da tutte quelle problematiche che sono sorte di pari passo con l’avanzamento dell’IA, che non è stato esente da effetti collaterali visibili e invisibili, che colpiscono in egual modo ambienti di spicco e ambienti della società civile. Tra queste problematiche, una delle più evidenti è senz’altro quella della misinformazione creata dall’IA e dal seguito che, a causa della sua popolarità, questa può generare.

Nella presente trattazione si proverà ad andare più a fondo sul piano tecnico, ispezionando i possibili metodi di apprendimento che vengono utilizzati dall’intelligenza artificiale e le differenze che intercorrono tra questi; inoltre, sarà presa in esame la metodologia anche sul piano pratico, cercando di capire il passaggio dall’apprendimento alla messa in atto di sistemi informativi ingannevoli e talvolta cruciali per il meccanismo di decision-making istituzionale. Non solo, perché si proverà a mettere in evidenza ciò che può essere fatto da chiunque, anche all’interno della società civile, per evitare di essere raggirati da contenuti non veritieri creati dall’IA.

II. Metodi e obiettivi nell’utilizzo dell’IA

Al fine del funzionamento dell'IA, è determinante la scelta dell'algoritmo che ne sta alla base. L'informatica consente di risolvere problemi mediante il computer, seguendo regole e utilizzando le risorse necessarie. Risolvere un problema significa che, dati degli input, è possibile giungere a un output soddisfacendo un criterio di verifica (Pompili, 2021)

Una volta scelti gli input (i “dati”) da inserire si seleziona la tipologia di agente da utilizzare. Si può adottare un approccio orientato alla ricerca, ottimale nel caso di applicazioni matematiche; orientato all'apprendimento, ottimale quando si utilizzano esperienze passate; orientato alla pianificazione, ottimale con una sequenzialità delle operazioni, e orientato al ragionamento automatico. In base all'approccio adottato, si deve definire il paradigma, il quale dipende dalla scelta precedente, poiché ogni paradigma presenta vantaggi e svantaggi che è consigliabile sfruttare a seconda del caso concreto. (Friedrich, Teppan, 2022)

Fondamentalmente, nell'IA si distinguono due correnti: l'IA classica (detta anche “simbolica”), che modella e risolve problemi sulla base di modelli, regole o altre specifiche; e l'apprendimento automatico (detta anche “subsimbolica”), che mira a risolvere problemi sulla base di set di dati raccolti. (Friedrich, Teppan, 2022)

Nell'IA classica si utilizzano solitamente simboli tratti dal mondo umano, mentre nell'apprendimento automatico si applicano metodi che codificano collegamenti in migliaia di parametri numerici, spesso non interpretabili dall'essere umano. (Pompili, 2021)

Contrariamente all'IA basata su modelli, nell'apprendimento automatico non c'è un modello da cui trarre conclusioni o sulla base del quale calcolare soluzioni. Nel caso dell'apprendimento automatico, la redazione di un modello è l'obiettivo stesso. In questo contesto, si distinguono l'apprendimento supervisionato e quello non supervisionato. (Pompili, 2021)

Apprendimento automatico supervisionato

In questo caso, si dispone di un set di dati di allenamento che indica, per un gruppo di esempio, anche la risposta corretta. Il set di dati di allenamento può essere immaginato come una tabella con un'identificazione univoca degli esempi di allenamento nella prima colonna, la risposta corretta per ciascun esempio nell'ultima colonna, e valori relativi a specifiche caratteristiche nelle colonne intermedie che descrivono più dettagliatamente l'oggetto dell'esempio. L'apprendimento supervisionato è la categoria di apprendimento più utilizzata. (Pompili, 2021)

Apprendimento automatico non supervisionato

Contrariamente all'apprendimento automatico supervisionato, nell'apprendimento automatico non supervisionato i set di dati non contengono indicazioni sulle risposte corrette. Il processo di apprendimento stesso è diverso, poiché si tratta di individuare in modo automatizzato le connessioni nascoste in un set di dati. Tuttavia, è spesso necessario un set di dati strutturato in modo simile a un set di dati di allenamento, con la prima colonna che identifica gli oggetti o gli esempi, seguita da colonne che contengono i valori caratteristici. L'apprendimento non supervisionato è utilizzato per problemi di clustering, dove si cercano gruppi di dati in base alle caratteristiche comuni, e per l'associazione learning, dove si cercano regole associative tra i dati inseriti. (Pompili, 2021)

Apprendimento con rinforzo (reinforcement learning)

L'ultima categoria di apprendimento è l'apprendimento con rinforzo, che interagisce con l'ambiente dinamico per raggiungere un obiettivo specifico. Gli algoritmi agiscono in base alle ricompense date in funzione degli obiettivi raggiunti, e l'obiettivo è massimizzare la ricompensa totale attesa. Questo approccio consente di addestrare un algoritmo senza definire regole specifiche, basandosi invece sui feedback ricevuti. Un aspetto cruciale è la capacità dell'algoritmo di interpretare il feedback come rinforzo e non come un nuovo input. (Pompili, 2021)

III. Strumenti per la mistificazione della realtà

L'evoluzione dell'Intelligenza Artificiale Generativa ha reso più semplice la manipolazione dei contenuti e la diffusione di fake news su larga scala, sia da parte di attori malintenzionati che di dilettanti. L'ascesa dell’IA nella creazione di notizie false ha infatti trasformato l’ecosistema della misinformazione fornendo nuovi strumenti che permettono la creazione di articoli, immagini, audio, video e persino interi siti web, all’apparenza simili a quelli tradizionali, per promuovere narrazioni false o polarizzanti destinate a seminare confusione e sfiducia tra i lettori, contribuendo all’impatto potenziale sul dibattito pubblico e sulla democrazia (Baldini, Brewster, Effron, Fishman, Howard, Huet, Labbe, Maitland, Padovese, Pfaller, Pozzi, McKenzie, Schmid, 2023).

I modelli generativi di IA, tra cui le varianti GPT di OpenAI, Bard di Google, DALL·E di OpenAI, Stable Diffusion e Midjourney, hanno catturato l'attenzione del pubblico e ispirato un'ampia adozione (Kidd & Birhane, 2023). Da maggio 2023, i siti che ospitano fake news generate da IA sono cresciuti oltre il 1.000%, passando da 49 a oltre 600, secondo NewsGuard, un’organizzazione che fornisce un sistema di monitoraggio della disinformazione. L'automazione della produzione di fake news tramite IA ha causato un notevole aumento di siti web che imitano articoli autentici, ma diffondono diverse tipologie di misinformazione, dalla propaganda russa, cinese e iraniana a bufale sulla salute, fino a narrazioni false sui conflitti in Ucraina e a Gaza (Verma, 2023). Secondo uno studio dell’Università di Berkerley, in California (Kidd & Birhane, 2023) , più rapidamente tali sistemi vengono utilizzati ed adottati, e più vengono integrati nel back end di sistemi utilizzati in tutti i settori, maggiore è l'influenza che essi hanno sulle convinzioni umane. Ad esempio, i contenuti di marketing possono essere generati da modelli di IAG, mirati agli utenti utilizzando metodi psicometrici, quindi perfezionati e restituiti agli utenti stessi in un sistema automatico progettato per indurre comportamenti di coinvolgimento.

Gli strumenti di IA, in particolare i cosiddetti Large Language Models (LLM) o modelli di lingua avanzati - algoritmi di apprendimento automatico in grado di riconoscere, prevedere e generare lingue umane sulla base di ampi insiemi di contenuti scritti da umani - sono ora ampiamente utilizzati per produrre testi simili a quelli umani. Sfruttando il potere dei GML, i contenuti generati dall'IA sono sempre più indistinguibili dalle informazioni scritte da umani e, in alcuni casi, sono persino percepiti come più credibili. Una volta che i GML vengono utilizzati per generare disinformazione, la facilità e la velocità nella produzione di testi in grande quantità possono amplificare significativamente punti di vista altrimenti di nicchia o completamente fuorvianti, creando un'illusione di una prospettiva di maggioranza. La diffusione di disinformazione è già nota per generare un ambiente diffidente, ma ciò che è nuovo è la capacità dell'IA di generare facilmente e rapidamente disinformazione persuasiva. La scalabilità offre ad attori malintenzionati una nuova tattica per perpetuare narrazioni false agli utenti ignari, creando confusione pubblica su una scala precedentemente impossibile (Zhou, Zhang, Luo, Parker & De Choudhury, 2023).

Ecco alcuni modi in cui ciò può accadere:

  1. Generazione di Testo Creativo: I LLM possono essere addestrati per generare testo in modo creativo, imitando stili di scrittura umani. Tuttavia, questa capacità può essere abusata per creare notizie false o fuorvianti che sembrano essere state scritte da fonti umane.
  2. Manipolazione dell'Informazione: Gli algoritmi di IA possono essere utilizzati per manipolare informazioni esistenti, cambiando il contesto o alterando dettagli per creare narrazioni distorte o false.
  3. Imitazione di Stili di Scrittura Esistenti: Alcuni LLM possono imparare a imitare lo stile di scrittura di fonti specifiche. Questo può essere utilizzato per creare articoli che sembrano provenire da fonti affidabili, ma che in realtà sono generate artificialmente.
  4. Risposte Persuasive a Domande Specifiche: Modelli di domanda e risposta alimentati da IA possono generare risposte che sembrano accurate e convincenti, ma che potrebbero essere in realtà false o fuorvianti.
  5. Manipolazione di Contenuti Multimediali: Alcuni algoritmi di IA possono manipolare immagini, audio e video per creare contenuti visivi o auditivi che sembrano autentici ma che, in realtà, sono stati manipolati (Zhou, Zhang, Luo, Parker & De Choudhury, 2023).

In particolare, rispetto all’ultimo punto, è da sottolineare l’emergere del fenomeno dei Deepfake, vale a dire tutti quei contenuti multimediali sinteticamente alterati o creati sfruttando i modelli generativi nel settore del Deep Learning. Si tratta di una nuova tecnica per veicolare disinformazione attraverso dati multimediali che vengono successivamente condivisi sulle varie piattaforme social, aprendo la strada a una nuova tipologia di contenuti manipolati. Immagini, video e audio, chiamati anche più generalmente “media sintetici” sono generati utilizzando algoritmi di intelligenza artificiale basati su framework come Autoencoder e Generative Adversarial Networks - GAN (Cazzaniga, 2023).

Questi algoritmi permettono la creazione e la diffusione di tecniche estremamente raffinate in grado di attaccare i dati digitali, alterarli o crearne i contenuti da zero, ottenendo risultati sorprendentemente realistici, ricreando le caratteristiche e i movimenti di un volto o di un corpo e a imitarne fedelmente la voce. Nel marzo 2023, Donald Trump ed Emmanuel Macron sono i protagonisti di alcune immagini condivise sul web che in pochissimo tempo sono state visualizzate da milioni di utenti. Le immagini mostrano il Presidente degli USA che appare in balìa di alcuni poliziotti nell’atto di arrestarlo, mentre nella seconda foto il Presidente francese si trova in strada, tra manifestanti e forze dell’ordine, durante le proteste organizzate contro la riforma del sistema pensionistico. Nonostante il realismo che le caratterizza, queste immagini sono false, create per finalità satiriche. Un ulteriore esempio di uso concreto dei deepfakes come mezzo di disinformazione è stato riscontrato durante il conflitto riguardante la Federazione Russa e l’Ucraina a seguito dell’invasione di quest’ultima da parte del Cremlino il 24 febbraio 2022. L’utilizzo dei deepfakes, all’interno di questa guerra che è anche mediatica, costituisce una strategia essenziale per combattere il nemico anche attraverso la diffusione di notizie fuorvianti, alimentando disinformazione e confusione (Cazzaniga, 2023).

L’origine dei deepfake arriva tuttavia dal contesto della pornografia non consensuale. Cazzaniga spiega: “Spesso questi materiali sono utilizzati per compiere atti di revenge porn ai danni di soggetti fragili principalmente di sesso femminile o anche come mezzo di sextortion. Ancora oggi, oltre il 95% dei deepfakes presenti online è costituito proprio da video non consensuali a sfondo pornografico, coinvolgendo anche figure pubbliche”. Viste le diverse applicazioni in molteplici ambiti con scopi illeciti, immorali o diffamatori, non sorprende il fatto che i deepfakes vengano presentati in primo luogo come una nuova minaccia da limitare il più possibile. Ad alimentare i timori legati al deepfake, si aggiunge il fatto che questi contenuti multimediali manipolati potrebbero anche essere utilizzati per la commissione di reati (estorsioni, diffamazioni, furti d’identità, frodi informatiche), costituendo una vera e propria nuova frontiera della disinformazione in grado di mettere a rischio l’assetto democratico (Cazzaniga, 2023).

IV. Strumenti e comportamenti per dissimulare la disinformazione

Come precedentemente discusso, nella società contemporanea, che si caratterizza per una prolifica circolazione di informazioni, che circola attraverso diversi canali, le fake news si sono diffuse in misura sempre crescente, complice altresì l'incremento nella produzione di contenuti polarizzanti e fuorvianti. Pertanto, si rivela imprescindibile lo sviluppo e il potenziamento delle competenze umane al fine di discriminare le informazioni autentiche da quelle false. Nella complessa rete informativa online, l'esercizio del fact-checking, cioè il processo di valutazione della veridicità e della correttezza delle informazioni, da parte di ogni utente, che sia un giornalista che legge o pubblica una notizia, un politico che la condivide o una persona qualsiasi, richiede un approccio diversificato e integrato. Il processo di verifica delle informazioni deve fondarsi su una sinergia tra l'impiego di strumenti tecnologici avanzati - spesso forniti dalla stessa IA - e l'applicazione di comportamenti logici umani.

Innanzitutto, è possibile stilare una breve lista di comportamenti che ogni utente dovrebbe applicare durante la sua navigazione online e la sua ricerca di notizie:

1. Controllo dell'autenticità

La verifica dell’autenticità di un materiale online si basa sull’approfondimento di un profilo che pubblica o condivide tale materiale. Infatti, è consigliato approfondire la qualità e la quantità delle informazioni condivise in passato, che tipo di interazioni creano e che tipo di utenti si generano. In questo modo è possibile rivelare la legittimità dell’account, la sua storia ed eventualmente le sue connessioni con altre pubblicazioni online.

2. Verifica della credibilità

Accanto al controllo dell'autenticità, è essenziale valutare la fonte delle informazioni. L'origine di una notizia può essere un indicatore affidabile della sua veridicità. Verificare la reputazione di un sito web, analizzare la storia della fonte e esaminare la presenza di bias possono aiutare a stabilire se un'informazione è affidabile o se potrebbe essere soggetta a manipolazioni.

3. Verifica dei contenuti grafici

Come già discusso, intercettare false immagini e falsi video online è molto semplice e frequente al giorno d’oggi. I social network più utilizzati aiutano a diffondere spasmodicamente contenuti grafici che potrebbero essere spesso dei falsi. Per questo motivo, si dovrebbe fare molta attenzione a diverse caratteristiche del contenuto grafico, come la grandezza di scala, la luminosità o i dettagli di proporzione, durante il fact-checking.

4. Verifica della data

La temporalità delle informazioni è fondamentale nel contesto del fact-checking. Verificare la data di pubblicazione dell'articolo, della notizia o dell’immagine assicura che le informazioni siano aggiornate e pertinenti. Talvolta, le notizie obsolete possono essere manipolate o presentate fuorvianti.

5. Verifica della posizione

Il contesto geografico o il luogo di origine di una notizia possono influenzare considerevolmente il suo significato. Assicurarsi di verificare la posizione specifica degli eventi o delle dichiarazioni riferite, in quanto un contesto geografico errato può portare a interpretazioni distorte.

Gli strumenti tecnologici, come i motori di ricerca e i servizi di fact-checking online, sono importanti alleati nella lotta contro le false informazioni. La verifica incrociata delle notizie attraverso diverse fonti e la consultazione di organizzazioni specializzate nel fact-checking, possono fornire un quadro più completo e accurato della situazione.

Tra i plugin più conosciuti di Google, si annovera Invid/WeVerify - premiato e descritto come “uno degli strumenti più potenti per individuare la disinformazione online” - che fornisce anche qui il migliore esempio di come una intelligenza artificiale possa aiutarci nelle attività di fact-checking e dissimulazione sui social media. Ad esempio, attraverso questo strumento, è possibile ottenere informazioni contestuali dai video di Facebook e YouTube o eseguire ricerche inverse di immagini su Google, Bing, Baidu, Yandex, TinEye e Reddit. Al suo interno, utilizzando una lente di ingrandimento, è possibile migliorare ed esplorare fotogrammi chiave e immagini o leggere i metadati di video e immagini e così via (Soni, Shelke, 2023).

Volendo fornire un ulteriore elenco di strumenti utili, ad esempio in relazione alla verifica dell'autenticità di un contenuto o di un profilo che pubblica materiale online, è possibile citare alcuni siti come www.twitonomy.com, www.twittteraudit.com e www.foller.me, i quali assistono l’utente nel determinare inizialmente la qualità e la veridicità dell’informatore e dell’informazione. Inoltre, per verificare la credibilità della fonte, si può fare affidamento su siti come www.whopostedwhat.com, Google search, www.graph.tips.com - oltre a quelli precedentemente elencati - per conoscere ulteriori specifici dettagli sulla natura di chi o cosa condivide l’informazione (Soni, Shelke, 2023). Per controllare l’autenticità delle immagini, invece, è possibile utilizzare facilmente alcuni plugin di Google, o altri siti web come www.tineye.com, www.regex.info/exif.cgi, www.amnestyusa.org/citizenevidence, www.wolframalpha.com, che permettono l’approfondimento delle proprietà del contenuto grafico.

Nonostante il proliferare di strumenti e siti web per effettuare un approfondito fact-checking, gli analisti impiegano ancora molto tempo a rilasciare informazioni verificate e spesso in ritardo rispetto ai cicli di false notizie che hanno già avuto un impatto distorsivo nell’opinione dei cittadini. Gli sforzi di associazioni e progetti che guidano questa ricerca, come il Computer Science and Artificial Intelligence Laboratory (CSAIL), il Qatar Computing Research Institute (QCRI) e il FAke News discovery and propagation from big Data ANalysis and artificial intelliGence Operations (FANDANGO) in Europa, hanno portato allo sviluppo di nuovi metodi di analisi semantica, che incrocia le diverse fonti informative e gli autori, e di analisi multimediale per identificare le connessioni tra contenuti audio, foto e video. Tali realtà contribuiscono, infine, allo sviluppo di intelligenze artificiali in grado di riconoscere e identificare le anomalie di testo nelle pubblicazioni online (Martini, 2019).

V. Conclusione

Le tematiche che possono essere affrontate dall’Intelligenza Artificiale sono dunque svariate ed ognuna di queste porta con sé una serie di rischi più o meno pericolosi, anche in ragione dell’intenzione con la quale si utilizzano tali strumenti.

I meccanismi di apprendimento, come abbiamo visto nella prima parte di questa analisi, sono in continua evoluzione e nonostante i tentativi di porre un freno, o comunque vincolare i progressi della tecnologia alle volontà degli esperti in materia, una continua implementazione delle capacità dell’IA è senza dubbio preventivabile. Il focus dovrà in futuro semmai essere posto sugli intenti alla base di questi progressi: il 2024 sarà da questo punto di vista un importante giro di boa per capire come e quanto, specialmente a livello politico, l’IA che diffonde informazioni false ed ingannevoli sarà in grado di orientare il voto di tutti i cittadini dei paesi che si recheranno alle urne nei prossimi mesi.

Non solo, perché i differenti campi di applicazione e gli ampi scenari che si aprono di fronte all’utilizzo dell’Intelligenza Artificiale lasciano presagire un crescente livello di influenza da parte di questa in campi come l’arte, l’industria, l’economia, la moda e tanto altro. Tutti ambiti per i quali sarà fondamentale monitorare cambiamenti e modifiche apportate dall’IA, mantenendo sempre nei confronti di questi lo spirito critico necessario a valutarne la veridicità o, al contrario, il tentativo di raggiro.


Fonti

Baldini, S. Brewster, J. Effron, E. Fishman, Z. Howard, S. Huet, N. Labbe, C. Maitland, E. Padovese, V. Pfaller, L. Pozzi, G. McKenzie, S. Schmid, R. (2023). NewsGuard [Consultato il: 26/01/2024, Disponibile in: https://www.newsguardtech.com/it/misinformation-monitor/dicembre-2023/ ] (1-A);

Cazzaniga, M. (2023). Una nuova tecnica (anche) per veicolare disinformazione: le risposte europee ai deepfakes. [Consultato il: 26/01/2024, Disponibile in: https://www.astrid-online.it/static/upload/cazz/cazzaniga_medialaws_14_06_2023.pdf ] (1-B);

Friedrich, G; Teppan, E. (2022). Comprende e sfruttare l’intelligenza artificiale. [Consultato il: 26/01/2024, Disponibile in: https://www.handelskammer.bz.it/sites/default/files/uploaded_files/Digitalisierung/Linea%2 guida%20IA.pdf ] (1-B);

Kidd, C; Birhane, A. (2023). How AI can distort human beliefs. Models can convey biases and false information to users. [Consultato il: 26/01/2024, Disponibile in: https://www.science.org/doi/10.1126/science.adi0248] (1-B);

Martini, E. (2019). Intelligenza artificiale contro le fake news, lo stato della ricerca. [Consultato il 17/01/2024, Disponibile in: https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-contro-le-fake-news-lo-stato-della-ricerca/] (2-B);

Pompili, A. (2021). Intelligenza Artificiale: il futuro è già presente. [Consultato il: 26/01/2024, Disponibile in: https://tesi.luiss.it/30583/1/233271_POMPILI_ALESSIO.pdf ] (1-B);

Soni, K.; Shelke, R. (2023). Fake Data and AI: Debunking Fake News to Educate and Enhance Media Literacy – A Study. Atlantis Press, Advances in Computer Science Research [Consultato il: 17/01/2024, Disponibile in: https://www.atlantis-press.com/proceedings/icamida-22/125986277] (1-B);

Verma, P. (2023). The rise of AI fake news is creating a ‘misinformation superspreader’ AI is making it easy for anyone to create propaganda outlets, producing content that can be hard to differentiate from real news. The Washington Post. [Consultato il: 26/01/2024, Disponibile in: https://www.washingtonpost.com/technology/2023/12/17/ai-fake-news-misinformation/] (1-B);

Zhou, J. Zhang, Y. Luo, Q. Parker, A. A. De Choudhury, M. (2023). Synthetic Lies: Understanding AI-Generated Misinformation and Evaluating Algorithmic and Human Solutions [Consultato il: 26/01/2024, Disponibile in: https://dl.acm.org/doi/fullHtml/10.1145/3544548.3581318 ] (1-A).













Condividi il post