
Intervista AI
Prof. Fabio Mercorio
Quali sono gli impatti che l'intelligenza artificiale avrà sulla nostra società? Il tema è di estrema attualità ed è oggi sempre più dibattuto in ogni ambito, specialmente con l’esordire di alcune nuove tecnologie come ChatGPT. Per questo ho deciso di approfondire la questione del rapporto tra le intelligenze artificiali - le cosiddette “IA” - e l'uomo, chiedendo il parere a un esperto in materia, il Prof. Fabio Mercorio, docente di Informatica presso il Dipartimento di Statistica e Metodi quantitativi dell’Università Bicocca di Milano, esperto di Computer Science e Big Data Analysis, nonché, vincitore di numerosi premi.
Dal suo curriculum di studi si capisce che lei ha sempre avuto una grande passione per l’informatica e le tecnologie digitali, ma quale è stato il passo che l’ha portata a interessarsi alle IA?
La passione per l’IA è venuta nel tempo, sin da quando ho iniziato il mio percorso di studi universitari. Ho sempre amato l’informatica, ma non riuscivo a trovare una strada ben precisa in questo campo molto vasto.Allora ho capito che avrei dovuto proseguire con lo studio. E’ stato allora che mi sono imbattuto in quello che in passato era uno dei campi più innovativi, l’Intelligenza Artificiale. . In particolare ho iniziato con l’IA meno conosciuta oggi, quella che generalizza i dati, ovvero quella che ha il compito di verificare che un software non vada mai in errore. Nel corso del dottorato ho iniziato a collaborare con la Bicocca, la quale stava già lavorando in ambiti che da lì a breve sarebbero sfociati nel fiorente campo del “machine learning”, ovvero una macchina in grado di imparare. Al termine del percorso del dottorato sono poi diventato assegnista di ricerca, ricercatore e, infine, professore.
Recentemente ha svolto una conferenza dal titolo: “Cittadinanza artificiale, qual’ è il posto per l’uomo?”. Intende in senso pratico o sociale?
Estremamente pratica, anche perché io non credo a quelli che già sanno come sarà, nessuno può saperlo. E’ dal 2010 che giro nelle scuole per parlare di internet e del rapporto tra il digitale e il reale: mi sono accorto infatti che molti usano i mezzi di telecomunicazione come oggetti “sacri” da cui sembra provenire una verità assoluta in tutti gli ambiti. Tutti fenomeni amplificati dall’arrivo dei social. A nessuno inizialmente era veramente chiaro con quale scopo questi oggetti tecnologici fossero stati creati. Quindi non si capiva come utilizzarli al meglio. Prendiamo ad esempio una bottiglia, la quale ha uno scopo chiaro e universale nella mente di tutti: se io la mostrassi ad un alieno non saprebbe cos’è e per questo motivo non saprebbe nemmeno come utilizzarla, facendone probabilmente un uso improprio, che nasce da una comprensione sbagliata del suo scopo. Questo stesso esempio è applicabile anche ai social, agli smartphone o a tutti quegli strumenti mediatici che ci circondano, quindi ci si aspetta cose dai servizi per cui non sono stati progettati, come - appunto - rivelare verità assolute o aiutare a mantenere rapporti di amicizia e così via.
Nella conferenza ho parlato di oggetti che non sono più stati creati con un singolo scopo, ma con un “metaobiettivo” e tanta ignoranza sull’utilizzo di questi strumenti fallibili e limitati. Nello specifico ho voluto spiegare in maniera non tecnica come funziona l’IA e il machine learning, ricorrendo a esempi di vita quotidiana per introdurre dei criteri con cui noi utilizziamo o siamo utilizzati dall’IA, già presente in molti servizi che utilizziamo. Perché non dobbiamo pensare all’IA come un robot, ma come un dispositivo.
Ad oggi vi è un utilizzo sempre più preponderante dell’IA, secondo lei ci sarà ancora posto per l’uomo e in che misura?

Si, ci sarà ancora posto per l’uomo, per certi versi più di prima. Perché molte delle attività che oggi stiamo delegando all’IA sono quelle meno intellettuali e creative. Come quando si è passati dalla zappa alla motozappa: non è che non c’era più il contadino, ma ha dovuto cambiare il proprio modo di lavorare e le proprie competenze per continuare a svolgere il suo lavoro con mezzi meccanici. In altre parole quindi non credo che l’IA ruberà il lavoro all'essere umano, ma che sarà l’essere umano che saprà usare l’IA a rubare il lavoro a quello che non la utilizzerà.
La misura in cui ci sarà posto per l’uomo non la conosco e non credo ci sia nessuno che la possa conoscere oggi. Perfino gli stessi inventori delle tecniche di “deep learning” alla base dell’apprendimento di molte IA che usiamo oggi, sono in disaccordo su questo. Ad esempio uno degli inventori di algoritmi IA ritiene che ChatGPT sia cosciente di ciò che sta dicendo, mentre dall’altra parte c’è chi ritiene che ciò che l’IA afferma sia solo statistica e la macchina non abbia coscienza di ciò che dice, ripetendo a memoria dei dati come uno studente che non ha realmente capito di cosa sta parlando. La comunità sta andando verso una direzione di connubio uomo-macchina, ma non sono in grado di dire se la strada che prenderemo a partire da questa direzione sarà giusta o no. Dovremo iniziare a porci questa domanda oggi, non domani, perché stiamo già dando all’IA più spazio di quello che dovrebbe prendersi, penso per esempio alla gestione dei rapporti umani, ai social e all'apprendimento digitale.
Per quanto riguarda ChatGPT, l’IA sulla bocca di tutti, secondo lei può avere degli affetti positivi oppure avrà principalmente dei risvolti negativi come ad esempio l’utilizzo inappropriato che ne possono fare alcuni studenti oppure il fatto che fornisca risposte non sempre attendibili?
Facciamo un paragone: nel 2008 non esistevano le app, oggi chi di noi non usa un’app, che sia la banca, per i messaggi, per ordinare la pizza? Quando sono nate le app nessuno sapeva i risvolti positivi o negativi che avrebbero portato, erano imprevedibili. Con ChatGPT è la stessa cosa. Avendo una risposta probabilistica, non capisce quello che dice, questo significa tanti limiti, ma anche tanti vantaggi, pure per gli studenti. L’errore sta nel pensare che lo strumento sia neutro, cioè che dipenda solamente da te, mentre lo strumento è nato con un obiettivo chiaro e per questo solo chi capirà che è necessario sapere come l’oggetto può servire alla propria necessità saprà se lo sta usando “bene” o “male”. Non si può spostare questa asticella sull’oggetto, perche l’oggetto è nato con uno scopo. Se non conosci tale scopo lo strumento può portarti perfino a diventarne schiavo.
Secondo lei come si può arginare il fenomeno del diffondersi di possibili fake news oppure di immagini generate dall’IA, che possono peggiorare una situazione di disinformazione già molto diffusa.

C’è sicuramente uno sforzo da parte dei regolatori di intervenire sul tema delle fake news, però anche qui chi dice bugie c’è sempre stato, ma era limitato per esempio al contesto di un gruppo di amici. Ora il problema è che tale fenomeno è amplificato. Infatti oggi con l’informazione di massa istantanea è possibile raggiungere milioni di persone attraverso un click. E questo non lo fa solo la RAI, ma lo può fare anche l’ultima influencer che ha 150 milioni di follower. Il problema è la responsabilità dell’informazione, la quale non può essere delegata. Purtroppo non è solo un problema di chi dice la verità, è un problema di come si dice la verità.
Noi ormai siamo sottoposti alla “algoritmocrazia” di canali quali Google, Instagram o Netflix che decidono per noi cosa sarebbe meglio vedere, filtrando le informazioni e togliendoci così la responsabilità personale
Ora il tema della responsabilità personale di chi debba decidere quali informazioni dare e come darle credo prenda un ruolo ancora più chiave di quanto non ce l'avesse prima, in quanto prima l’informazione si propagava tra persone, ora non essendo più così è sicuramente un problema, un problema culturale.
Sempre per quanto riguarda il ruolo delle responsabilità personali, di cosa dovrebbe essere responsabile uno sviluppatore di IA?
Un algoritmo non è mai responsabile in quanto è costruito per assecondare al meglio gli obiettivi per cui è stato progettato. Quindi poiché gli algoritmi di cui parliamo oggi sono algoritmi che apprendono dai dati, sarebbe come parlare di uno studente che ha avuto un pessimo insegnante. Certamente c’è un ruolo di responsabilità dell’insegnante, quindi dello sviluppatore, perché uno dei problemi principali risiede proprio nel capire come la macchina apprende, soprattutto dal momento in cui non vi è più una “ricetta” che la macchina segue, ma una serie di informazioni da cui questa ne deduce delle altre, pur senza capire come. Questo procedimento è sempre più complesso, poichè non ci stiamo più interfacciando con programmi, ma con modelli, ovvero rappresentazioni della realtà in miliardi di parametri. Per certi versi la macchina è diventata quindi un entità, cioè un oggetto con cui dialoghi e non è più una semplice macchina che programmi. Oggi il tema della responsabilità è estremamente dibattuto poiché non si può portare a processo una macchina.
Secondo lei come dovrebbe un giovane interfacciarsi al mondo del lavoro reso sempre più incerto a causa della possibile introduzione di alcune IA in determinati ambiti?
Il criterio di scelta universitario di un giovane a mio parere non cambia, ovvero deve tentare di scoprire qual’è il suo talento seguito da una passione. Quello che dovrebbe esserci, durante il percorso formativo, è una maggiore attenzione a dotarsi delle competenze che permettono di restare nel mercato del lavoro che potrebbe essere profondamente diverso tra 5 anni. Tuttavia i criteri di scelta non cambiano, impatta il “come” svolgere un lavoro, non il “cosa” fare.
Infine, in quanto esperto, secondo lei qual’è il rapporto tra Big Data e IA, e pensa che questo possa essere dannoso per la persona che ne subisce gli effetti. Come ad esempio nei casi di profiling?
I Big Data sono il carburante dell’IA di oggi. Pensando a un paragone: è come uno studente che vede milioni di esercizi e cerca di capire come farli, imparando quindi in modo sbagliato. Noi stiamo insegnando all’AI il modo sbagliato di studiare, ma questo è l’unico modo che conosciamo. Perciò il rapporto tra i due è fisiologico, perché essi sono diventati il modo in cui l’algoritmo apprende. Oggi non c’è IA senza Big Data e viceversa, è un legame imprescindibile. Allo stesso tempo è corretto parlare di interconnessione pericolosa per le persone, tanto che si sta provando a regolamentare, tramite tentativi, da parte dei governi di più paesi.

I paesi europei si muovono abbastanza all'unisono, ma non è semplice entrare in materia, perché bisogna considerare molti aspetti come il rispetto della persona, il business, la polarizzazione delle opinioni e soprattutto gli aspetti politici, il tema sociale e culturale, soprattutto nei più giovani.
-gennaio 2024-