Intelligenza Artificiale, professor Cristianini: “Non abbiamo bisogno nè di allarmismo nè di utopismo tecnologico: abbiamo bisogno di capire a fondo la tecnologia, e poi di fare delle leggi adeguate”

Intelligenza Artificiale, professor Cristianini: “Non abbiamo bisogno nè di allarmismo nè di utopismo tecnologico: abbiamo bisogno di capire a fondo la tecnologia, e poi di fare delle leggi adeguate”

16 Maggio 2023 0

Lo sviluppo dell’Intelligenza artificiale continua a far discutere in Italia e nel mondo. Se Francesco Caio, manager con un passato in Olivetti, Merloni, Cable & Wireless, Avio, Poste e Saipem intervistato recentemente ha affermato che l’AI rappresenta “Una straordinaria occasione per l’Europa per recuperare uno spazio da protagonista tra i due grandi blocchi che si sono formati sfruttando le prerogative dell’Ai: Cina e America. Fanno da contraltare tanti protagonisti e pionieri dell’evoluzione dell’Intelligenza artificiale che denunciano i potenziali pericoli che può portare per il futuro dell’umanità. Pensiamo tra i tanti ad Elon Musk, Mustafa Suleym, Geoffrey Hinton, Steve Wozniak, Evan Sharp, Chris Larsen e Licia Troisi.

Proprio per approfondire questo dibattito abbiamo interpellato il professor Nello Cristianini professore di Intelligenza Artificiale presso l’Università di Bath e autore di libri molto noti sull’argomento tra i quali “La scorciatoia” e vincitore del premio Royal Society Wolfson Research Merit.

Infografica - Biografia dell'intervistato Nello Cristianini
Infografica – Biografia dell’intervistato Nello Cristianini

– Professore è proprio di queste settimane a notizia che Geoffrey Hinton ha lasciato Google per poter essere libero di denunciare i rischi legati alla corsa nelle applicazioni pratiche dell’intelligenza artificiale senza controllo. Lei condivide le sue perplessità?

Siamo in molti a preoccuparci dei rischi dell’intelligenza artificiale, e da molti anni: senza una regolazione legale moderna, ci potranno essere dei problemi. Ma è dannoso creare un vago senso di allarme, senza spiegare che cosa può andare storto e come rimediare. Al momento abbiamo delle preoccupazioni sull’effetto degli algoritmi di raccomandazione, che scelgono i contenuti per noi, e poi anche sull’affidabilità di certe decisioni prese dalle macchine. A lungo termine, abbiamo preoccupazioni sui contenuti generati dall’AI, sia perchè potrebbero essere falsi o inaccurati, ma anche per questioni di privacy e copyright. Ogni questione andrebbe affrontata separatamente, studiata, compresa e risolta. L’allarme generalizzato non è produttivo.

– È stata pubblicata anche una lettera di avvertimento sui rischi per l’umanità da parte di 19 ex dirigenti dell’Associazione per l’avanzamento dell’intelligenza artificiale. Si da una ragione di questo allarmismo crescente?

Non abbiamo bisogno nè di allarmismo nè di utopismo tecnologico: abbiamo bisogno di capire a fondo la tecnologia, e poi di fare delle leggi adeguate. Questo è ben più difficile che fare gesti pubblici, ma è necessario. L’IA è una tecnologia che può essere utile, e su cui abbiamo investito molto, ma che va compresa e regolamentata, come tutte le altre tecnologie. Il problema è che mentre la tecnologia si sviluppava, il nostro sistema culturale rimaneva indietro. È ora di rimediare. Iniziamo comprendendo le scorciatoie tecniche e culturali che abbiamo preso furante questo viaggio.

– Secondo lei perché c’è tanta preoccupazione rispetto alla tecnologia che alimenta i chatbot, come ad esempio ChatGPT?

L’Intelligenza Artificiale è nata ben prima di chatGPT, così anche i suoi rischi. Solo che finché delegavamo alle macchine intelligenti il ruolo cruciale di selezionare le notizie o mediare la realta’ in altri modi, non ci rendevamo conto del suo potere. Il fatto che adesso sia in grado di emulare il linguaggio suscita una forte reazione emotiva, e molti hanno finalmente iniziato a prestare attenzione. 

– Esiste un rischio di aggravare la disinformazione attraverso queste tecnologie?

Abbiamo creato un nuovo e potente mediatore, tra noi e la realtà, e non siamo ancora sicuri di poterci fidare. Forse lo sbaglio è alla radice. Prima il rischio nasceva dalla distribuzione personalizzata di notizie, anche false, adesso si aggiunge il rischio della creazione su larga scala di immagini e testi. È chiaro che questo verrà usato da qualcuno per scopi nefasti, e il minimo che possiamo fare e’ renderlo illegale. Il problema sarà che questo non sarà sufficiente, ci vorranno anche altri rimedi. 

– Come sempre quando si parla di progressi epocali tornano con forza retaggi luddisti sul pericolo di creare nuova disoccupazione attraverso l’Ai generativa. Lei come vede il futuro del lavoro a seguito dell’applicazione sistemica di questo tipo di tecnologie?


Questo è uno di quei momenti in cui il mondo cambia velocemente, ed è naturale avere paura. Ma l’unico rimedio è conoscere, studiare, e tentare di prevenire i problemi. Non abbiamo l’opzione di tornare indietro, cosi’ dobbiamo cercare di andare avanti in modo sicuro. È chiaro che il futuro del lavoro sarà influenzato dalla tecnologia, come sempre, ma non è facile dire quanto rapida sarà la trasformazione. Le macchine faranno alcuni dei nostri lavori a costo più basso. La domanda è che aspetto avrà quella società, quali rischi si creeranno per le persone, e quali rimedi vanno proposti fin d’ora. Sono tutte questioni di cui i politici devono occuparsi ora.  

– Lei lavora sui problemi culturali ed etici che possono emergere dall’applicazione di tecnologie intelligenti, quali rischi si corrono?

A lungo termine, mi preoccupa che abbiamo adottato il punto di vista della macchina, quando definiamo le persone come “utenti” e le nostre idee come “contenuti”. È questo cambiamento di prospettiva che mi preoccupa di più, e come se noi cercassimo di trovare un ruolo e un significato all’interno di un meccanismo. A breve termine, mi preoccupa il fatto che stiamo delegando decisioni molto importanti alle nostre macchine prima di avere le strutture legali e culturali per poterci fidare: dalle decisioni giudiziarie a quelle finanziarie fino a quelle piccole dei video da guardare. Ogni decisione, piccola o grande, influenza la nostra realtà, e stiamo dando molto potere a queste macchine. Sarebbe bene comprendere meglio la loro relazione con la società. 

– Negli Stati Uniti è in corso un feroce dibattito anche sul riconoscimento facciale in numerosi propri aeroporti. Esiste un problema di trattamento dei dati e il rischio di discriminazioni per carenze del sistema di tecnologico?

Questo accade in tutto il mondo, e temo che la parte della discriminazione sia solo uno dei problemi. E’ possibile che una macchina riconosca le persone per la strada, e che si ricordi milioni di persone, e che abbia centinaia di “occhi”. Quale esperienza passata ci ha preparato per questa realta’? Non dovrebbe essere solo una questione di discriminazione, quello da capire è dove si ferma il diritto alla privacy.

– Le analisi facciali e vocali utilizzate per valutare i candidati utilizzando la IA possono ampliare le diseguaglianze?

Anche senza il problema dell’uguaglianza, mi chiedo se non sia lesivo della dignità umana di un candidato, dover sostenere una intervista di lavoro con un computer, sapendo di essere scrutinato con metodi sempre più sottili. Magari un giorno le aziende incontreranno una pressione del mercato per lasciare certe attività agli esseri umani. Ci sono molti precedenti in cui la pressione dei consumatori ha spinto le compagnie a comportarsi in modo più rispettoso verso clienti e dipendenti.

– Sarebbe necessario un codice etico per chi utilizza l’IA?

Noto l’ambiguità della domanda, che sarà importante nel futuro: saremo sia utenti della tecnologia, per esempio come consumatori, che anche utilizzatori, per esempio quando lavoriamo. Quanto sottoponiamo altri cittadini alle decisioni di una macchina, per esempio se lavoriamo in una banca o in una scuola, abbiamo già degli obblighi legali che derivano dal GDPR, e altri obblighi arriveranno presto dall’AI-Act. Ma sono importanti anche gli obblighi morali. Tutto questo deve ancora maturare, e la prima cosa è conoscere le idee alla base di questa tecnologia. 

Marco Fontana
marco.fontana

Iscriviti alla newsletter di StrumentiPolitici