La prima volta di un Papa al G7 sarà il prossimo mese di giugno. Non sarà per la pace – un tema che meriterebbe decisamente la presenza della Santa Sede –; non è nemmeno per il clima. Il Papa andrà al G7 a parlare di tecnologia. O meglio, a offrire alcuni orientamenti che le religioni possono dare per lo sviluppo di quella tecnologia così avanzata da essere chiamata intelligenza artificiale. L’IA – così in sigla – è una innovazione ricchissima di opportunità ma non esente da rischi, talvolta anche molto problematici, su cui la Chiesa si sta interrogando da diversi anni. Due esempi recenti giustificano l’invito del Papa al G7: l’iniziativa “Rome call for AI ethics” avviata in Vaticano nel 2020, a cui hanno aderito, tra le altre, Microsoft e IBM e di cui nei prossimi mesi, a Hiroshima, aderiranno anche alcune religioni orientali; poi i due recenti Messaggi di Francesco in occasione della Giornata mondiale della pace e della Giornata mondiale delle Comunicazioni sociali 2024.
La Chiesa udinese approfondirà la riflessione su questo tema, proponendo un convegno diocesano sabato 11 maggio, alla vigilia della Giornata mondiale per le Comunicazioni sociali. Tra gli ospiti ci sarà anche il prof. Angelo Montanari, docente ordinario di informatica all’Università di Udine, ma anche uno dei 4 ricercatori friulani inserito fra i 2.000 studiosi più influenti al mondo nella loro area di ricerca in Intelligenza Artificiale dalla Tsinghua University e dall’Associazione Cinese di Intelligenza Artificiale. Lo abbiamo raggiunto con Radio Spazio.
Prof. Montanari, di IA si parla soprattutto da quando è stato avviato “Chat GPT”, il chatbot (ossia il software “intelligente” con cui conversare) diffuso circa un anno e mezzo fa. Eppure l’IA è ben di più…
«Di IA si parla dagli anni Cinquanta del secolo scorso, con gli studi del celebre informatico Alan Turing. Alcuni elementi, oggi, rendono la IA potente e performante: la potenza di calcolo e l’enorme disponibilità di dati. Ciò ha fatto sì che l’IA sia divenuta sempre più pervasiva.»
Ci può fare alcuni esempi?
«Un ricercatore australiano, qualche anno fa e per gioco, trovò almeno un’applicazione per ognuna delle lettere dell’alfabeto: A come auto a guida autonoma, B come bionica, C come chatbot (per esempio ChatGPT), la D è la domotica e così via. Un filone di applicazioni interessanti è dedito alla rilevazione anticipata di malfunzionamenti utili, per esempio, nei macchinari industriali o per monitorare lo stato di salute delle persone, al fine di valutare per tempo l’insorgenza di patologie.»
Tra le varie applicazioni emergono anche diverse questioni etiche. Quali sono le principali?
«Si tratta di questioni che, nel rapporto tra l’uomo e la macchina, ci sono sempre state. Nello specifico dell’IA ci sono potenziali rischi legati per esempio a strumenti di videosorveglianza, vietate dal regolamento europeo recentemente varato. C’è poi la problematica della profilazione delle persone, ossia la capacità di questi strumenti di delineare con precisione gli interessi commerciali delle persone o le loro opinioni politiche. Sono esempi di applicazioni che se usate da persone malintenzionate possono causare problemi alla vita democratica. E ancora, l’utilizzo di droni dotati di IA in ambito militare è un altro uso molto pericoloso.»
A proposito, Papa Francesco ha citato questo tema nel Messaggio per la Giornata mondiale della pace. Quindi le religioni hanno effettivamente “qualcosa da dire” sull’IA…
«Il contributo delle fedi attiene alla questione antropologica: chi si interessa alla persona intravede le questioni che l’IA solleva dal punto di vista teorico e pratico-morale. In definitiva, l’IA pone la questione su ciò che è specifico dell’essere umano. Per esempio si sono investiti molti studi sul tema dell’intenzionalità, per valutare quanto tale dimensione possa essere trasferita a una macchina.»
Tali riflessioni incidono solo nell’utilizzo di queste tecnologie o possono essere introdotte già nella fase di sviluppo dei software di IA?
«Gli algoritmi sono i prodotti più preziosi e distintivi dell’informatica, non vanno demonizzati a priori. Detto questo, un grosso tema è garantire la qualità dei dati utilizzati per “addestrare” i sistemi di IA. Ci sono stati esempi in cui i dati di input di alcuni sistemi di IA avevano dei pregiudizi (per esempio prediligendo persone di sesso maschile e di carnagione chiara) e generavano, quindi, risultati falsati. Dunque serve attenzione al cosiddetto dataset, ossia l’insieme dei dati da fornire ai sistemi di IA. La dimensione etica entra, per esempio, a questo punto dello sviluppo.»