Intelligenza artificiale, l'intervista a Massimiliano Padula: «Un nuovo equilibrio contro i pregiudizi»

Intelligenza artificiale, l'intervista a Massimiliano Padula: «Un nuovo equilibrio contro i pregiudizi»
di Paola ANCORA
4 Minuti di Lettura
Giovedì 9 Maggio 2024, 17:41

Massimiliano Padula è un sociologo dei processi culturali e comunicativi e docente di “Scienze della comunicazione sociale” alla Pontificia Università Lateranense. Ospite pochi giorni fa a Taranto di un convegno sul tema dell’Intelligenza Artificiale, offre una prospettiva nuova di approccio a questa frontiera tecnologica: una prospettiva che fonde l’etica e l’innovazione, sfidando i «pregiudizi antropocentrici».

Intelligenza artificiale: professore lei è fra coloro che ne temono gli effetti o che ne sostengono i vantaggi per il futuro del pianeta e degli esseri umani?

«L’intelligenza artificiale è contraddistinta da mitologie perlopiù oscillanti tra speranze e paure. O essa sarà la soluzione a tutti i nostri problemi oppure ci porterà all’inferno. Credo sia necessario andare oltre le generalizzazioni monolitiche e iniziare a comprendere che gli aspetti positivi e negativi sono intrecciati: l’intelligenza artificiale porterà benefici e, nello stesso tempo, produrrà variabili più o meno alte di rischio. La risposta alla domanda sta nella consapevolezza serena di questa ambivalenza».
 

Da più parti, ciò che viene sottolineato è quanto veloce corrano tecnologia e innovazione senza che politica e istituzioni riescano a offrire “in tempo” leggi adeguate a governare questi cambiamenti. Cosa ci si deve aspettare?

«Compito della politica e delle istituzioni è quello di garantire la sicurezza, il benessere e il rispetto dei diritti dei cittadini. Per questo, l’IA è entrata prepotentemente nelle loro agende attraverso policy relative alla tutela della privacy, alla protezione dei dati, alla lotta ai pregiudizi e alle discriminazioni. In Italia il governo in carica ha istituito una commissione sull’intelligenza artificiale per l’informazione, al fine di esaminare e discutere (ed eventualmente regolamentare) le implicazioni sul giornalismo e sull’editoria. Si tratta certamente di decisioni e azioni importanti che però rischiano di burocratizzare un fenomeno che – a mio parere – almeno in questo momento, necessita di una visione aperta e non limitante e standardizzata. Quindi: educativa e formativa e non soltanto giuridica e sanzionatoria».
 

Papa Francesco prenderà parte al G7 intervenendo proprio sul tema dell’Intelligenza artificiale. Esiste e di che natura è la sfida pastorale sottesa a questa nuova tecnologia?

«Con le sue riflessioni sull’intelligenza artificiale il papa dimostra ancora una volta la capacità di “annusare” la contemporaneità, di entrare nelle sue urgenze e di voler collaborare a risolverle. Nella comunità cristiana, infatti, nessuno è estraneo agli altri, tutti sono responsabili della vita dell’insieme. Essa è nativamente comunità di relazione. La sua presenza al G7 nella sessione aperta anche ai Paesi non membri, dunque, si configura anzitutto come una testimonianza, un kairòs, un momento propizio e fecondo di riflessione condivisa e – per usare un termine caro a Bergoglio – “sinodale”.

Che poi si traduce in una sfida pastorale: cooperare affinché l’intelligenza artificiale diventi possibilità di nuove vie di presenza, incontro, evangelizzazione e comunicazione della fede».

Intravede un confine etico che non si dovrebbe superare?

«L’intelligenza artificiale può essere sviluppata per prendere decisioni in vari settori come le cure sanitarie, i trasporti, la giustizia. Questa capacità di agire in modo “autonomo” solleva preoccupazioni etiche e impone di stabilire confini e paletti. Ad esempio: quali potrebbero essere le conseguenze sociali e giuridiche di una decisione sbagliata presa da una macchina a guida autonoma? Oppure: è eticamente giusto riprodurre l’immagine o la voce di una persona deceduta? Sono domande a cui, ad oggi, non ci sono risposte chiare e univoche. In attesa di eventuali regolamentazioni, penso che le questioni etiche applicate all’IA, vadano valutate caso per caso, attraverso paletti e confini tracciati dal buon senso, da apparati valoriali e morali individuali e collettivi, dall’applicazione dei diritti universali. Proteggere la privacy, prevenire l’uso improprio dei dati, evitare l’esacerbazione delle disuguaglianze, combattere i pregiudizi usati per addestrare gli algoritmi, rappresentano alcuni dei fondamenti etici perché l’intelligenza artificiale possa essere sviluppata e implementata al fine della creazione di una società più giusta e inclusiva».

L’IA impatterà profondamente sul mercato del lavoro, modificandolo e probabilmente sostituendosi a tanti lavoratori. Oltre all’impatto socio-economico che questa evenienza porta con sé, è corretto immaginare che rischia di venir meno, così, anche uno degli ultimi luoghi di aggregazione rimasto? Viviamo nell’era dell'individualismo mediato dagli schermi dei telefonini, in che modo si può “restare comunità”?

«L’intelligenza artificiale risente del cosiddetto “pregiudizio antropocentrico” che spinge le persone a non accettare il coinvolgimento delle tecnologie in compiti tipicamente umani. Questo rifiuto si traduce qualche volta in leggende metropolitane che affermano che i robot prenderanno il nostro posto. Non è mai successo perché, sin dall’origine, è stato proprio l’essere umano a cercare la tecnica e a soddisfare, tramite i suoi artefatti, bisogni e desideri. Se ci pensiamo, il mondo lavorativo, è investito da decenni da processi di destrutturazione spazio-temporale. Smart working, flessibilità oraria, nomadismo digitale, sono formati di una società che non diventa più brutta o più sola, ma che semplicemente si trasforma, cresce e trova risorse ed energie per stabilire sempre nuovi equilibri».

© RIPRODUZIONE RISERVATA