Alla presenza del ministro della Difesa, Lorenzo Guerini, si è svolta a Centocelle nella sede di Segredifesa, la giornata di studio “Intelligenza artificiale, sicurezza, responsabilità etica”, che ha visto anche la Lectio magistralis del Cardinale Gianfranco Ravasi, presidente del Pontificio Consiglio della Cultura. A fare gli onori di casa, il generale Nicolò Falsaperna, a capo del Segretariato generale della Difesa e Direzione Generale degli Armamenti, che ha organizzato l’evento assieme al Pontificio Consiglio della Cultura.
“E’ innegabile che i sistemi di intelligenza artificiale, pervadendo sempre più le nostre vite e accrescendo il proprio impatto sulla società, ci pongano dinnanzi a nuove preoccupazioni e a nuove sfide”. Ha detto nell’intervento introduttivo il generale Falsaperna. “Il continuo sviluppo di macchine (elaboratori e robot) che sono in grado di agire nella dimensione fisica o virtuale, acquisendo e interpretando dati e, soprattutto, in grado di prendere decisioni sulle migliori azioni da svolgere per raggiungere l’obiettivo offre straordinari benefici alle nostre società, ma pone grandi problemi che si possano concretizzare in tre domande: Può una macchina essere cosciente? Può capire? Può avere responsabilità? Domande che riguardano capacità di arbitrio, coscienza e comprensione e che a loro volta introducono altri interrogativi. Queste grandi questioni non devono spaventarci o farci guardare con ritrosia alle enormi potenzialità insite nello sviluppo della tecnologia legata all’utilizzo dell’intelligenza artificiale”.
Il Segretariato Generale contribuisce, attraverso il PNRM (Piano Nazionale della Ricerca Militare), a progetti finalizzati a migliorare la qualità della vita attraverso la robotica e l’intelligenza artificiale, come in campo biomedico. “A mio avviso – prosegue il Segretario Generale della Difesa e DNA – l’approccio deve essere in primo luogo culturale e multidisciplinare e deve essere basato sul principio basilare che al centro si trova l’uomo con i suoi diritti fondamentali, perché l’obiettivo ultimo dell’intelligenza artificiale è migliorare l’agire umano, non ridurre la sua autonomia. Tuttavia all’approccio culturale devono accompagnarsi soluzioni di carattere giuridico che consentano ad un sistema di essere etico e di rispondere, già in sede di ideazione, a quei valori e ai diritti fondamentali sanciti dal diritto internazionale in materia di diritti umani”.
Su questa strada su cui si stanno muovendo le principali organizzazioni internazionali (Ue e Osce in primis), come testimoniano le numerose Linee Guida sull’intelligenza artificiale rese pubbliche finora. “A fattor comune – spiega Falsaperna – obiettivi atti a promuovere un’intelligenza artificiale (IA) affidabile che si muova su tre componenti: legalità (l’IA deve tener conto di leggi e regolamenti); eticità (deve assicurare l’adesione a principi e valori etici); robustezza tecnica e sociale (i sistemi IA possono causare danni non intenzionali). Da queste componenti discendono diversi requisiti di base che i sistemi IA devono soddisfare e il primo è l’intervento e la sorveglianza dell’uomo”.
Analoga attenzione è stata posta anche in ambito Nato. Già dal 2015 il comando Nato che si occupa della trasformazione dei sistemi di difesa ha pubblicato un rapporto in cui larga parte è dedicata al dibattito sugli aspetti etici e alle implicazioni legali dell’impiego di sistemi dotati di IA. In Italia a fine 2018 il Mise ha incaricato un gruppo di 30 esperti nazionali di formulare le “proposte per una strategia italiana per l’intelligenza artificiale”. Il documento ha costruito l’orizzonte concettuale sul quale è stata predisposta, a luglio 2019, la bozza della “strategia nazionale per l’intelligenza artificiale con lo scopo di offrire una visione di lungo periodo per uno sviluppo sostenibile del nostro Paese, che ponga l’uomo al centro e metta il progresso tecnologico a suo servizio.
L’intelligenza artificiale infatti pervade sempre più le nostre vite e aumenta il suo impatto sulla società, destando nuove preoccupazioni e situazioni impreviste da affrontare. L’evento di oggi ha voluto esaminare l’argomento con un approccio multidisciplinare, tenendo conto di interessi sociali ed umani. “Anche su neuroscienza e intelligenza artificiale è fondamentale interrogarsi. Oggi siamo in un contesto – ha detto nella sua ampia Lectio magistralis il Cardinale Ravasi – dove il soggetto è vincitore sull’oggetto, decide ciò che bene o male liberamente, e dove la verità ci precede, ci supera e noi abbiamo il compito di ricercarla”. “In passato c’era una distinzione netta tra cervello e mente, mentre oggi dominano modelli identitari, dove mente e anima possono essere ridotti a dato neuronale (che ha numeri grandi quanto le stelle!)”.
“Nell’intelligenza artificiale – prosegue Ravasi – siamo agli inizi. Le macchine IA lavorano con risultati straordinari, positivi, pensiamo alla robotica in medicina, alle attività produttive o alle funzioni gestionali e amministrative”. “Tutto questo tuttavia genera problemi di altro genere, etici. La vera domanda è: come ci si deve comportare davanti a questa intelligenza artificiale forte, dotata di capacità decisionali autonome, di fronte ad eventuali scenari che le si parano davanti e i cui confini devono essere definiti dalla macchina stessa con una decisione che può influire anche su creature umane? Questa è una questione che dovrà essere affrontata. L’algoritmo aperto permette infatti alla macchina di avere un’autonomia di scelta che pone risvolti di tipo etico”.
“Noi uomini di chiesa e di cultura dobbiamo lanciare un appello perché l’uomo entri in questo particolare settore, mettendo assieme due realtà diverse, affinché ci sia una risposta veramente umana per lo sviluppo dell’intelligenza artificiale”. Dice in conclusione il Cardinale Gianfranco Ravasi, che per esemplificare tutto questo si è avvalso, nella parte finale del suo discorso, degli esempi forniti dal Mahatma Gandhi da un lato e da Steve Jobs dall’altro.
Secondo il primo infatti “l’uomo si distruggerà con sette cose: politica senza principi, ricchezza senza lavoro, intelligenza senza sapienza, affari senta etica, scienza senza umanità, religione senza fede, amore senza sacrificio di se”. Quanto a Steve Jobs il discorso citato da Ravasi, per esemplificare la necessità di unire dimensioni differenti, è quello pronunciato nel 2005 ad Harward, quando il cofondatore di Apple parlò dell’ingegnere rinascimentale Leonardo da Vinci e disse: “La tecnologia da sola non basta è il connubio tra la tecnologia e le arti liberali, è il connubio tra la scienza e l’umanesimo a darci quel risultato, l’unico possibile, che ci fa sorgere un canto dal cuore”.
Ai lavori hanno partecipato, tra gli altri, la professoressa Rita Cucchiara, direttore laboratorio nazionale Artificial Intelligence and Intelligent Systems del Cini, il professor Dominique Lambert, ordinario di Logica, Epistemologica e Filosofia della natura all’università di Namur, Padre Paolo Benanti della Pontificia università Gregoriana e Eva Thelisson, ceo dell’AI Transparency Institute. Tra i punti toccati, ampi elementi di riflessione sull’intelligenza artificiale sia nelle più tradizionali applicazioni quali tecnologia, politica ed economia, sia considerando gli aspetti etici connessi alla responsabilità dell’uomo sulla macchina.