, In Evidenza, Slider

C’era anche il neo ministro della Difesa, Lorenzo Guerini, alla giornata di studio “Intelligenza artificiale, sicurezza, responsabilità etica”, che ha visto anche la Lectio magistralis del Cardinale Gianfranco Ravasi, presidente del Pontificio Consiglio della Cultura. A fare gli onori di casa al ministro, la cui partecipazione non era prevista dal programma, il generale Nicolò Falsaperna, a capo del Segretariato generale della Difesa e Direzione Generale degli Armamenti, che ha organizzato l’evento assieme al  Pontificio Consiglio della Cultura.

“Tecnologie quali il Machine Learning, il Natural Language Processing, l’Internet of Things, l’High Performance Computing – ha detto il ministro – consentono di creare prodotti con capacità di intelligenza artificiale sempre più autonoma, in grado di interpretare fenomeni complessi utilizzando algoritmi matematici che processano immensi volumi di dati – economici, finanziari, sociali, culturali – decisivi per la nostra vita, spesso dimenticando che gli stessi sono una creazione umana, e in quanto tali suscettibili di errore”.

“Nella rincorsa costante verso un’automazione sempre più spinta e pervasiva dobbiamo porci una domanda: fino a che punto le applicazioni di intelligenza artificiale possono essere lasciate libere di agire in autonomia? E soprattutto, fino a che punto possiamo consentire questo in ambito militare?” Ha detto il ministro della Difesa. “Sappiamo – ha spiegato – che sistemi di armamento autonomo già esistono e non rappresentano una novità: da decenni le Forze Armate li utilizzano, seppur con differenti livelli di autonomia e per attività prevalentemente non letali, in molti campi di applicazione, quali la ricerca e soccorso, il disinnesco di ordigni esplosivi, la ricognizione”.

“E’ evidente che in campo militare esistono significative implicazioni etiche e legali legate alla sempre più realistica capacità della macchina di ragionare come uomini. Quello militare – ha aggiunto – è un ambito in cui, in un prossimo futuro, lo stesso processo decisionale per la scelta dell’uso della forza potrebbe essere affidato ad un sistema d’arma dotato di un elevato livello di autonomia.”

Il ministro della Difesa ha poi spiegato che sul tema la Commissione Giuridica della Ue si è già espressa, ravvisando la necessità di individuare un adeguato sistema giuridico entro il quale poter collocare la robotica autonoma, per regolamentare fenomeni che nascondono grandi incognite. “Qualunque sarà l’evoluzione normativa permane, allo stato attuale, qualche perplessità sull’utilizzo spinto dei dispositivi di intelligenza artificiale, e bisognerà definire in modo chiaro e condiviso i limiti e le condizioni di autonomia di tali macchine per la verificabilità e la tracciabilità del loro processo decisionale”. Ha detto.

“Fino ad allora- conclude Guerini, sottolineando la necessità di attenzione politica al tema – ritengo che il ruolo umano di supervisore delle decisioni e controllo delle operazioni rimarrà decisivo. Allo stesso modo tecnologia e etica devono procedere insieme per guidare l’innovazione verso un autentico sviluppo umano che non danneggi le persone e non crei forti disequilibri globali. Non bisogna dimenticare che l’uomo deve essere al centro di ogni processo e che la macchina deve restare al suo servizio”.

La giornata di oggi, a cui hanno partecipato, tra gli altri, la professoressa Rita Cucchiara, direttore laboratorio nazionale Artificial Intelligence and Intelligent Systems del Cini, il professor Dominique Lambert, ordinario di Logica, Epistemologica e Filosofia della natura all’università di Namur, Padre Paolo Benanti della Pontificia università Gregoriana e Eva Thelisson, ceo dell’AI Transparency Institute, ha introdotto ampi elementi di riflessione sull’intelligenza artificiale sia nelle più tradizionali applicazioni quali tecnologia, politica ed economia, sia considerando gli aspetti etici connessi alla responsabilità dell’uomo sulla macchina.