(Teleborsa) - "Come farà l'uomo per non essere disumanizzato dalla macchina, per dominarla, per renderla moralmente arma di progresso?". È con questa domanda – posta da Giuseppe Ungaretti nella lettera scritta per il primo numero della rivista
Civiltà delle Macchine nel 1953 – che
il Segretario Generale della Difesa e Direttore Nazionale degli Armamenti, Gen. C.A. Nicolò Falsaperna, ha aperto, ieri, – presso l'Aeroporto Francesco Baracca di Roma – la Giornata di studio su "Intelligenza artificiale, sicurezza, responsabilità, etica" promossa dal
Segretariato generale della Difesa e Direzione nazionale degli armamenti in collaborazione con il
Pontificio Consiglio della Santa Sede."L'approccio deve essere in primo luogo culturale e multidisciplinare e basato sul semplice e basilare principio che al centro si trova l'uomo con i suoi diritti fondamentali, perché l'obiettivo ultimo dell'intelligenza artificiale è migliorare l'agire umano, non ridurre la sua autonomia" ha affermato
Falsaperna. "Qualunque sarà l'evoluzione normativa, permane, allo stato attuale, qualche legittima perplessità sull'utilizzo spinto dei dispositivi di intelligenza artificiale, e bisognerà definire in modo chiaro e condiviso i limiti e le condizioni di autonomia di tali macchine per la verificabilità e la tracciabilità del loro percorso decisionale" ha detto
il ministro della Difesa, Lorenzo Guerini, dal palco dell'auditorium "Paolo Caccia Dominioni".
"In ambito militare – ha aggiunto il Ministro – occorrerà regolamentare fenomeni legati alla robotica autonoma, ma nel frattempo il ruolo umano di supervisore delle decisioni, feedback e controllo delle operazioni rimarrà decisivo. Sappiamo benissimo che sistemi di armamento autonomo già esistono e non rappresentano una novità: da decenni le Forze armate di tutto il mondo li utilizzano, seppure con differenti livelli di autonomia e per attività prevalentemente non letali, in molti campi di applicazione, quali la ricerca e il soccorso, il disinnesco di ordigni esplosivi, la ricognizione. Ma è evidente – ha concluso Guerini – che i
n campo militare esistono significative implicazioni etiche e legali legate alla sempre più realistica capacità della macchine di ragionare come uomini. Quello militare è un ambito in cui, in un prossimo futuro, lo stesso processo decisionale per la scelta dell'uso della forza potrebbe essere affidato ad un sistema d'arma dotato di un elevato livello di autonomia".
"Dobbiamo lanciare un appello affinché l'uomo entri nel controllo dell'intelligenza artificiale unendo dimensioni diverse: per lo sviluppo di questa tecnologia serve una risposta umana" ha sottolineato il
cardinale Gianfranco Ravasi, presidente del Pontificio consiglio della Cultura durante la sua Lectio magistralis.
L'importanza della centralità dell'uomo, principale tema emerso dal seminario, è stata ribadita anche da
Padre Paolo Benanti e dal
Direttore del Laboratorio Nazionale Artificial Intelligence and Intelligent System (AIIS) del CINI, Rita Cucchiara, due dei 30 esperti nazionali incaricati dal Mise di formulare le
"Proposte per una strategia italiana per l'intelligenza artificiale". Il documento, elaborato tra gennaio e giugno di quest'anno, ha costituito l'orizzonte concettuale sul quale è stata poi predisposta dal Ministero, a luglio 2019, la
bozza della "Strategia Nazionale per l'Intelligenza Artificiale" con lo scopo di offrire una "visione di lungo periodo per uno sviluppo sostenibile nel nostro Paese che ponga l'uomo al centro e metta il progresso tecnologico al suo servizio".