Facebook Pixel
Milano 11-ott
34.308 +0,68%
Nasdaq 11-ott
20.272 +0,15%
Dow Jones 11-ott
42.864 +0,97%
Londra 11-ott
8.254 +0,19%
Francoforte 11-ott
19.374 +0,85%

Intelligenza artificiale: urgenti regole provvisorie che fissino "paletti"

Economia, Scienza e tecnologia
Intelligenza artificiale: urgenti regole provvisorie che fissino "paletti"
(Teleborsa) - Il tema dell'intelligenza artificiale resta al centro dell'attenzione, tanto della comunità scientifica quanto in ambito istituzionale, perché potrebbe aprire frontiere sconosciute e portare grandi vantaggi e scoperte per la società, ma anche porre gravi rischi per l'umanità. Tutto dipende da come la si userà e dalle regole che l'umanità si darà. E' questo in sostanzia il messaggio che i "padri" dell'AI generativa hanno lanciato alla comunità internazionale, investendo i leader politici di una responsabilità inedita.

L'Europa ne è consapevole, così come le altre grandi economie sviluppate, sta lavorando ad un corpus di regole che consenta di sfruttare i vantaggi dell'AI senza correre i rischio che prenda il sopravvento sull'uomo. E' in fase si stesura un regolamento definitivo, l’Artificial Intelligence Act (AiAct), approvato di recente dal Parlamento europeo. Si tratta della prima legislazione al mondo sull'Intelligenza artificiale e tratta argomenti come il riconoscimento facciale nei luoghi pubblici, i sistemi di identificazione biometrici ed il divieto di software per il riconoscimento delle emozioni.

La normativa assai complessa non sarà pronta prima della fine dell'anno, poi ci sarà l'iter di approvazione. Per questo si sta facendo largo l'idea di buttar giù alcune regole provvisorie, attinenti ai valori fondamentali dell'umanità, in modo da tenere il passo con l'incedere tumultuoso dello sviluppo tecnologico.

Di regole "temporanee" che coinvolgano gli Stati europei su base volontaria ha parlato di recente la commissaria la commercio Margrethe Vestager, dopo l'incontro con il numero uno di Google Sundar Pichai, giunto a Bruxelles per assumere l'impegno a rispettare tutte le regole e combattere la disinformazione. "C’è un senso di urgenza condiviso. Per sfruttare al meglio questa tecnologia, sono necessari dei paletti", ha spiegato la vicepresidente Vestager, riferendosi alle trattative in corso al G7.

Il tema dellAI e dei suoi rischi è stato anche al centro dell'ultimo vertice del G7 in Giappone, dove si è discussa l'ipotesi di buttar giù delle regole o standard tecnici, da adottare su base volontaria, per fissare dei paletti provvisori all'AI e renderla così "affidabile". I leader mondiali, riuniti ad Hiroshima, hanno convenuto che la governance non è riuscita a tenere il passo con lo sviluppo della tecnologia, ma occorre che i "sistemi di intelligenza artificiale siano accurati, affidabili, sicuri e non discriminatori, indipendentemente dalla loro origine” e soprattutto siano "in linea con la nostra condivisione valori democratici".

Risultato del vertice in Giappone l'istituzione di un gruppo di lavoro, cui partecipano i Ministri competenti, per approfondire il tema dei rischi connessi all'AI generativa entro la fine di quest'anno.

Se da un lato l'Intelligenza Artificiale può esser vista come una fonte di progresso, benessere e lavoro, dall'altra pone seri rischi per il genere umano, soprattutto se utilizzata per manipolare le persone. Anche gli esperti dell'AI hanno messo in guardia dai rischi insiti in questa tecnologia.

Di recente, l'eclettico Elon Musk ha lanciato un allarme sull'AI, chiedendo una sospensione di sei mesi allo sviluppo dei sistemi più potenti. Ma anche Sam Altman, Ceo di OpenAI e padre della rivoluzionaria ChatGPT, ha ammesso che, nell'arco die prossimi dieci anni, "i sistemi di AI supereranno il livello di competenza degli esperti nella maggior parte dei settori" e che ", la super intelligenza sarà più potente di altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato". Ma nello stesso tempo Altman avverte che, sta prendendo in considerazione l'idea di lasciare l'Europa se le regole dovessero rivelarsi troppo stringenti-.

Condividi
```