AI - Intelligenza Artificiale | Digitalizzazione | Digital Twin
Data Pubblicazione:

Intelligenza artificiale: il testo della Dichiarazione di Bletchley e gli accordi raggiunti

Svolta al vertice di Bletchley: i leader mondiali hanno raggiunto un accordo storico per la regolamentazione condivisa dell'intelligenza artificiale, delineando strategie congiunte per affrontare i rischi e massimizzare i benefici della tecnologia.

Storico accordo al vertice sull'Intelligenza Artificiale nel Regno Unito: verso una gestione dei rischi condivisa


Nell’affascinante scenario di Bletchley Park, culla della crittografia britannica durante la Seconda Guerra Mondiale, si è concluso il vertice britannico sull'intelligenza artificiale (IA), siglando quello che è stato definito un "traguardo epocale".

Gli sviluppatori leader nel campo dell'IA hanno concordato di collaborare con i governi per testare i cosiddetti modelli di frontiera prima del loro rilascio, con l’obiettivo di gestire i rischi di una tecnologia in rapido sviluppo.

Il vertice ha evidenziato le crescenti preoccupazioni circa i pericoli che l’IA non controllata potrebbe comportare, che vanno dall'erosione della privacy dei consumatori al rischio di danni agli esseri umani fino alla possibile causa di una catastrofe globale. Questi timori hanno innescato una corsa tra governi e istituzioni verso la progettazione di misure di sicurezza e regolamentazione.

Nell’inaugurale Summit sulla Sicurezza dell'IA, leader politici provenienti dagli Stati Uniti, dall'Unione Europea e dalla Cina hanno convenuto mercoledì di adottare un approccio comune per l'identificazione dei rischi e le modalità per mitigarli.

Il Primo Ministro britannico, Rishi Sunak, ha dichiarato che l'accordo raggiunto, l'azione sui test e l'impegno a istituire un panel internazionale sul rischio "inclineranno la bilancia a favore dell'umanità".

Accordo di Bletchley

L'accordo è stato raggiunto da 26 paesi, tra cui Stati Uniti, Europa, Cina e Regno Unito. I modelli di IA interessati sono quelli che hanno un potenziale impatto significativo sulla società, come quelli utilizzati per la guida autonoma, la medicina o la sicurezza nazionale. I test dovranno essere condotti da terze parti indipendenti e dovranno essere trasparenti e accessibili al pubblico. Il panel sarà composto da esperti di diverse discipline, tra cui tecnologia, etica, diritto e politica. Il suo compito sarà quello di identificare e valutare i rischi dell'IA e di proporre raccomandazioni per la loro gestione.

Yoshua Bengio, riconosciuto come uno dei padri fondatori dell'IA, contribuirà a fornire un report sullo "Stato della Scienza" per costruire una comprensione condivisa delle capacità e dei rischi futuri.

Il vertice ha riunito circa 100 politici, accademici ed esponenti del settore tecnologico per delineare una via di sviluppo per una tecnologia che potrebbe trasformare il modo in cui operano aziende, società ed economie, con alcuni che sperano di stabilire un ente indipendente per la supervisione globale.

I paesi rappresentati al vertice includono l'Australia, il Brasile, il Canada, il Cile, la Cina, l'Unione Europea, la Francia, la Germania, l'India, l'Indonesia, l'Irlanda, Israele, l'Italia, il Giappone, il Kenya, il Regno dell'Arabia Saudita, i Paesi Bassi, la Nigeria, le Filippine, la Repubblica di Corea, il Ruanda, Singapore, la Spagna, la Svizzera, la Turchia, l'Ucraina, gli Emirati Arabi Uniti, il Regno Unito di Gran Bretagna e Irlanda del Nord e gli Stati Uniti d'America.

Tra gli sviluppi rilevanti, il vice ministro cinese della scienza e della tecnologia, Wu Zhaohui, ha firmato la "Dichiarazione di Bletchley" mercoledì, ma la Cina non era presente giovedì e non ha aderito all'accordo sui test.

Al vertice hanno preso parte società all'avanguardia nell'IA come OpenAI, supportata da Microsoft, Anthropic, Google DeepMind, Microsoft, Meta e xAI, insieme a leader mondiali tra cui la presidente della Commissione Europea Ursula von der Leyen, il vicepresidente degli Stati Uniti Kamala Harris e il segretario generale delle Nazioni Unite António Guterres.

Elon Musk, presente al vertice, ha consigliato ai governi di non affrettarsi nell'emanare legislazioni sull'IA, suggerendo invece che le aziende che utilizzano la tecnologia sono meglio posizionate per scoprire problemi e potrebbero condividere i loro risultati con i legislatori responsabili della stesura di nuove leggi. In una conversazione finale con Sunak, Musk ha espresso un cauto ottimismo verso il futuro dell'IA.

Il vertice si è concluso su un accordo internazionale senza precedenti, noto come la Dichiarazione di Bletchley, che mira a contenere i rischi dell'IA a livello globale e ad avviare una collaborazione attraverso organizzazioni internazionali esistenti e nuove iniziative.

Questa cooperazione vedrà ulteriori sviluppi nei prossimi summit in Corea del Sud e in Francia, segnando un impegno continuativo verso la sicurezza nell'era dell'intelligenza artificiale.

Punti Chiave della Dichiarazione di Bletchley

La Dichiarazione di Bletchley delinea una visione condivisa per promuovere la sicurezza e le considerazioni etiche nello sviluppo e nell'implementazione dell'Intelligenza Artificiale (IA). Di seguito, i principi fondamentali racchiusi nella dichiarazione:

Cooperazione Internazionale

Si pone un forte accento sulla promozione della cooperazione internazionale per navigare il complesso panorama della sicurezza dell'IA. La dichiarazione sottolinea la necessità di un fronte unito nel far fronte alle sfide e nel sfruttare le opportunità che l'IA presenta su scala globale.

Standard di Sicurezza

La dichiarazione sostiene l'istituzione e l'adesione a standard di sicurezza elevati nella progettazione, sviluppo e implementazione dei sistemi di IA. Ciò include un impegno condiviso a ridurre i rischi associati all'IA e assicurare che queste tecnologie siano sviluppate con un approccio orientato alla sicurezza.

IA Etica

Una forte bussola morale guida la dichiarazione, enfatizzando l'importanza delle considerazioni etiche nell'IA. Questo include assicurare che le tecnologie di IA rispettino i diritti umani, la privacy e i valori democratici, promuovendo un approccio centrato sull'essere umano all'IA.

Trasparenza e Responsabilità

La dichiarazione mette in luce anche l'importanza critica della trasparenza e della responsabilità nei sistemi di IA. Questo è visto come un pilastro fondamentale per costruire la fiducia e la comprensione del pubblico, essenziali per l'integrazione di successo delle tecnologie di IA nella società.

Condivisione della Conoscenza

L'incoraggiamento alla condivisione della conoscenza e alla ricerca collaborativa tra le nazioni è un aspetto chiave della dichiarazione. Questo mira ad accelerare la comprensione globale e la mitigazione dei rischi legati all'IA, promuovendo una cultura di apprendimento condiviso e miglioramento continuo nelle pratiche di sicurezza dell'IA.

 

Il testo completo della Dichiarazione di Bletchley

Traduzione in Italiano del testo ufficiale (realizzata con AI)

L'Intelligenza Artificiale (IA) offre enormi opportunità a livello globale: ha il potenziale per trasformare e migliorare il benessere umano, la pace e la prosperità. Per realizzare ciò, affermiamo che, per il bene di tutti, l'IA dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere centrata sull'uomo, affidabile e responsabile. Accogliamo con favore gli sforzi finora compiuti dalla comunità internazionale per cooperare sull'IA per promuovere una crescita economica inclusiva, uno sviluppo sostenibile e l'innovazione, per proteggere i diritti umani e le libertà fondamentali e per favorire la fiducia e la confidenza del pubblico nei sistemi di IA per realizzare appieno il loro potenziale.

I sistemi di IA sono già impiegati in molti settori della vita quotidiana, tra cui abitazione, lavoro, trasporti, educazione, salute, accessibilità e giustizia, e il loro uso è destinato ad aumentare. Riconosciamo che questo è quindi un momento unico per agire e affermiamo la necessità dello sviluppo sicuro dell'IA e che le opportunità trasformative dell'IA siano utilizzate per il bene e per tutti, in modo inclusivo nei nostri paesi e a livello globale. Ciò include per i servizi pubblici come la salute e l'educazione, la sicurezza alimentare, nella scienza, l'energia pulita, la biodiversità e il clima, per realizzare il godimento dei diritti umani e per rafforzare gli sforzi verso il raggiungimento degli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite.

Accanto a queste opportunità, l'IA pone anche significativi rischi, inclusi in quei settori della vita quotidiana. A tal fine, accogliamo con favore gli sforzi internazionali rilevanti per esaminare e affrontare l'impatto potenziale dei sistemi di IA nei fori esistenti e altre iniziative rilevanti, e il riconoscimento che la protezione dei diritti umani, la trasparenza e la spiegabilità, l'equità, la responsabilità, la regolamentazione, la sicurezza, il controllo umano appropriato, l'etica, la mitigazione dei pregiudizi, la privacy e la protezione dei dati devono essere affrontati. Notiamo anche il potenziale per rischi imprevisti derivanti dalla capacità di manipolare i contenuti o generare contenuti ingannevoli. Tutti questi problemi sono di importanza critica e affermiamo la necessità e l'urgenza di affrontarli.

Particolari rischi per la sicurezza sorgono alla 'frontiera' dell'IA, intesa come quei modelli di IA generale altamente capaci, inclusi i modelli fondamentali, che potrebbero eseguire una vasta varietà di compiti - così come specifiche IA ristrette pertinenti che potrebbero mostrare capacità che causano danni - che corrispondono o superano le capacità presenti nei modelli più avanzati di oggi. Rischi sostanziali possono sorgere dal potenziale uso intenzionale improprio o da problemi non intenzionali di controllo relativi all'allineamento con l'intento umano. Questi problemi sorgono in parte perché tali capacità non sono pienamente comprese e quindi difficili da prevedere. Siamo particolarmente preoccupati da tali rischi in settori come la cybersicurezza e la biotecnologia, così come dove i sistemi di IA di frontiera possono amplificare rischi come la disinformazione. C'è il potenziale per danni seri, persino catastrofici, sia deliberati che involontari, derivanti dalle capacità più significative di questi modelli di IA. Data la rapida e incerta velocità di cambiamento dell'IA, e nel contesto dell'accelerazione degli investimenti nella tecnologia, affermiamo che approfondire la nostra comprensione di questi potenziali rischi e delle azioni per affrontarli è particolarmente urgente.

Molti rischi derivanti dall'IA sono intrinsecamente internazionali e come tali sono meglio affrontati attraverso la cooperazione internazionale. Ci impegniamo a lavorare insieme in modo inclusivo per garantire un'IA centrata sull'uomo, affidabile e responsabile che sia sicura e sostenga il bene di tutti attraverso i fori internazionali esistenti e altre iniziative rilevanti, per promuovere la cooperazione per affrontare l'ampia gamma di rischi posti dall'IA. Facendo ciò, riconosciamo che i paesi dovrebbero considerare l'importanza di un approccio di governance e regolamentazione pro-innovazione e proporzionato che massimizzi i benefici e tenga conto dei rischi associati all'IA. Questo potrebbe includere, ove appropriato, classificazioni e categorie di rischio basate sulle circostanze nazionali e sui quadri giuridici applicabili. Notiamo anche la rilevanza della cooperazione, ove appropriato, su approcci quali principi comuni e codici di condotta. Per quanto riguarda i rischi specifici più probabili in relazione all'IA di frontiera, ci impegniamo ad intensificare e sostenere la nostra cooperazione, e ad ampliarla con ulteriori paesi, per identificare, comprendere e, se del caso, agire, attraverso i fori internazionali esistenti e altre iniziative rilevanti, incluse future cime internazionali sulla sicurezza dell'IA.

Tutti gli attori hanno un ruolo da giocare nel garantire la sicurezza dell'IA: nazioni, fori internazionali e altre iniziative, aziende, società civile e accademia dovranno lavorare insieme. Notando l'importanza dell'IA inclusiva e del superamento del divario digitale, riaffermiamo che la collaborazione internazionale dovrebbe impegnarsi a coinvolgere e coinvolgere una vasta gamma di partner, come appropriato, e accogliamo con favore approcci e politiche orientati allo sviluppo che potrebbero aiutare i paesi in via di sviluppo a rafforzare la costruzione di capacità di IA e sfruttare il ruolo abilitante dell'IA per sostenere una crescita sostenibile e affrontare il divario di sviluppo.

Affermiamo che, mentre la sicurezza deve essere considerata in tutto il ciclo di vita dell'IA, gli attori che sviluppano capacità di IA di frontiera, in particolare quei sistemi di IA che sono insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA, inclusi attraverso sistemi per i test di sicurezza, valutazioni e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che possono emergere, in particolare per prevenire usi impropri e problemi di controllo e l'amplificazione di altri rischi.

Nel contesto della nostra cooperazione e per informare l'azione ai livelli nazionale e internazionale, il nostro programma per affrontare il rischio dell'intelligenza artificiale di frontiera si concentrerà su:

  • identificare i rischi per la sicurezza dell'IA di preoccupazione comune, costruire una comprensione scientifica e basata su prove condivise di tali rischi e mantenere tale comprensione man mano che le capacità continuano ad aumentare, nel contesto di un approccio globale più ampio per comprendere l'impatto dell'IA nelle nostre società;
  • costruire rispettive politiche basate sul rischio nei nostri paesi per garantire la sicurezza alla luce di tali rischi, collaborando in modo appropriato pur riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e agli ordinamenti giuridici applicabili. Questo include, insieme ad una maggiore trasparenza da parte degli attori privati che sviluppano capacità di IA di frontiera, metriche di valutazione appropriate, strumenti per i test di sicurezza e lo sviluppo di capacità del settore pubblico e di ricerca scientifica pertinenti.

Nell'avanzamento di questo programma, ci impegniamo a sostenere una rete scientifica internazionalmente inclusiva di ricerca sulla sicurezza dell'IA di frontiera che comprenda e integri la collaborazione multilaterale, plurilaterale e bilaterale esistente e nuova, anche attraverso i fori internazionali esistenti e altre iniziative pertinenti, per facilitare la fornitura della migliore scienza disponibile per l'elaborazione delle politiche e il bene pubblico.

In riconoscimento del potenziale positivo trasformativo dell'IA e come parte del garantire una più ampia cooperazione internazionale sull'IA, ci impegniamo a mantenere un dialogo globale inclusivo che coinvolga i fori internazionali esistenti e altre iniziative pertinenti e che contribuisca in modo aperto a discussioni internazionali più ampie, e a continuare la ricerca sulla sicurezza dell'IA di frontiera per garantire che i benefici della tecnologia possano essere sfruttati in modo responsabile per il bene e per tutti. Attendiamo con interesse di incontrarci nuovamente nel 2024.

Le dichiarazioni e dei virgolettati dei capi di stato e delle personalità importanti

Rishi Sunak, Primo Ministro Britannico:
"Questa dichiarazione, l'azione sul testing e la promessa di stabilire un panel internazionale sui rischi 'inclineranno la bilancia a favore dell'umanità'."
"Gli Stati Uniti, l'UE e altri paesi 'similmente orientati' hanno raggiunto un 'accordo storico' con alcune aziende che lavorano alla frontiera dell'IA sul principio che i modelli dovrebbero essere valutati rigorosamente prima e dopo il loro impiego."
"Fino ad ora gli unici che testavano la sicurezza dei nuovi modelli di IA erano le stesse aziende che li sviluppavano. Non dovremmo affidarci a loro per valutare il proprio lavoro, come molti di loro concordano."
"Non è stata una decisione facile invitare la Cina, e molte persone mi hanno criticato per questo, ma penso che fosse la decisione giusta a lungo termine."

Ursula von der Leyen, Presidente della Commissione Europea:
"Algoritmi complessi non potranno mai essere testati esaustivamente, quindi 'soprattutto, dobbiamo assicurarci che gli sviluppatori agiscano prontamente quando si verificano problemi, sia prima che dopo che i loro modelli sono messi sul mercato'."

Elon Musk, imprenditore:
Durante il summit ha suggerito che "le aziende che utilizzano la tecnologia sono meglio posizionate per scoprire problemi, e potrebbero condividere le loro scoperte con i legislatori responsabili della scrittura delle nuove leggi."
"Viviamo nei tempi più interessanti," ha detto. "E penso che questo sia al 80% probabile che sia buono, e al 20% cattivo, e penso che se siamo coscienti e attenti alla parte cattiva, in definitiva sarà il futuro che vogliamo."
Ha detto al primo ministro britannico Rishi Sunak che "verrà un tempo in cui nessun lavoro sarà necessario" descrivendo l'intelligenza artificiale come "la forza più disruptiva nella storia".

Vice Presidente Kamala Harris:
"Siamo chiari ci sono altre minacce che richiedono anche la nostra azione," ha detto. "Minacce che stanno attualmente causando danno e che per molte persone sembrano anche esistenziali."

King Charles III:
Ha paragonato i progressi dell'IA al "dominio del fuoco" da parte dell'uomo in una dichiarazione video ai delegati. Ha paragonato la necessità di cooperazione globale sull'IA alla lotta contro il cambiamento climatico: "Dobbiamo affrontare i rischi presentati dall'IA con un senso di urgenza, unità e forza collettiva."

Michael Kratsios, Direttore Generale di Scale AI e ex Chief Technology Officer degli Stati Uniti:
Ha espresso delusione per l'inclusione del governo cinese nel summit: "Credere che siano un giocatore credibile e che faranno realmente ciò che dicono è un enorme errore."

Allegati

AI - Intelligenza Artificiale

Con questo Topic raccogliamo per i nostri lettori tutti gli articoli, news, approfondimenti riguardanti l'evoluzione tecnica, le norme e regole, i casi applicativi sul tema dell'intelligenza artificiale

Scopri di più

Digital Twin

Un " digital twin" (gemello digitale) è una rappresentazione virtuale e dinamica di un oggetto, processo o sistema del mondo reale. Questa...

Scopri di più

Digitalizzazione

News e approfondimenti che riguardano, in generale, l'adozione di processi e tecnologie digitali per la progettazione, la costruzione e la gestione dell'ambiente costruito.

Scopri di più

Leggi anche