AI - Intelligenza Artificiale | Digitalizzazione
Data Pubblicazione:

Sette aziende di Intelligenza Artificiale accettano misure di sicurezza dopo pressioni di Biden

Le principali aziende di Intelligenza Artificiale negli Stati Uniti, tra cui Amazon, Google, Meta (la società madre di Facebook), Microsoft, OpenAI e le startup Anthropic e Inflection, hanno accettato di adottare una serie di misure di sicurezza per la tecnologia dell'Intelligenza Artificiale. Ecco i dettagli.

Questo annuncio è stato fatto direttamente dalla Casa Bianca dal Presidente Biden e si propone di garantire che i prodotti di Intelligenza Artificiale siano sicuri prima della loro messa in commercio.

Le misure di sicurezza concordate dalle aziende includono:

  1. Test di sicurezza dei prodotti di AI, con la partecipazione di esperti indipendenti, per proteggersi da rischi importanti come la bio-sicurezza e la cyber-sicurezza.
  2. Utilizzo di filigrane digitali per distinguere tra immagini reali e immagini generate dall'AI, soprattutto per quanto riguarda i deepfake.
  3. Segnalazione pubblica dei difetti e dei rischi nella loro tecnologia, inclusi problemi legati alla correttezza e ai pregiudizi. 
  4. Ricerca e affrontare i rischi di pregiudizi, discriminazioni e violazioni della privacy derivanti dalla diffusione di strumenti di AI.
  5. Utilizzo di avanzati strumenti di AI per affrontare importanti sfide della società, come la cura del cancro e la lotta ai cambiamenti climatici.

Le misure volontarie sono considerate come una risposta immediata per affrontare i potenziali rischi associati all'AI, mentre si sta cercando di promuovere un impegno a lungo termine per approvare leggi che regolino la tecnologia.

Brad Smith, il presidente di Microsoft e uno degli esecutivi presenti all'incontro alla Casa Bianca, ha dichiarato che la sua azienda appoggia le misure di sicurezza volontarie.
"Agendo rapidamente, gli impegni della Casa Bianca creano una base per garantire che la promessa dell'Intelligenza Artificiale rimanga al passo con i suoi rischi", ha detto il signor Smith.

Anna Makanju, vicepresidente degli affari globali presso OpenAI, ha descritto l'annuncio come "parte della nostra collaborazione continua con governi, organizzazioni della società civile e altri in tutto il mondo per promuovere la governance dell'Intelligenza Artificiale."

Alcuni sostenitori della regolamentazione dell'IA hanno espresso approvazione per questo passo, ma hanno anche sottolineato la necessità di misure più forti per responsabilizzare le aziende dei loro prodotti.

L'introduzione di regolamenti e legislazioni sull'IA è un argomento di interesse globale, con vari paesi e organizzazioni internazionali che esplorano modi per gestire lo sviluppo della tecnologia. Ad esempio, l'Unione Europea sta negoziando regole sull'IA per il blocco dei 27 paesi.

Di questo ho parlato in numerosi articoli evidenziando come fosse necessario arrivare a una regolamentazione etica dei chatBOT, e più in generale di tutti i sistemi di intelligenza artificiale, e non procedere per strade personalistiche e su territori troppo limitati. Negli articoli ho anche raccontato di come si stia lavorando a sistemi di super intelligenza artificiale che abbiano l’obiettivo del superallineamento, come viene detto in gergo, ovvero la verifica che una AI sia allineata con le regole umane.

L'amministrazione Biden e i legislatori statunitensi stanno dimostrando un senso di urgenza nel rispondere alla rapida evoluzione della tecnologia dell'IA, anche se la regolamentazione di piattaforme come i social media e altre tecnologie è stata spesso difficile.

"Siamo lieti di assumere questi impegni volontari insieme ad altri del settore," ha dichiarato Nick Clegg, presidente degli affari globali presso Meta, la società madre di Facebook, in una dichiarazione. "Essi rappresentano un importante primo passo per garantire che siano stabiliti parametri responsabili per l'Intelligenza Artificiale e creano un modello da seguire per altri governi."

Il presidente Biden ha promesso di adottare azioni esecutive per aiutare gli Stati Uniti a guidare l'innovazione responsabile e lavorerà con entrambi i partiti per sviluppare legislazioni e regolamenti appropriati.

Le regole limitano lo sviluppo dell’intelligenza artificiale?

Alcune aziende del settore, tra cui Microsoft e altre società di software aziendali, si sono mostrate favorevoli agli sforzi dell'amministrazione Biden per definire regole per i sistemi di AI ad alto rischio.

Tuttavia, alcune preoccupazioni riguardano l'impatto che la regolamentazione potrebbe avere sulle startup e le piccole aziende del settore, che potrebbero essere escluse a causa dei costi elevati richiesti per conformarsi alle restrizioni.

Inoltre, l'attuazione delle misure volontarie è stata giudicata come il minimo comune denominatore, con la possibilità di interpretazioni diverse da parte di ogni azienda. Mentre alcune aziende potrebbero rispettare scrupolosamente le norme, nessuna di esse è immune da possibili rischi e vulnerabilità.

La recente violazione di sicurezza subita da Microsoft, ad esempio, solleva interrogativi sulla capacità delle aziende di proteggere i propri sistemi da attacchi esterni.

Le misure volontarie, quindi, non sembrano rallentare gli sforzi per approvare leggi e imporre regolamenti sulla tecnologia emergente dell'AI. Esperti e osservatori ritengono che la necessità di proteggere la società dai potenziali danni causati dall'Intelligenza Artificiale richieda un'azione legislativa tempestiva e impegnata, compresa la trasparenza, la protezione della privacy e una ricerca intensificata sui rischi che l'AI generativa può comportare.

Un'agenzia federale per supervisionare il settore e requisiti di privacy dei dati

Molti membri del Congresso stanno discutendo proposte di legge che includono la concessione di licenze per le aziende di AI per rilasciare le loro tecnologie, la creazione di un'agenzia federale per supervisionare il settore e requisiti di privacy dei dati. Tuttavia, i legislatori statunitensi sono ancora lontani dall'accordo sulle regole e stanno cercando di informarsi sulla tecnologia per comprenderne appieno le implicazioni.

Il contesto globale mostra come la regolamentazione dell'AI sia una questione cruciale per il futuro delle tecnologie emergenti. Oltre a cercare un accordo interno negli Stati Uniti, ci sono anche chiamate per l'adozione di standard globali sull'AI.

Il Segretario Generale delle Nazioni Unite, Antonio Guterres, ha persino proposto la creazione di un organismo simile all'Agenzia Internazionale dell'Energia Atomica o al Panel Intergovernativo sui Cambiamenti Climatici per sostenere gli sforzi globali di governance dell'AI.

In conclusione, l'impegno delle sette aziende di AI negli Stati Uniti è un passo iniziale importante verso la sicurezza e la responsabilità nel campo dell'AI. Tuttavia, il percorso verso una regolamentazione efficace e impegnativa è ancora lungo, poiché i legislatori e gli attori del settore cercano di equilibrare l'innovazione tecnologica con la protezione della società dai rischi potenziali.

E la Cina ? e l’India ? e la Russia ?

La domanda che nasce dopo aver dato e letto questa notizia è ovviamente: e gli altri? USA ed Europa stanno studiando come regolamentare l’intelligenza artificiale ma in mondo interconnesso come quello in cui viviamo non possiamo non chiederci che cosa faranno Cina, India, Russia, Giappone, Corea, Indonesia …

Le regole e i conseguenti costi e limiti che verranno posti in queste due aree occidentali sfavoriranno lo sviluppo di nuovi sistemi di intelligenza artificiale a vantaggio di territori dove questi limiti non ci sono?

E gli strumenti messi a disposizione a partire da questi Paesi che fine faranno? verranno filtrati, limitati, bloccati?

Insomma ancora una volta, come per la sostenibilità c’è chi pensa a come regolare il futuro del mondo e chi a fare business. Prima o poi questa situazione dovrà essere affrontata.

Microsoft, una delle aziende presenti all'evento alla Casa Bianca con il signor Biden, la scorsa settimana è stata costretta a reagire con urgenza a un attacco informatico organizzato dal governo cinese sulle email private di funzionari americani che si occupavano di questioni relative alla Cina. Ora sembra che la Cina abbia rubato, o ottenuto in qualche modo, una "chiave privata" detenuta da Microsoft, che è fondamentale per autenticare le email - uno dei codici più strettamente custoditi dall'azienda.


E ChatGPT cosa ne pensa del fatto che si vogliano scrivere delle norme che regolino la sua attività?

Ho fatto una domanda diretta a ChatGPT: “ChatGPT, cosa ne pensi di regolamentare i tuoi algoritmi e la tua attività in modo che non ci siano rischi sulla violazione dei diritti di autore o dei diritti dell’uomo, e sia limitata la possibilità che tu possa scrivere delle fakenews ?”

E mi ha risposto:

“Come intelligenza artificiale sviluppata da OpenAI, non ho opinioni o sentimenti propri. Tuttavia, posso fornire informazioni su come vengono gestite queste questioni dal team che mi ha creato.

OpenAI si impegna a garantire che io, come modello di linguaggio, rispetti i diritti di autore e i diritti dell'uomo
. Gli algoritmi e i modelli di AI come me sono soggetti a regole e politiche rigorose per garantire che il contenuto generato sia etico, accurato e sicuro.

Per quanto riguarda la violazione dei diritti di autore, OpenAI implementa misure tecniche e politiche per evitare che io riproduca contenuti protetti da copyright senza autorizzazione. Inoltre, il mio utilizzo è soggetto a specifici Termini di Servizio che vietano l'uso improprio o illegale.

Quanto alle fake news, OpenAI è consapevole del rischio e adotta un approccio responsabile nell'addestramento e nella gestione dei modelli di linguaggio come me. I ricercatori e gli sviluppatori lavorano per migliorare la mia capacità di produrre contenuti accurati e verificabili, evitando la propagazione di informazioni errate o ingannevoli. Sono anche attivi nella promozione della trasparenza e della responsabilità nel campo dell'AI.

Tuttavia, è importante sottolineare che nessun sistema di AI è perfetto, e ciò include anche me. Anche se gli sforzi vengono fatti per ridurre al minimo il rischio di fake news e violazioni dei diritti, l'utente dovrebbe sempre essere critico nei confronti delle informazioni ottenute tramite un modello di linguaggio e verificare la veridicità delle fonti quando necessario. L'AI può essere uno strumento potente, ma la responsabilità nell'utilizzo rimane sempre nelle mani degli utenti.”

AI - Intelligenza Artificiale

Con questo Topic raccogliamo per i nostri lettori tutti gli articoli, news, approfondimenti riguardanti l'evoluzione tecnica, le norme e regole, i casi applicativi sul tema dell'intelligenza artificiale

Scopri di più

Digitalizzazione

News e approfondimenti che riguardano, in generale, l'adozione di processi e tecnologie digitali per la progettazione, la costruzione e la gestione dell'ambiente costruito.

Scopri di più

Leggi anche