AI - Intelligenza Artificiale | Cambiamenti climatici | Digitalizzazione
Data Pubblicazione:

Intelligenza artificiale: la sfida all’apocalisse raccoglie fondi milionari negli USA

L'intelligenza artificiale avanzata e l'urgenza di prevenire l'apocalisse: una sfida affrontata dagli studenti delle università di élite. In un articolo sul The Washington Post un approfondimento su una nuova frontiera nell’ambito degli investimenti in ricerca nelle più importanti università americane. Ecco il racconto.

Nell'era dell'intelligenza artificiale (IA), le preoccupazioni riguardo al futuro dell'umanità e il potenziale apocalittico dell'IA superintelligente stanno prendendo sempre più piede nelle università di élite come Stanford.

Un movimento sostenuto da alcuni miliardari americani, e non solo, sta reclutando studenti universitari per affrontare questa minaccia, considerandola il prossimo Progetto Manhattan.

Secondo l'articolo di Nitasha Tiku sul The Washington Post, questo movimento è stato promosso da importanti laboratori come DeepMind, OpenAI e Anthropic, che si sono impegnati a costruire un tipo di IA "buona" che non sia dannosa per l'umanità.

Inoltre, influenti donatori come Elon Musk, CEO di Tesla, Sam Bankman-Fried, fondatore di FTX, Jaan Tallinn, fondatore di Skype, e Vitalik Buterin, co-fondatore di Ethereum, insieme a istituzioni come Open Philanthropy, si sono adoperati per portare queste preoccupazioni dall'ambito marginale dell'industria tecnologica alla ribalta pubblica.

Su Ingenio ne abbiamo parlato anche nell’articolo: ”Intelligenza artificiale "superintelligente": si studiano AI che controllano le AI”.

Le università di élite, tra cui Stanford, hanno svolto un ruolo cruciale in questo movimento, fungendo da terreno fertile per reclutare talenti idealisti e formarli nella sicurezza dell'IA. Open Philanthropy ha investito ingenti somme per creare un percorso di formazione che coinvolge think tank, canali YouTube, competizioni di premi, finanziamenti per la ricerca e borse di studio.

Questi studenti d'elite vengono formati nel machine learning e aiutati a trovare lavoro in start-up dell'IA o in organizzazioni no-profit dedicate alla sicurezza dell'IA.

Tuttavia, l'articolo del Washington Post solleva alcune critiche nei confronti di questo movimento.

Alcuni ritengono che sia un approccio poco scientifico e che si concentri eccessivamente su un unico tipo di catastrofe potenziale, trascurando altre minacce più immediate, come gli algoritmi razzisti o i modelli di IA che sfruttano il lavoro degli artisti senza compenso. Inoltre, alcuni scettici, come il venture capitalist Marc Andreessen, ritengono che l'eccessiva enfasi su questi timori possa ostacolare il progresso tecnologico dell'IA.

Nonostante le critiche, il movimento per la sicurezza dell'IA ha guadagnato sempre più consenso e attenzione nelle università di élite. Gli studenti che si uniscono a questo movimento vengono formati in gruppi di studio, partecipano a discussioni e hanno accesso a una vasta gamma di risorse finanziarie e strumenti di lavoro condivisi.

L'articolo di Nitasha Tiku offre uno sguardo approfondito su come la sicurezza dell'IA si stia trasformando in una priorità emergente nei circoli accademici e tecnologici. L'entusiasmo e l'impegno degli studenti universitari d'elite mostrano l'urgenza di affrontare il potenziale apocalittico dell'IA superintelligente. Nonostante le controversie e le critiche, la sicurezza dell'IA si sta affermando come una disciplina che richiede attenzione e soluzioni tecniche per garantire che l'IA sia allineata con i valori umani.

AI buona e AI cattiva

Se quindi il primo dibattito che ha coinvolto il mondo accademico ha riguardato l’uso improprio dell’intelligenza artificiale, durante il quale chi per timore di una perdita di originalità dei contenuti voleva arrivare al divieto di uso - a mio parere impossibile da realizzare - e chi ne era entusiasta propositore, ora il tema prevalente su cui si discute è quello del controllo della “bontà” dell’intelligenza artificiale.

L’idea è quella di creare delle superintelligenze in grado di monitorare il funzionamento delle tante intelligenze artificiali operanti a livello internazionale e capire se hanno un comportamento buono o cattivo. Quindi superare il problema che sistemi di AI possano guidare la conoscenza su posizioni oltranziste, ma anche che queste nel governo dei processi operino nel rispetto dei valori umani.

Superintelligenze che quindi, considerando che l’intelligenza umana non sarà in grado di poter valutare il comportamento dei sistemi di intelligenza artificiale, possa e svolge loro quel ruolo di grande fratello, ma sul mondo delle macchine.

Le domande che possiamo porci di fronte a questa evoluzione sono molte, tra cui il perchè siano i miliardari del mondo tecnologico a voler fortemente investire su questa ricerca: vogliono aumentare la loro capacità del controllo sociale e commerciale del pianeta ?

AI - Intelligenza Artificiale

Con questo Topic raccogliamo per i nostri lettori tutti gli articoli, news, approfondimenti riguardanti l'evoluzione tecnica, le norme e regole, i casi applicativi sul tema dell'intelligenza artificiale

Scopri di più

Cambiamenti climatici

Con questo topic "Cambiamenti climatici" vogliamo raccogliere gli articoli pubblicati da Ingenio su questo problema ingente e che deve essere ineludibilmente affrontato a livello globale.

Scopri di più

Digitalizzazione

News e approfondimenti che riguardano, in generale, l'adozione di processi e tecnologie digitali per la progettazione, la costruzione e la gestione dell'ambiente costruito.

Scopri di più

Leggi anche