Intelligenza artificiale

Il principale team di sicurezza di OpenAI non esiste più

Di recente i ricercatori dell'azienda che si occupavano dei pericoli a lungo termine dell'AI si sono dimessi o sono stati assorbiti da altri reparti, in alcuni casi a causa di divergenze sulle priorità della dirigenza
Sam Altman e Ilya Sutskever ad ed ex scienziato capo di OpenAI
Sam Altman e Ilya Sutskever, rispettivamente amministratore delegato ed ex scienziato capo di OpenAIJACK GUEZ/AFP via Getty Images

Nel luglio dello scorso anno, OpenAI ha annunciato la formazione di un nuovo team di ricerca che avrebbe avuto il compito di prepararsi all'avvento di una super intelligenza artificiale in grado di oltrepassare le capacità dei suoi creatori. Ilya Sutskever, scienziato capo e uno dei cofondatori dell'azienda, era stato nominato co-leader della nuova divisione, a cui OpenAI aveva destinato il 20% della sua potenza di calcolo.

Ora l'azienda ha fatto sapere che il suo team di superallineamento, come era stato ribattezzato il gruppo, non esiste più. La conferma è arrivata venerdì, a seguito dell'addio di diversi ricercatori, della notizia che anche Sutskever avrebbe lasciato OpenAI e delle dimissioni dell'altro responsabile del gruppo. Il lavoro del team sarà assorbito dalle altre attività di ricerca di OpenAI.

Gli addii in serie a OpenAI

La separazione tra Sutskever e OpenAI è stata molto commentata. Dopo aver aiutato l'amministratore delegato Sam Altman a fondare la startup nel 2015 e definire la direzione della ricerca che ha portato a ChatGPT, a novembre Sutskever era stato uno dei quattro membri del consiglio di amministrazione della società a licenziare Altman. L'ad sarebbe poi tornato in sella dopo cinque giorni caotici, che hanno visto la rivolta di massa del personale di OpenAI e la mediazione di un accordo che ha portato Sutskever e altri due membri del cda a lasciare l'incarico.

A qualche ora dall'annuncio dell'addio di Sutskever, Jan Leike, ex ricercatore di Google DeepMind e secondo responsabile del team di superallineamento di OpenAI, ha fatto sapere su X che si era a sua volta dimesso.

Né Sutskever né Leike hanno risposto alle richieste di commento di Wired US. Il primo non ha spiegato i motivi alla base della sua decisione, ma ha espresso il proprio sostegno per il percorso intrapreso da OpenAI in un post su X. "La traiettoria dell'azienda è stata a dir poco miracolosa e sono fiducioso del fatto che OpenAI costruirà un'intelligenza artificiale generale sicura e vantaggiosa" sotto la sua attuale leadership, ha scritto l'ex capo scienziato.

Leike invece ha pubblicato venerdì un thread su X in cui spiega che la sua decisione è dettata da divergenze sulle priorità dell'azienda e sulla quantità di risorse assegnate al suo team. "Sono in disaccordo con la dirigenza di OpenAI sulle priorità fondamentali dell'azienda da un po' di tempo, e alla fine abbiamo raggiunto un punto di rottura – ha scritto Leike –. Negli ultimi mesi il mio team ha navigato controvento. A volte abbiamo avuto problemi di calcolo e portare a termine questa ricerca cruciale è diventato sempre più difficile".

Lo scioglimento del team di superallineamento di OpenAI si aggiunge ai recenti segnali che indicano uno scossone all'interno dell'azienda, sulla scia della crisi di governance dello scorso novembre. Il mese scorso due ricercatori del team, Leopold Aschenbrenner e Pavel Izmailov, sono stati licenziati per aver divulgato segreti aziendali, come riporta The Information. Un altro membro, William Saunders, ha lasciato OpenAI a febbraio, stando a un post a suo nome su un forum.

Di recente sembrano aver lasciato OpenAI anche altri due ricercatori che si occupano di politiche e governance dell'AI. Da aprile Cullen O'Keefe non ricopre più il suo ruolo di responsabile della ricerca del team policy frontiers, secondo il suo profilo LinkedIn. Daniel Kokotajlo, un ricercatore di OpenAI che è stato coautore di diversi articoli sui pericoli di modelli di AI sempre più potenti, "ha lasciato OpenAI per aver perso la fiducia nel fatto che l'azienda si sarebbe comportata in modo responsabile al momento dell'introduzione dell'AGI", si legge in un post a suo nome su un forum. Nessuno dei ricercatori ha risposto alle richieste di commento.

Nemmeno OpenAI non ha voluto commentare le partenze di Sutskever o di altri membri del team di superallineamento, né tantomeno il futuro del suo lavoro sui pericoli a lungo termine dell'intelligenza artificiale. La ricerca sui rischi associati ai modelli più potenti dell'azienda ora sarà gestita da John Schulman, che finora ha guidato la messa a punto dei sistemi di AI dopo l'addestramento.

All'interno dell'azienda, il team di superallineamento non era l'unico che aveva il compito di riflettere su come tenere sotto controllo l'AI, anche se pubblicamente è stato presentato come il principale reparto dedicato ai pericoli più a lungo termine legati alla tecnologia. "Al momento non abbiamo una soluzione per guidare o controllare un'AI potenzialmente superintelligente e impedirle di ribellarsi", si legge nel post sul blog aziendale in cui OpenAI annunciava il team l'estate scorsa .

Spauracchio AGI

Lo statuto dell'azienda vincola la società a sviluppare in modo sicuro la cosiddetta intelligenza artificiale generale (AGI), come viene definita un'ipotetica tecnologia AI in grado di rivaleggiare o superare le capacità degli esseri umani. Nonostante Sutskever e altri leader dell'azienda abbiano spesso sottolineato la necessità di procedere con cautela in questa direzione, di recente OpenAI ha iniziato a sviluppare e a rendere pubblici progetti sperimentali.

Un tempo OpenAI si distingueva dalla maggior parte dei laboratori di intelligenza artificiale per il fatto che i suoi responsabili della ricerca, come Sutskever, parlavano apertamente della creazione di AI sovrumane e della possibilità che la tecnologia si rivoltasse contro l'umanità. Questi discorsi sono diventati molto più comuni l'anno scorso, dopo che ChatGPT ha trasformato OpenAI nell'azienda tecnologica più importante e seguita del pianeta. Man mano che i ricercatori e i politici hanno iniziato a fare i conti con le implicazioni di ChatGPT e con la prospettiva di sistemi sempre più potenti, il timore che l'AI possa danneggiare gli esseri umani o l'umanità nel suo complesso è diventato più diffuso.

Anche se nel frattempo l'angoscia esistenziale si è raffreddata, la necessità di una regolamentazione dell'AI rimane un tema caldo. La scorsa settimana OpenAI ha presentato una nuova versione di ChatGPT che potrebbe ancora una volta cambiare il rapporto delle persone con la tecnologia in modo significativo e forse problematico.

Gli addii di Sutskever e Leike arrivano poco dopo l'ultima grande novità in casa OpenAI: un nuovo modello di intelligenza artificiale “multimodale” chiamato GPT-4o, che consente a ChatGPT di vedere il mondo e conversare in modo più naturale e simile agli esseri umani. In una dimostrazione trasmessa in livestreaming, la nuova versione del chatbot si è dimostrata capace di imitare le emozioni umane e addirittura di flirtare con gli utenti.

Non c'è alcuna indicazione che le recenti dimissioni abbiano a che fare con i tentativi dell'azienda di sviluppare un'intelligenza artificiale più simile a quella umana o lanciare nuove prodotti. Ma gli ultimi progressi raggiunti da OpenAI sollevano questioni etiche legate alla privacy, alla manipolazione emotiva e ai rischi di cybersicurezza. Al momento, la società di Altman può contare su un altro gruppo di ricerca che si occupa di questi problemi, il reparto Preparedness.

Questo articolo è apparso originariamente su Wired US.