Presentazione


Aggregatore d'analisi, opinioni, fatti e (non troppo di rado) musica.
Cerco

27/11/2023

Il 18 brumaio di OpenAI

“Sbattete fuori tutta questa gente!”. Osservando quanto accaduto al consiglio di amministrazione di OpenAI, mi è venuta in mente questa frase, attribuita a Murat nei confronti dell’aula del Consiglio dei Cinquecento, quando Napoleone con un colpo di Stato mise fine alla Repubblica e al Direttorio, facendo iniziare il Consolato.

Solo che invece del generale francese mi immagino quelle parole sulla bocca di qualche investitore, nel momento in cui ha realizzato come il board no profit che controlla la società for profit, valutata 80 miliardi di dollari, avesse improvvisamente fatto fuori il proprio Ceo, Sam Altman, senza una spiegazione apparente.

Per poi implodere in un delirio di cinque giorni che ha lasciato esterrefatti anche i commentatori tech più scafati (ho raccontato questa prima parte nella scorsa newsletter).

Licenze storiche a parte, scrivo così perché secondo il Wall Street Journal Satya Nadella, il Ceo di Microsoft, e Kevin Scott, il suo CTO, sarebbero stati fondamentali nel far reintegrare Altman a capo di OpenAI, e che tale soluzione sarebbe stata quella considerata ideale dal colosso di Redmond.

“Quando il consiglio di amministrazione si è ritorto contro Altman, Altman si è immediatamente rivolto a Nadella”, scrive il WSJ, spiegando come da subito i due abbiano discusso al telefono su come riportare l’ex Ceo in OpenAI o su come farlo entrare a Microsoft con un seguito di ricercatori.

“Ma il risultato ideale per Microsoft era che Altman tornasse in OpenAI come Ceo, secondo una persona a conoscenza delle idee di Nadella. Aprendo le porte di Microsoft al team di OpenAI, Nadella ha aumentato il potere contrattuale di Altman per riavere la sua posizione, mentre il consiglio di amministrazione della stessa OpenAI si trovava di fronte a un esodo”.

Microsoft ha investito prima 3 miliardi, e più recentemente altri 10, nella società che ha sviluppato ChatGPT, ma non aveva un posto nel consiglio di amministrazione della no profit che controlla la società profit (e il cui obiettivo non sarebbe, da statuto, il beneficio degli investitori, ma quello dell’umanità), “poiché temeva che un’influenza eccessiva avrebbe allarmato le autorità di regolamentazione sempre più aggressive”, scrive ancora il WSJ.

Il board: chi va via, chi arriva e chi resta

Non ce l’ha ancora adesso (almeno mentre scrivo), ma tanto per cominciare il board che aveva licenziato Altman è stato sostituito quasi interamente. È rimasto Adam D’Angelo, fondatore di Quora e di un progetto AI di nome Poe, uno di quelli che hanno votato contro Altman a dispetto del fatto che nel 2018 venne portato nel board dallo stesso.

D’Angelo rimane anche per dare rappresentanza al vecchio consiglio in quello nuovo, secondo fonti raccolte da The Verge. Ma il suo ruolo nella vicenda, ancora misteriosa, rimane il più enigmatico (e soprattutto le motivazioni, non potendo essere collocato in modo netto sul fronte dei rischio-esistenzialisti dell’AI, mentre il supposto conflitto di interesse per la sua azienda AI non convince del tutto).

Via invece le uniche due donne del board. Via Helen Toner, direttrice della strategia del Centro per la sicurezza e le tecnologie emergenti (CSET) della Georgetown University, che quando fu nominata nel consiglio era elogiata come una voce affidabile sulle implicazioni dell’AI per la sicurezza nazionale e come sostenitrice della trasparenza sui rischi.

Ma sappiamo che Toner era entrata in conflitto aperto (documentato da email) con Altman per un paper che aveva pubblicato con altri in ottobre, in cui criticava OpenAI per aver scatenato, col rilascio di ChatGPT, un senso di urgenza nelle aziende tech.

“Questo risultato sembra sorprendentemente simile alle dinamiche di corsa al ribasso che OpenAI e altri hanno dichiarato di voler evitare”, argomenta il paper. Mentre il concorrente Anthropic veniva lodato per aver deciso di ritardare l’uscita del suo prodotto.

Toner è anche un’altruista effettiva (così si è descritta) e ha lavorato in organizzazioni di quel movimento di utilitarismo estremo favorito dai miliardari della Silicon Valley, per usare una definizione succinta dell’effective altruism (in inglese lo trovate spesso nella sigla EA).

Movimento sfaccettato ma che flirta con una serie di altre correnti ideologiche che vanno dal longtermismo al rischio esistenzialismo (X-risk), ovvero chi sostiene che l’AI presto diverrà così potente e incontrollabile da mettere a rischio l’esistenza dell’umanità.

Un’altra altruista effettiva è anche la seconda donna cacciata dal board, la manager del settore tech Tasha McCauley, che secondo alcuni resoconti giornalistici avrebbe insistito con toni apocalittici sulla questione sicurezza.

E poi c’è Ilya Sustkever, lo scienziato capo, ex membro del board, ricercatore rispettato (ha iniziato sotto un altro pioniere del settore, Geoffrey Hinton, e con altri ha contribuito in modo importante al deep learning, come avevo scritto qua e qua) ma anche uno che all’AGI, all’arrivo di una superintelligenza complessivamente molto superiore a quella umana, ci crede fermamente – tanto che come un predicatore gospel fa cantare ai dipendenti di OpenAI: “Feel the AGI!” (ovvero senti l’AGI che arriva).

Insomma, questo Sustkever, che con un colpo di scena aveva votato per cacciare Altman e poi però si è pentito e ci ha ripensato (con tanto di cuori scambiati su Twitter fra i due), ecco lui è l’altro personaggio indecifrabile di questa vicenda. In teoria dovrebbe restare in OpenAI, ma ci sono al momento molti dubbi al riguardo.

Certo è quello che ne esce di più con le ossa rotte. Personalmente, da Altman, che tutto è meno che stupido, mi aspetterei che se lo tenga ben stretto a questo punto, sempre che Sutskever voglia davvero restare.

Ma la verità è che il board ha fatto esattamente il board di quella specifica, atipica no profit. E come tale era suo diritto decidere in modo indipendente dagli investitori. Il problema è che l’assenza totale di avvisaglie, spiegazioni e di comunicazioni esterne da parte dello stesso, insieme agli enormi interessi ormai in gioco e all’anomala struttura di partenza di OpenAI, hanno reso le sue azioni non solo difficili da valutare, ma di fatto un harakiri.

Ora nel consiglio attuale (che dovrà poi allargarsi ulteriormente, e lì sarà interessante vedere chi entra) oltre al sopravvissuto D’Angelo, siedono Bret Taylor, una specie di istituzione del settore tech, tra Google Maps, Facebook, Twitter, Salesforce. Stiamo parlando di uno che è riuscito a cacciare l’accordo per la vendita di Twitter in gola a un riluttante Elon Musk. E ho detto tutto sulla scorza del personaggio.

L’altra new entry è Larry Summers. Quel Summers, ex segretario al Tesoro americano sotto Clinton, addentro al mondo della politica di Washington e delle startup, quel presidente emerito di Harvard di fatto sfiduciato e poi dimissionario dopo aver dichiarato che la difficoltà delle donne a emergere in carriere scientifiche sarebbe dovuta a innate differenze di genere.

Il suo ingresso in OpenAI è stato salutato così da una organizzazione, Revolving Door Project, che scruta i legami e le giravolte fra governo, accademia e aziende: “Non c’è indicazione più grande del fatto che OpenAI non abbia a cuore gli interessi dell’umanità della nomina di Larry Summers al suo Consiglio di Amministrazione“.

Chi ha vinto e chi ha perso

Secondo il NYT, la questione è semplice: il team Capitalismo ha vinto. Il team Leviatano ha perso (inteso come quel ramo di AI safety che insiste su rischi esistenziali derivanti da una AI che a breve potrebbe diventare molto potente e incontrollabile, e che crede in questa possibilità imminente, come Sustkever).

Certo, aggiungo io, stiamo assistendo a una ritirata di quel gruppo che sull’intelligenza artificiale è ispirato e foraggiato dall’altruismo effettivo. Quanto meno abbiamo visto l’ennesima brusca frenata di questo movimento, dopo il colpo subito con l’arresto di Sam Bankman-Fried, il fondatore dell’exchange di criptovalute FTX, che era anche uno dei campioni e finanziatori dell’EA (effective altruism).

Movimento che sta cominciando ad assomigliare sempre di più a un gruppo di agenti del caos. Se prima era malvisto soprattutto da ricercatori di AI progressisti e pragmatici (come Timnit Gebru che qui lo critica aspramente), e invece appoggiato da chi voleva fare business perché la narrazione di avere le chiavi di una AI super potente permette di spostare la conversazione su rischi lontani, rendendo al tempo stesso chi la sostiene un interlocutore privilegiato dei governi, ora è come se alcuni tra i tecno-ottimisti e “i team capitalisti” si fossero accorti che può essere una zavorra o un problema.

E per ora è in questo contesto che leggerei anche l’ultima notizia data da Reuters secondo la quale una demo di un modello chiamato Q*, presumibilmente capace di risolvere semplici operazioni matematiche, avrebbe scatenato le speranze (e le paure) di stare a un passo dall’AGI.

Che questo elemento abbia giocato un ruolo nel rovesciamento del board per ora però è contestato da altri resoconti. In quanto all’aspetto tecnico e alla sua portata (con annessi sensazionalismi), rilevo solo lo scetticismo o quanto meno la forte cautela di molti ricercatori e accademici (da Yann Lecun a Pedro Domingo ad Antonio Casilli).

A questo punto bisogna chiedersi: la sconfitta parziale di rischio-esistenzialisti, altruisti effettivi e fautori dell’AGI lascerà più spazio a chi porta avanti istanze attuali e concrete di difesa dei diritti, di trasparenza e accountability nell’AI? O segna il trionfo del laissez-faire?

Fonte

Nessun commento:

Posta un commento