Indica un intervallo di date:
  • Dal Al
finanza

Helen Toner, il superallineamento e quello che sappiamo sul licenziamento lampo di Sam Altman

“Nessuno capisce veramente l’intelligenza artificiale, nemmeno gli esperti”. Lei è Helen Toner, ricercatrice di politiche sull’intelligenza artificiale ed ex membro del consiglio di amministrazione di OpenAI. Ed è bene ascoltare attentamente le sue parole. Perché lei l’Ai Gen la conosce piuttosto bene.

Qui sopra potete ascoltare il suo intervento che ha tenuto l’11 maggio da Ted. Va ascoltato con cura perché  tre mesi prima Helen Toner insieme a Tasha McCauley anche lei allontanata dal Cda di OpenAi scrisse su X quello che è forse il primo atto di accusa contro Sam Altman e un pezzo della spiegazione di quello che successe tra il 17 e il 22 novembre quando in meno di cinque giorni il fondatore di OpenAi fu prima licenziato e poi reintegrato. Il licenziamento lampo del papà di ChatGpt è già passato nella storia della Silicon Valley come il più imprevedibile corto circuito dell’era dell’Ai generativa.

I fatti sono i seguenti. Il 17 novembre senza nessuna avvisaglia di rilievo Sam Altman viene  licenziato dal consiglio di amministrazione di OpenAI. In un comunicato il Cda indica una presunta mancanza di fiducia nella sua capacità di guidare efficacemente l’azienda e dalla sua mancanza di sincerità nelle comunicazioni con il consiglio​​. Blackout. Sam Altman ringrazia tutti, saluta e se ne va.

 

Passano quarantottore e viene assunto direttamente da Satya Nadella capo di Microsoft che lo mette a guida di una nuova divisione di ricerca dell’Ai. Il Cda intanto sceglie il nuovo Ad di OpenAi. Arrivano una raccolta di firme di 700 dipendenti di OpenAi che chiedono il suo ritorno. Ma il 22 novembre ci ripensano e Sam Altman torna in sella.

 

Cosa sia accaduto di preciso non lo sappiamo. Le comunicazioni ufficiale sono vaghe e criptiche. Sappiamo però che si forma un nuovo Cda e se ne vanno due persone. Ilya Sutskever, co-fondatore di OpenAI e Chief scientist di OpenAi ed  Helen Toner. «Finalmente posso andare a dormire», ha detto, commentando l’annuncio del nuovo board.

Passano giorni, anzi settimane. I media americani ricostruiscono la vicenda. Parlano di una fantomatica nuova super intelligenza artificiale che Altman avrebbe nascosto al Cda. Di problemi con di sovraccarico dei server. Di antipatie. Nulla di concreto. Anche a leggere le dichiarazioni che precedono il 22 novembre non si cava un ragno da un buco.

Toner intanto diventa ricercatrice del think tank Center for security and emerging technology e comincia a raccontare la sua versione dei fatti. Sam Altman viene descritto come un personaggio ambiguo, ambizioso, e ossessionato dall’obiettivo di raggiungere per primo l’Agi (General Artificial Intelligence) una forma di intelligenza artificiale così avanzata da essere in grado di emulare e superare la capacità intellettiva dell’uomo. A lui viene imputata dalla Toner la responsabilità di avere spinto per rilasciare pubblicamente ChatGpt fornendo comunicazioni inesatte sui processi di sicurezza interni  al Cda  ma sopratutto la ancora più grave mancata comunicazione del fondo OpenAi Startup.

I fatti risalgono al 2019 quando Sam Altman fresco della nomina di A.d. incassa il primo miliardo da Microsoft e decide di dividere in due la società mettendosi a capo di OpenAi Lp, un’azienda capped-profit che a differenza della natura no-profit di OpenAI ha come missione quella di ottenere soldi  per far progredire la ricerca.  A novembre 2022 avvia la prima fase del fondo per le startup, al fine di sostenere aspiranti fondatori ed aziende impegnate nella creazione di prodotti innovativi IA. Il fondo ha previsto un investimento di 1 milione di dollari per ciascuna delle 12 startup selezionate. La missione di OpenAi Lp diventa quella finanziare la ricerca della OpenAI no profit. A gestire il fondo c’è lo stesso Sam Altman. In prima persona.

L’attività di Altman comincia a insospettire il Cda l’epilogo lo conosciamo. La Toner in alcune interviste sosterrà di essere stata presa personalmente di mira da Altman dopo aver pubblicato una ricerca in cui sostanzialmente lancia un allarme rivolto a politici a capi d’azienda sui pericoli di una corsa all’Agi senza freni. Il ceo di OpenAi evidentemente non gradisce sentendosi chiamato in causa. Ma è la versione della Toner.  Dopo le dimissioni rincarerà la dose dipingendolo come una persona che si è costantemente mossa nell’0mbra nei confronti del Cda.  Persino il lancio di ChatGpt nel 2022 sarebbe stato tenuto nascosto che lo avrebbe appreso da un tweet di Twitter.

 

L’unica conferma indiretta arriva proprio dallo stesso Sam Altman. E sempre via Twitter che nel frattempo è diventato X. Samo a maggio di quest’anno, due mesi fa, quando OpenAi decide di chiudere  team di superallineamento, creato a fine dicembre 2023. Cosa vuole dire superallineamento? Mettere in sicurezza l’Ai. Il termine si riferisce al processo di assicurare che le decisioni e le azioni di un sistema di intelligenza artificiale siano in accordo con le intenzioni umane. La notizia della chiusura precede un altro abbandono eccellente.

Jan Leike che pochi dopo l’annuncio delle dimissioni si unirà alla rivale Antrophic era a capo del comitato di sicurezza. «OpenAI deve diventare una società AGI attenta alla sicurezza», ha scritto prima di uscire con lo scatolone. Poi giorni dopo Sam Altman annuncia la creazione del Safety and Security Committee, un nuovo comitato per la sicurezza, che vigilerà sull’addestramento del nuovo modello di AI.
Il nuovo board – ha spiegato la stessa startup in una nota –  avrà il compito di formulare raccomandazioni al Cda in materia di sicurezza e protezione per i progetti e le operazioni della società.
Tra questi, il primo sarà quello di valutare e sviluppare ulteriormente le pratiche di sicurezza esistenti nei prossimi 90 giorni, condividendo le raccomandazioni con il consiglio di amministrazione. Chi c’è a capo del comitato? Lui stesso, Sam Altman in persona.

 

Chiudiamo questa serie di Ai Stories che iniziano oggi con una domanda. E’ la stessa che  continua a porsi la Helen Torner. Le aziende private che spingono in avanti la frontiera di una nuova tecnologia rivoluzionaria sono in grado di operare nell’interesse sia dei loro azionisti che del mondo? Se lo è chiesto sull’Economist a maggio e ce lo chiediamo ancora adesso tutti noi.
Per approfondire. 

Qui sotto l’immagine generata da Dall-E3 dopo avere letto l’articolo