Il giorno in cui un ricercatore ha deciso di andarsene da OpenAI
Non è stato un addio rumoroso. Nessuna conferenza stampa, nessun post virale scritto con rabbia studiata. Solo una decisione maturata lentamente, nel silenzio di chi sente che qualcosa, dentro, si è rotto. Quando Tom Cunningham ha lasciato OpenAI, non ha solo cambiato lavoro. Ha messo un punto a una storia che parla di ricerca, potere e paura. Paura della verità.
Per anni OpenAI è stata raccontata come il luogo dove il futuro veniva studiato con responsabilità. Un laboratorio di idee, prima ancora che un’azienda. Un posto in cui fare domande scomode era considerato necessario. Poi qualcosa è cambiato. Non tutto in una volta. Non con un annuncio ufficiale. Ma con piccoli segnali, quasi impercettibili, che solo chi lavora dentro può davvero sentire.
Quando la ricerca smette di essere libera
Cunningham lavorava nel team di ricerca economica. Il suo compito era semplice e terribilmente complesso allo stesso tempo: studiare l’impatto dell’intelligenza artificiale sull’economia reale. Posti di lavoro, produttività, disuguaglianze. Temi che non fanno dormire tranquilli, soprattutto quando sei tu stesso a costruire la tecnologia che potrebbe accelerare quei cambiamenti.
Secondo quanto riportato da Wired, la frustrazione è cresciuta quando alcuni studi hanno iniziato a essere considerati problematici. Non perché fossero sbagliati. Ma perché raccontavano una realtà meno rassicurante. Un’AI che non crea solo valore, ma che può anche distruggerlo. Un’AI che non distribuisce benefici in modo equo. Un’AI che rischia di amplificare fratture già profonde.
È in quel momento che la ricerca, lentamente, smette di essere ricerca. Quando inizi a chiederti non più se un risultato è vero, ma se è opportuno. Quando una domanda viene evitata non perché irrilevante, ma perché scomoda. Cunningham, nel suo messaggio di addio condiviso internamente, avrebbe parlato di un team sempre più simile a un ufficio di comunicazione. Una frase pesante. Difficile da ignorare.
Il peso delle parole non dette
Dopo le dimissioni, una comunicazione interna firmata dal chief strategy officer Jason Kwon ha segnato un ulteriore passaggio simbolico. Il messaggio era chiaro: OpenAI non deve limitarsi a studiare i problemi, deve costruire soluzioni. Un concetto che, preso da solo, suona ragionevole. Ma che cambia completamente significato se diventa un modo per evitare certe domande.
Perché ci sono problemi che non hanno soluzioni immediate. E ci sono verità che fanno male proprio perché non possono essere aggiustate con una feature o un nuovo prodotto. Parlare dell’impatto negativo dell’AI sul lavoro non è un esercizio accademico sterile. È un atto di responsabilità. O almeno, lo era.
Secondo le fonti citate da Wired, non si tratta di un caso isolato. Altri ricercatori avrebbero lasciato OpenAI per motivi simili. Una fuga silenziosa, lontana dai riflettori. Gente che preferisce andarsene piuttosto che restare a guardare una trasformazione che non riconosce più.
Da laboratorio ideale a colosso globale
Per capire cosa sta succedendo bisogna tornare indietro. OpenAI nasce nel duemilasedici come organizzazione non profit. L’idea era ambiziosa e quasi ingenua: sviluppare intelligenza artificiale a beneficio di tutta l’umanità. Condivisione, apertura, ricerca pubblica. Parole che oggi suonano lontane.
Nel tempo, la struttura cambia. Arriva il modello a profitto limitato, poi la trasformazione in public benefit corporation. I modelli diventano chiusi. I dati più opachi. Gli accordi economici sempre più grandi. OpenAI diventa un attore centrale dell’economia globale, non più solo un osservatore.
Secondo diverse indiscrezioni, l’azienda starebbe preparando una quotazione in borsa con una valutazione che si aggira intorno a cifre mai viste per una società tecnologica così giovane. Investimenti miliardari, accordi industriali colossali, contratti che vincolano il futuro per decenni. In questo contesto, la ricerca indipendente diventa un rischio.
Quando il business entra nella stanza
È difficile parlare liberamente degli effetti economici dell’AI quando sei tu stesso al centro di quel mercato. Quando ogni frase può influenzare investitori, governi, partner strategici. Quando una pubblicazione può diventare un titolo scomodo. La tentazione di addolcire, di spostare il focus, di raccontare solo una parte della storia diventa forte.
Un esempio citato da Wired riguarda un report pubblicato nei mesi scorsi sull’uso globale di ChatGPT. Uno studio che mostrava come lo strumento aumentasse la produttività e creasse valore. Un racconto positivo, quasi rassicurante. Secondo un economista che ha collaborato con OpenAI e ha preferito restare anonimo, quel tipo di narrazione starebbe diventando la norma.
Non è che i dati siano falsi. È che non sono completi. E l’assenza, a volte, pesa più di una bugia.
Le altre voci che se ne sono andate
Tom Cunningham non è l’unico nome che emerge. Negli ultimi anni diversi ex dipendenti hanno lasciato OpenAI sollevando dubbi sulla direzione presa. William Saunders, membro del team Superalignment, ha parlato apertamente di una priorità data ai prodotti rispetto alla sicurezza. Steven Adler, ricercatore sulla safety, ha criticato l’approccio considerato troppo rischioso, raccontando anche casi di utenti entrati in crisi psicologica profonda.
Miles Brundage, ex responsabile della policy research, ha ammesso che pubblicare ricerche su temi davvero importanti era diventato sempre più difficile. Parole che, messe insieme, raccontano una tensione costante tra ciò che OpenAI dice di essere e ciò che sta diventando.
La paura di rompere l’incantesimo
C’è un aspetto raramente esplicitato in queste storie: la paura. L’AI è circondata da un alone di inevitabilità. Una promessa di progresso che non può essere messa in discussione senza sembrare retrogradi o ostili al futuro. Mettere in dubbio l’impatto economico positivo significa rischiare di rompere quell’incantesimo.
Eppure, la storia della tecnologia è piena di esempi simili. Ogni rivoluzione ha avuto vincitori e vinti. Ogni innovazione ha creato nuove opportunità e nuove esclusioni. Fingere che questa volta sia diverso non è ottimismo. È rimozione.
Quando un’azienda che guida questa trasformazione decide di limitare le domande, il problema non è solo interno. È culturale. Perché OpenAI non è una startup qualunque. È un punto di riferimento. Un modello. E ciò che sceglie di non dire diventa un silenzio che si diffonde.
Una questione che riguarda tutti
Questa non è una storia per addetti ai lavori. Riguarda chi lavora, chi studia, chi teme di essere sostituito. Riguarda chi usa ogni giorno strumenti di intelligenza artificiale senza sapere quali effetti sistemici stiano producendo. Riguarda il modo in cui scegliamo di affrontare il futuro.
La domanda non è se l’AI cambierà l’economia. Lo sta già facendo. La vera domanda è chi controlla il racconto di questo cambiamento. E con quali limiti.
Il silenzio come scelta
Tom Cunningham ha scelto di andarsene. Altri hanno fatto lo stesso. Non per fare rumore, ma per coerenza. C’è qualcosa di profondamente umano in questa decisione. Il rifiuto di adattarsi a una narrazione che non senti più tua. La consapevolezza che restare significherebbe accettare compromessi troppo grandi.
OpenAI continuerà a crescere. A innovare. A influenzare il mondo. Ma questa storia resta lì, come una crepa visibile solo da vicino. Un promemoria scomodo: anche le aziende nate con le migliori intenzioni possono smarrire la strada.
Un finale che non chiude nulla
Forse tra qualche anno questa vicenda sarà ricordata come un passaggio inevitabile. O forse come un’occasione persa. Per ora resta una sensazione sospesa. Quella di una verità che fatica a trovare spazio. Di una ricerca che chiede di essere ascoltata, non filtrata.
Il futuro dell’intelligenza artificiale non si gioca solo nei laboratori o nei consigli di amministrazione. Si gioca anche nella libertà di chi fa domande. E nella disponibilità di chi è al potere ad accettare risposte che non piacciono.
Quando un ricercatore se ne va in silenzio, a volte sta dicendo molto più di quanto potrebbe fare restando.
