Il CEO di OpenAI Sam Altman ha rotto il silenzio a seguito di una doppia crisi: un attacco fisico alla sua residenza e un feroce profilo investigativo su The New Yorker. In un recente post sul blog, Altman ha affrontato l’intersezione tra narrazioni mediatiche e conseguenze nel mondo reale, riflettendo sul suo stile di leadership e sulla natura instabile del settore dell’intelligenza artificiale.

Un’escalation fisica a San Francisco

La tensione attorno a OpenAI si è spostata dal digitale al fisico venerdì mattina presto, quando un individuo avrebbe lanciato una Molotov contro la casa di Altman a San Francisco. Sebbene non siano stati segnalati feriti, l’incidente si è intensificato quando un sospetto è stato successivamente arrestato presso la sede di OpenAI per aver minacciato di dare fuoco all’edificio.

Altman ha collegato la tempistica di questa violenza alla recente pubblicazione di un profilo altamente critico sul The New Yorker. Ha espresso preoccupazione per il fatto che i media provocatori, pubblicati durante un periodo di intensa ansia sociale riguardo all’intelligenza artificiale, potrebbero creare pericoli tangibili per i leader tecnologici.

“L’ho messo da parte”, ha scritto Altman. “Ora sono sveglio nel cuore della notte e incazzato, e penso di aver sottovalutato il potere delle parole e delle narrazioni.”

Il profilo del “New Yorker”: questioni di affidabilità

L’articolo, scritto in collaborazione dal vincitore del Premio Pulitzer Ronan Farrow e dal giornalista tecnologico Andrew Marantz, presenta un ritratto di Altman che contrasta nettamente con il suo personaggio pubblico. Basato su interviste con oltre 100 fonti, il pezzo evidenzia diversi temi critici:

  • Una volontà di potere: Le fonti descrivono Altman come dotato di una “implacabile volontà di potere” che lo distingue anche da altri industriali tecnologici di alto profilo.
  • Preoccupazioni sull’affidabilità: Il rapporto citava membri anonimi del consiglio che mettevano in dubbio l’integrità di Altman, suggerendo una disconnessione tra il suo desiderio di piacere e le potenziali conseguenze delle sue azioni.
  • Accuse sui personaggi: Una fonte è arrivata al punto di descrivere una “mancanza di preoccupazione sociopatica” riguardo alle conseguenze dell’ingannare gli altri.

Questo esame è significativo perché, nella corsa allo sviluppo dell’Intelligenza Generale Artificiale (AGI), il carattere percepito e l’affidabilità di coloro che detengono il controllo sono una questione di sicurezza pubblica tanto quanto la tecnologia stessa.

Autoriflessione ed errori di leadership

Piuttosto che difendersi puramente, Altman ha usato la sua risposta per offrire una valutazione sincera del suo mandato presso OpenAI. Ha riconosciuto diversi fallimenti personali e professionali:

  1. Evitamento dei conflitti: Altman ha ammesso che la sua tendenza a evitare il confronto ha causato “grande dolore” sia a lui che all’azienda.
  2. La crisi del consiglio di amministrazione del 2023: Ha espresso rammarico per come ha gestito il conflitto con il precedente consiglio di amministrazione di OpenAI, che ha portato alla sua breve rimozione e alla successiva reintegrazione come CEO.
  3. Fallibilità umana: Si è definito una “persona imperfetta” che affronta una “situazione eccezionalmente complessa”, affermando che lavora costantemente per migliorare.

L'”Anello del Potere” e il futuro dell’AGI

Altman ha utilizzato una metafora letteraria per descrivere lo stato attuale del settore dell’intelligenza artificiale, riferendosi a una dinamica del “Anello del potere”. Ha suggerito che l’intensa competizione per il controllo dell’AGI sta spingendo gli individui verso comportamenti estremi e irrazionali.

Per contrastare questo, Altman ha proposto un cambiamento nella filosofia. Invece di una corsa in cui il vincitore prende tutto, in cui una singola entità controlla l’”anello”, egli sostiene la condivisione su larga scala della tecnologia per garantire che nessuna singola persona o azienda detenga il potere assoluto sull’AGI.

Ha concluso chiedendo una riduzione sia della retorica che delle tattiche fisiche, esortando l’industria a concentrarsi sul dibattito costruttivo piuttosto che su “esplosioni in meno case, in senso figurato e letterale”.


Conclusione
La risposta di Sam Altman segna un raro momento di vulnerabilità per un importante CEO del settore tecnologico, riconoscendo che l’intenso controllo e l’alta posta in gioco della corsa all’intelligenza artificiale sono andati oltre il semplice dibattito in un regno di rischio personale e fisico.