Le PDG d’OpenAI, Sam Altman, a rompu son silence à la suite d’une double crise : une attaque physique contre sa résidence et un profil d’enquête cinglant dans The New Yorker. Dans un récent article de blog, Altman a abordé l’intersection des récits médiatiques et des conséquences du monde réel, réfléchissant à son style de leadership et à la nature volatile de l’industrie de l’IA.
Une escalade physique à San Francisco
La tension autour d’OpenAI est passée du numérique au physique tôt vendredi matin lorsqu’un individu aurait lancé un cocktail Molotov au domicile d’Altman à San Francisco. Bien qu’aucun blessé n’ait été signalé, l’incident s’est aggravé lorsqu’un suspect a ensuite été arrêté au siège d’OpenAI pour avoir menacé de mettre le feu au bâtiment.
Altman a lié le moment de ces violences à la récente publication d’un profil très critique dans The New Yorker. Il s’est dit préoccupé par le fait que les médias incendiaires, publiés pendant une période d’intense anxiété sociétale concernant l’intelligence artificielle, pourraient créer des dangers tangibles pour les leaders technologiques.
“Je l’ai écarté”, a écrit Altman. “Maintenant, je suis réveillé au milieu de la nuit et énervé, et je pense que j’ai sous-estimé le pouvoir des mots et des récits.”
Le profil du « New Yorkais » : questions de fiabilité
L’article, co-écrit par Ronan Farrow, lauréat du prix Pulitzer, et le journaliste technologique Andrew Marantz, présente un portrait d’Altman qui contraste fortement avec sa personnalité publique. Basé sur des entretiens avec plus de 100 sources, l’article met en évidence plusieurs thèmes critiques :
- Une volonté de puissance : Des sources ont décrit Altman comme possédant une « volonté de puissance implacable » qui le distingue même des autres industriels technologiques de haut niveau.
- Problèmes de fiabilité : Le rapport cite des membres anonymes du conseil d’administration qui remettent en question l’intégrité d’Altman, suggérant un décalage entre son désir d’être aimé et les conséquences potentielles de ses actions.
- Allégations concernant le personnage : Une source est allée jusqu’à décrire un « manque d’inquiétude sociopathique » concernant les conséquences de la tromperie des autres.
Cet examen minutieux est important car, dans la course au développement de l’intelligence générale artificielle (IAG), le caractère perçu et la fiabilité de ceux qui contrôlent sont autant une question de sécurité publique que la technologie elle-même.
Erreurs d’auto-réflexion et de leadership
Plutôt que de simplement se défendre, Altman a utilisé sa réponse pour proposer une évaluation franche de son mandat chez OpenAI. Il reconnaît plusieurs échecs personnels et professionnels :
- Évitement des conflits : Altman a admis que sa tendance à éviter la confrontation a causé « une grande douleur » à la fois pour lui et pour l’entreprise.
- La crise du conseil d’administration de 2023 : Il a exprimé ses regrets sur la façon dont il a géré le conflit avec l’ancien conseil d’administration d’OpenAI, qui a abouti à sa brève destitution puis à sa réintégration en tant que PDG.
- Faillibilité humaine : Il s’est caractérisé comme une « personne imparfaite » naviguant dans une « situation exceptionnellement complexe », déclarant qu’il travaille constamment à s’améliorer.
L’« anneau de pouvoir » et l’avenir de l’AGI
Altman a utilisé une métaphore littéraire pour décrire l’état actuel de l’industrie de l’IA, faisant référence à une dynamique « Anneau de pouvoir ». Il a suggéré que la concurrence intense pour contrôler l’AGI pousse les individus à adopter des comportements extrêmes et irrationnels.
Pour contrer cela, Altman a proposé un changement de philosophie. Au lieu d’une course au vainqueur où une seule entité contrôle le « ring », il préconise un large partage de la technologie pour garantir qu’aucune personne ou entreprise ne détient un pouvoir absolu sur AGI.
Il a conclu en appelant à une désescalade tant rhétorique que physique, exhortant l’industrie à se concentrer sur un débat constructif plutôt que sur « des explosions dans moins de foyers, au sens figuré et littéral ».
Conclusion
La réponse de Sam Altman marque un rare moment de vulnérabilité pour un grand PDG du secteur technologique, reconnaissant que l’examen minutieux et les enjeux élevés de la course à l’IA ont dépassé le simple débat pour devenir un domaine de risques personnels et physiques.
























