Генеральный директор OpenAI Сэм Альтман прервал молчание после двойного кризиса: физической атаки на его резиденцию и разгромного расследования в журнале The New Yorker. В недавнем посте в своем блоге Альтман затронул тему взаимосвязи медийных нарративов и реальных последствий, размышляя о своем стиле руководства и нестабильной природе индустрии ИИ.

Эскалация насилия в Сан-Франциско

Напряжение вокруг OpenAI перешло из цифрового пространства в физическое ранним утром в пятницу, когда неизвестный якобы бросил коктейль Молотова в дом Альтмана в Сан-Франциско. Хотя сообщений о пострадавших не поступало, инцидент обострился, когда позже в штаб-квартире OpenAI был арестован подозреваемый, угрожавший поджечь здание.

Альтман связал timing этого акта насилия с недавней публикацией крайне критического профиля в The New Yorker. Он выразил обеспокоенность тем, что подстрекательские публикации в СМИ, выходящие в период сильной социальной тревожности по поводу искусственного интеллекта, могут создавать реальную угрозу для технологических лидеров.

«Сначала я отмахнулся от этого», — написал Альтман. — «Теперь же я проснулся посреди ночи, я в ярости и думаю о том, что недооценил силу слов и нарративов».

Профиль в ‘New Yorker’: вопросы доверия

Статья, написанная совместно лауреатом Пулитцеровской премии Ронаном Фэрроу и технологическим журналистом Эндрю Маранцем, представляет портрет Альтмана, который резко контрастирует с его публичным имиджем. Основанная на интервью с более чем 100 источниками, статья выделяет несколько критических тем:

  • Воля к власти: Источники описывают Альтмана как человека, обладающего «неумолимой волей к власти», что отличает его даже от других высокопоставленных технологических промышленников.
  • Проблемы с надежностью: В репортаже приводятся слова анонимных членов совета директоров, которые ставили под сомнение честность Альтмана, указывая на разрыв между его желанием нравиться людям и потенциальными последствиями его действий.
  • Обвинения в чертах характера: Один из источников зашел так далеко, что описал его «социопатическое безразличие» к последствиям обмана окружающих.

Эта проверка на прочность имеет большое значение, поскольку в гонке за создание общего искусственного интеллекта (AGI) репутация и надежность тех, кто стоит у руля, являются вопросом общественной безопасности в той же степени, что и сама технология.

Саморефлексия и ошибки руководства

Вместо того чтобы просто оправдываться, Альтман использовал свой ответ, чтобы дать честную оценку своему периоду работы в OpenAI. Он признал несколько личных и профессиональных промахов:

  1. Избегание конфликтов: Альтман признал, что его склонность избегать противостояний причинила «большие страдания» как ему самому, так и компании.
  2. Кризис совета директоров 2023 года: Он выразил сожаление о том, как он справился с конфликтом с предыдущим советом директоров OpenAI, который привел к его кратковременному отстранению и последующему возвращению на пост CEO.
  3. Человеческая несовершенность: Он охарактеризовал себя как «несовершенного человека», пытающегося ориентироваться в «исключительно сложной ситуации», заявив, что постоянно работает над собой.

«Кольцо власти» и будущее AGI

Альтман использовал литературную метафору для описания текущего состояния индустрии ИИ, упомянув динамику «Кольца власти». Он предположил, что острая конкуренция за контроль над AGI подталкивает людей к экстремальному и иррациональному поведению.

Чтобы противостоять этому, Альтман предложил смену философии. Вместо гонки по принципу «победитель получает всё», где одна организация контролирует «кольцо», он выступает за широкое распространение технологий, чтобы ни один человек или корпорация не обладали абсолютной властью над AGI.

В заключение он призвал к деэскалации как риторики, так и физических методов, призвав индустрию сосредоточиться на конструктивных дебатах, а не на «взрывах в домах — как в переносном, так и в буквальном смысле».


Заключение
Ответ Сэма Альтмана — это редкий момент уязвимости для крупного технологического CEO; он признает, что пристальное внимание и высокие ставки в гонке ИИ вышли за рамки простых дискуссий и перешли в плоскость личного и физического риска.