Драма в правлении OpenAI может испортить ваше будущее

События в OpenAI могут негативно повлиять на ваше будущее драматичное развитие событий в организации может нанести серьезный удар вашим перспективам

В июне я провел беседу с главным ученым Ильей Суцкевером в штаб-квартире OpenAI, о чем я рассказал в обложке октябрьского выпуска ENBLE. Одной из тем, которые мы обсудили, была необычная структура компании. OpenAI начала свое существование как некоммерческая научно-исследовательская лаборатория, задачей которой было разработать искусственный интеллект на уровне или превышающем человеческий – так называемый искусственный общий интеллект или ИОИ в безопасном режиме. Компания обнаружила перспективный путь в больших языковых моделях, способных создавать потрясающе плавный текст, однако для разработки и внедрения таких моделей требовались огромные вычислительные мощности и огромные финансовые средства. Это привело к созданию коммерческой структуры OpenAI с привлечением внешних инвесторов, а также к партнерству с крупной компанией Microsoft. Практически все сотрудники компании работали на эту новую коммерческую армию. Однако, были установлены границы коммерческой деятельности компании. Прибыль, полученная инвесторами, была ограничена – в первую очередь для первоначальных инвесторов в 100 раз больше суммы, которую они вложили, после чего OpenAI снова станет чисто некоммерческой организацией. Это все контролировалось советом директоров первоначальной некоммерческой организации, который отвечал только перед целями первоначальной миссии, и, возможно, перед Богом.

Обычный текст

ЗАРЕГИСТРИРОВАТЬСЯ для доступа к обычному тексту

Суцкевер не оценил мою шутку о том, что странная структура компании, изображенная в организационной схеме, выглядит как что-то, что могла бы разработать будущая система ИОГПП для уклонения от налогов. “Мы единственная компания в мире, у которой ограничена структура прибыли”, пояснил он мне. “Вот почему это имеет смысл: если вы верите, как и мы, что, если мы будем успешными, эти графические процессоры займут мою, вашу и все наши должности, было бы хорошо, если бы эта компания не зарабатывала неограниченное количество денег”. В то же время, чтобы убедиться, что часть компании, стремящаяся к прибыли, не откажется от своих обязательств по обеспечению безопасности искусственного интеллекта, существует данный совет, следящий за всем этим.

Этим стражем человечества является тот же самый совет директоров, который уволил Сэма Альтмана в прошлую пятницу, заявляя, что он больше не имел доверия к генеральному директору, поскольку “он не был последовательно честен в своем общении с советом директоров, что препятствовало его возможности выполнять свои обязательства”. Примеры такого поведения не были предоставлены, и практически никто в компании не знал о увольнении до того, как оно было официально объявлено. Генеральный директор Майкрософт Сатья Наделла и другие инвесторы не получили предварительного предупреждения. Четыре директора, представляющие большинство из шести членов совета, также исключили президента и председателя OpenAI Грега Брокмана из состава совета директоров. Брокман быстро подал в отставку.

После того, как я поговорил с человеком, знакомым с мыслями совета директоров, похоже, что, уволив Альтмана, директора полагали, что они выполняют свою миссию по обеспечению безопасного развития мощного искусственного интеллекта, которое было единственной целью их существования. Увеличение прибыли или использование ChatGPT, поддержание рабочего места, удовлетворение Microsoft и других инвесторов не было их заботой. По мнению директоров Адама Д’Анджело, Хелен Тонер и Таши Маккаули, а также Суцкевера, Альтман не был откровенным с ними. Итак, по существу, совет больше не доверял Альтману в осуществлении миссии OpenAI. Если совет не может доверять генеральному директору, как он может защитить или даже контролировать прогресс в выполнении миссии?

Я не могу сказать, насколько поведение Альтмана действительно угрожало миссии OpenAI, но я знаю одно: совет кажется упустил возможность того, что плохо объясненное выполнение обязанностей любимого и харизматичного лидера может нанести ущерб этой миссии. Директоры, по-видимому, полагали, что они просто уволят Альтмана и без проблем назначат нового руководителя. Вместо этого последствия были немедленными и взрывными. Альтман, который уже был своего рода культовой фигурой, стал еще более почитаемым в новой истории. Он почти не предпринял никаких действий, чтобы убедиться, что последовавший за этим возглас удивления поможет ему. Для совета Альтманские усилия вернуть свою должность и бунт сотрудников последние несколько дней являются своего рода подтверждением того, что увольнение было справедливым. Умный Сэм все еще что-то задумывает! Тем временем, вся Кремниевая долина взорвалась, пятна остались за OpenAI, возможно, навсегда.

Отпечатки пальцев Альтмана не появляются на открытом письме, опубликованном вчера и подписанном более чем 95 процентами примерно 770 сотрудников OpenAI, в котором говорится, что директора “не способны контролировать OpenAI”. В письме говорится, что если члены совета не вернут Альтмана на должность и не уйдут в отставку, работники, которые подписались, могут уйти и присоединиться к новому подразделению по продвинутому искусственному интеллекту в Microsoft, созданному Альтманом и Брокманом. Эта угроза, казалось, не поколебала решимость директоров, которые, по-видимому, чувствовали, что их просили вести переговоры с террористами. Предполагается, что один из директоров думает иначе – Сутскевер, который сейчас говорит, что сожалеет о своих действиях. Его подпись присутствует на письме “уходите или мы уйдем”. После того, как он, видимо, избавился от недоверия к Альтману, они начали посылать друг другу любовные записки на X, платформе, принадлежащей другому сооснователю OpenAI, сейчас оторванному от проекта.

На данный момент совет вызывает блеф собравшихся работников, фактически бросая вызов персоналу OpenAI, чтобы они выметались через дверь и присоединялись к Альтману в Microsoft. Согласно письму, директоры сказали лидерам OpenAI, что разрушение компании “было бы в соответствии с миссией”. (Позже The New York Times причислил эти слова Helen Toner.) Это кажется экстремальным. Если все уйдут, сложно представить, как OpenAI продолжит быть лидером в ускорении сингулярности, и если кто-то другой ее осуществит, управление компанией не будет иметь никакого влияния на то, насколько безопасным оно будет. Даже превосходный бесплатный кофе и обеды OpenAI не привлекут ведущих исследователей в области машинного обучения, необходимых для заполнения внезапно ставших свободными рабочих мест нынешних гуру компании. Меня не удивляют сообщения о переговорах между советом директоров и представителями Альтмана.

Чтобы быть уверенным, идея о том, что весь персонал OpenAI присоединится к Microsoft, кажется чем-то, о чем даже ChatGPT не осмелится фантазировать. Конечно, было бы фантастическим закулисным ударом для Microsoft стать обладателем лучших специалистов по искусственному интеллекту. Но это было бы крайне дорого, и многие из сотрудников OpenAI занимаются более прозаическими вещами, такими как дизайн интерфейса, управление продуктом и взаимоотношения с разработчиками, над чем Microsoft уже имеет большое количество работников. И не будут ли продукты OpenAI конкурировать со всеми приложениями Copilot, которые Microsoft запускает на основе технологии OpenAI? Но самое сумасшедшее во всем будет простая реальность того, что OpenAI, буквально созданная для того, чтобы противостоять компаниям, подобным Microsoft, в господствующей позиции в области искусственного интеллекта, будет отдавать свой элитный потенциал – корпус, данные, полностью – в руки много трлндолларового гиганта. Microsoft не будет иметь никаких сомнений по поводу получения “действительно неограниченных сумм доходов” от будущих прорывов сотрудников бывшего OpenAI – это то, что любой, следующий за Альтманом, может принять во внимание, с учетом их предыдущего времени в компании с другими принципами основания. (Я думаю, что высокий процент исследователей OpenAI окажется переброшенными к другим восходящим стартапам в области искусственного интеллекта или начнут свои собственные.)

Все это история имеет так много скрытых поворотов и событий за прошедшие пять дней, что я не стану предсказывать, что произойдет дальше. Но это не означает, что мы должны сидеть и наслаждаться развлечениями, как тот всеобъемлющий GIF с Майклом Джексоном, который запускает кукурузу в рот. Мы не являемся безразличными зрителями в этой драме. За этим гиковским реальным эпизодом “succession” скрываются проблемы, которые определят, как выглядит наше коллективное будущее.

“Я вижу проблему, обозначенную сверхразумием, как последний вызов человечества”, – сказал Сутскевер мне в том интервью в июне. “Итак, что мы делаем с этим? Мое мнение, если есть качественное понимание, если все умные интеллектуалы и люди, являющиеся мыслителями в различных областях, собираются вместе, если ведутся дискуссии и появляются мощные идеи, то может что-то хорошее произойдет.” Вот оптимистическое представление о будущем. Однако сейчас тех, кто охраняет сегодняшнего лидера в возникновении сверхразумной системы, затягивает безумная схватка в зале заседаний. Это тревожный отвлекающий момент, когда мы пробираемся к искусственному обобщенному интеллекту (AGI).

Не пропустите будущие платные выпуски этой колонки. Подпишитесь на ENBLE (со скидкой 50% для читателей Plaintext) уже сегодня.