Сем Альтман може контролювати майбутнє. А хто контролює самого Альтмана?
- Таїсія Красноштан

- 3 дні тому
- Читати 9 хв

Листопад 2023 року. Рада директорів OpenAI звільняє CEO компанії Сема Альтмана. Уже за п’ять днів він повертається на посаду, а частина людей, які ініціювали його звільнення, залишає компанію. Після корпоративного перевороту Альтман з новими силами продовжує будувати, можливо, найпотужнішу технологію, яку коли-небудь створювало людство. Утім, до підприємця з’явилися питання.
Коли OpenAI була маленьким некомерційним стартапом, її місія полягала в тому, щоб зробити штучний інтелект безпечним для людства. Завдяки їй команда будувала репутацію, залучала інвестиції та таланти. За кілька років, під тиском грошей та амбіцій, OpenAI перетворилася на одну з найвпливовіших корпорацій в історії технологій, а її СЕО — на одіозну та суперечливу постать.
Журналісти видання The New Yorker вивчили 70 сторінок внутрішніх документів і записок, поспілкувалися з десятками людей із найближчого оточення Альтмана та опублікували велике розслідування про те, чи можна йому довіряти. HBJ переказує цю історію і пояснює, чому людина, яка обіцяла зробити ШІ безпечним, дедалі більше виглядає як загроза для світу.
П'ятиденний переворот, який не спрацював
У листопаді 2023 року, коли Сем Альтман був у Лас-Вегасі на перегонах Формули-1, йому зателефонували. Це був дзвінок, на який він не чекав. Рада директорів OpenAI попросила його приєднатися до термінової відеозустрічі, і зачитала коротку заяву: він більше не CEO компанії. Microsoft, яка інвестувала в OpenAI $13 млрд, дізналася про це за лічені хвилини до публічного оголошення.
Альтман повертається до Сан-Франциско й майже одразу починає діяти. Юристи, антикризові піарники та венчурні інвестори постійно на зв’язку. Дехто ночує просто в будинку, а комунікація триває по дванадцять годин на добу. Пізніше Альтман назве це «урядом у вигнанні». Більшу частину часу він залишається на зв’язку, а вночі, під час нападів безсоння, просто ходить поміж кімнатами, де працює його команда.
За п’ять днів рада директорів переглядає своє рішення. Альтман повертається на посаду. Троє членів ради, які ініціювали його звільнення, компанію залишають. А цей епізод у технологічних колах у подальшому називатимуть «Бліп» (за аналогією з подіями у фільмах Marvel, коли персонажі зникають і повертаються у світ, який за цей час встигає змінитися).
Документи, з яких усе почалося
Щоб зрозуміти, чому взагалі стався «Бліп», потрібно поглянути на людину, яка його запустила.
Ілля Суцкевер — головний науковець OpenAI і, за визнанням колег, один із найсильніших дослідників штучного інтелекту свого покоління. Він народився в Радянському Союзі, виріс у Ізраїлі і свого часу відмовився від пропозиції Google на $6 млн на рік. І все — заради роботи в OpenAI і місії, в яку він вірив. Він був не просто близький до команди: 2019 року Суцкевер навіть проводив весільну церемонію співзасновника компанії Грега Брокмана прямо в офісі OpenAI, де обручки урочисто виносила роботизована рука.

До осені 2023 року все почало змінюватися. Що більше Суцкевер розумів, як далеко просунулася компанія у створенні потужних моделей, то частіше задумувався:
«Чи є Сем Альтман тією людиною, якій можна довірити контроль на цьому етапі розвитку технології?»
Суцкевер почав збирати матеріали, акуратно фотографувати екрани на особистий телефон, аби не залишати слідів у корпоративних системах. З часом він зібрав базу на приблизно сімдесят сторінок: переписки у Slack, кадрові документи й коментарі з поясненнями. Нотатки передавалися членам ради у форматі повідомлень, що зникають після прочитання. «Він боявся», — згадував один із тих, хто їх отримував.
Журналісти The New Yorker отримали доступ до цих матеріалів. Перший пункт у переліку претензій до Альтмана був сформульований одним словом: «брехня».
Компанія, що мала врятувати людство
Повернімося до початку, до того, чим мала бути OpenAI, і чим зрештою стала.
Сем Альтман виріс у заможному передмісті Сент-Луїса і вступив до Стенфордського університету. Але, як і багато амбітних студентів Кремнієвої долини, залишив навчання після другого курсу. Влітку він потрапив до першого набору Y Combinator. У тому ж наборі були, зокрема, засновники Reddit. Сам же Альтман запустив Loopt — сервіс, що дозволяв відстежувати місцезнаходження друзів через мобільні телефони.
У Loopt до нього ставилися по-різному. Більшість колег згадує теплу атмосферу, але частину команди з самого початку насторожувала одна риса: схильність Альтмана перебільшувати, навіть там, де це не було необхідно. Інвестори приставили до нього старшого колегу як неформального наглядача. Згодом той згадував: «Межа між “я думаю, що ми це зробимо” і “ми вже це зробили” у нього повністю стерта».
Співробітники двічі зверталися до ради директорів із проханням звільнити Альтмана з посади CEO, однак обидва рази безрезультатно. Компанія так і не змогла досягти значного зростання і в 2012 році була продана Green Dot приблизно за $43 млн. Структуру угоди вибудували так, щоб Альтман міг зберегти обличчя.
Здавалося б, невдача. Але тут Пол Грем запропонував Альтману очолити Y Combinator, і у 28 років той став президентом найвпливовішого акселератора Кремнієвої долини. За час його керівництва програма суттєво розширилася, однак разом із цим з’явилися й запитання.
Партнери звертали увагу на те, що Альтман інвестує в окремі стартапи особисто, створюючи конфлікти інтересів із зовнішніми інвесторами. Частина з них звернулася до Грема, і згодом Альтман залишив посаду на тлі внутрішнього конфлікту. Пізніше, в приватних розмовах Грем згадував, що до свого звільнення Альтман «постійно вводив їх в оману».
Конфлікт із Маском і перший розкол усередині OpenAI
До того, як остаточно залишити Y Combinator, Сем Альтман розпочав листування, яке згодом визначить подальший розвиток OpenAI. У 2015 році він написав Ілону Маску. На той момент підприємець публічно висловлювався щодо ризиків штучного інтелекту, називаючи його потенційно небезпечнішим за ядерну зброю. Альтман апелював саме до цього аргументу.
Його позиція зводилася до того, що якщо створення потужного ШІ є неминучим, то цим має займатися організація з чіткими етичними зобов’язаннями, а не велика технологічна корпорація.
Так сформувалася ідея OpenAI. Маск зі свого боку заявив, що готовий забезпечити фінансування на $1 млрд.
OpenAI створювалася як некомерційна організація. Серед її засновників — Альтман, Ілля Суцкевер, Грег Брокман і Маск. Вони публічно підкреслювали, що штучний інтелект може стати однією з найризикованіших технологій в історії, а тому його розвиток має підпорядковуватися питанням безпеки, а не комерційній вигоді. У цій моделі CEO розглядався не лише як управлінець, а як фігура, до якої застосовувався підвищений стандарт довіри. Якщо її втрачено, рада директорів мала повноваження усунути такого СЕО.
Альтман активно формував команду. Кандидатам пропонували не лише роботу, а участь у проєкті, який подавався як спроба «врятувати світ». Паралельно Альтман прагнув закріпити роль CEO за собою, що викликало запитання навіть усередині команди. Суцкевер звернувся до співзасновників, зокрема Альтмана, із листом, де писав: «Ми не розуміємо, чому посада CEO така важлива для тебе. Твої пояснення щоразу змінюються».
Найгостріша напруга виникла у взаєминах із Маском. Він наполягав на більшому контролі над структурою управління компанії, але не отримав його. У 2018 році Маск вийшов із OpenAI, пояснивши це небажанням залишатися в ситуації, де він фінансує проєкт, не маючи достатнього впливу на його розвиток. Через кілька років конфлікт перейшов у публічну площину.
У 2023 році Маск заснував власну компанію xAI, а згодом подав позов проти Альтмана та OpenAI, звинувативши їх у порушенні початкових некомерційних принципів. У позові йдеться про те, що занепокоєння щодо ризиків ШІ було використане для залучення фінансування, після чого проєкт набув комерційного характеру. Нині розгляд справи триває.

Як OpenAI відмовлялася від власних обмежень
На рівні заяв і принципів усе виглядало етично й переконливо. Однак реальність, за свідченнями людей усередині компанії, поступово змінювалася.
Даріо Амодеї, колишній керівник напряму безпеки в OpenAI, який згодом залишив компанію і заснував Anthropic, протягом своєї роботи фіксував те, що бачив зсередини. Картина така: Альтман публічно говорив про намір виділяти до 20% обчислювальних потужностей на дослідження безпеки, тоді як фактично цей обсяг становив близько 1-2%, і часто припадав на застаріле обладнання. Основні ресурси спрямовувалися на комерційні продукти.

У матеріалах також описані випадки, коли інформація, яку отримувала рада директорів, не відповідала фактичному стану справ. Наприклад, Альтман запевняв, що ключові функції моделі GPT-4 пройшли обов’язкову безпекову перевірку, однак під час внутрішніх уточнень з’ясувалося, що це не зовсім так. Окремо згадується ситуація з раннім запуском ChatGPT в Індії — без завершення всіх процедур оцінки. За словами співрозмовників, про це не повідомляли під час багатогодинних брифінгів для ради.
«OpenAI відхилилася від своєї місії, — написав у листі до ради один із дослідників безпеки. — Ми ставимо продукт і виручку вище за все інше. Безпека ж — на третьому місці».
Команду «суперузгодження» — підрозділ, який мав займатися ключовими питаннями безпеки ШІ — зрештою розформували, так і не довівши її роботу до кінця. Після цього Суцкевер і Амодеї залишили компанію, а разом із ними — ще десятки співробітників, які працювали над безпекою й дедалі частіше сумнівалися у напрямі розвитку компанії.
Людина, яку не змогли прибрати
Люди, знайомі зі стилем роботи Сема Альтмана, у розмовах із журналістами в різний час і в різних обставинах розповідали схожі історії. А ще — неодноразово казали слово «соціопатичний».
«Він поєднує дві рідкісні риси, — сказав один із членів ради. — З одного боку, сильне прагнення подобатися й отримувати схвалення в кожній взаємодії. З іншого — майже повну байдужість до наслідків того, що інші можуть сприймати як обман».
В одній із телефонних розмов після звільнення, коли члени ради намагалися добитися від Альтмана пояснень, він, за словами співрозмовників, відповів: «Це все повна лажа. Я не можу змінити свою особистість». Один із учасників цієї розмови інтерпретував це як відмову визнавати проблему. Сам Альтман говорив, що не пам’ятає цієї розмови, і припустив, що мав на увазі інше: «Можливо, я говорив про те, що намагаюся бути об’єднуючою силою».
Схожі оцінки його стилю управління, за словами співрозмовників, з’являлися і раніше, задовго до OpenAI. У різних компаніях — Loopt, Y Combinator, OpenAI — повторювалась схожа ситуація: у певний момент частина людей навколо нього починала ставити під сумнів його дії, але ці сумніви ніяк не змінювали позицію Альтмана.
Як Альтман зібрав політичну і фінансову підтримку
Поки всередині OpenAI накопичувалися конфлікти, Сем Альтман паралельно вибудовував ширшу систему зв’язків — фінансових і політичних, яка з часом посилила його позиції далеко за межами компанії.
Попри застереження з боку американських спецслужб, він послідовно шукав інвестиції за кордоном, зокрема в Саудівській Аравії та ОАЕ. У 2018 році, після новин про вбивство журналіста The Washington Post Джамаля Хашоггі, Альтман публічно захищав свою участь у консультативній раді саудівського мегапроєкту Neom. Зокрема, він посилався на особисті запевнення, які, за його словами, отримав від Джареда Кушнера, що принц Мухаммед ібн Салман не причетний до цього злочину. Згодом він вийшов із цієї ради.
Водночас, за словами одного з консультантів, навіть після цього Альтман у приватних розмовах повертався до питання, чи можна залучити фінансування з боку принца так, щоб «це зійшло з рук».
Питання надання Альтману доступу до секретної інформації також розглядалося на рівні відповідних процедур. За словами співрозмовників, аналітики рекомендували відмовити йому. У внутрішніх оцінках зазначалося, що за масштабом фінансових зв’язків з іноземними урядами його можна порівняти хіба що з Джаредом Кушнером, якому також відмовили у такому допуску.
Після президентських виборів у США 2024 року Альтман пожертвував $1 млн до інавгураційного фонду і невдовзі з’явився в Рузвельтській залі Білого дому поруч із Дональдом Трампом, де було оголошено про проєкт Stargate (це спільна ініціатива зі створення масштабної інфраструктури для штучного інтелекту, вартість якої оцінюється приблизно у п’ятсот мільярдів доларів — ред.). У той-таки період скасували й попередній указ щодо безпеки ШІ.

Подальші плани Альтмана — будівництво дата-центру в Абу-Дабі, площа якого в сім разів перевищує Центральний парк, а енергоспоживання можна порівняти з великим містом на кшталт Маямі. Один із колишніх топменеджерів OpenAI описав це так:
«Ми буквально будуємо портали, через які викликаємо прибульців (йдеться про надпотужний штучний інтелект, наслідки розвитку якого люди ще не до кінця розуміють і не можуть повністю контролювати — ред.). Ці портали існували в США і Китаї, тепер же Сем додав один на Близькому Сході (натяк на розширення доступу до таких систем через партнерства з державами Перської затоки — ред.). Це найбезвідповідальніша річ, яку будь-хто будь-коли робив».
Що сталося з ідеєю безпеки
У розслідуванні The New Yorker немає доказів прямих злочинів. Натомість журналісти акцентують на питанні довіри до керівництва. Співрозмовники видання кажуть, що риторика щодо потенційних ризиків штучного інтелекту, яку використовували для залучення інвестицій і талантів, із часом почала розходитися реальними пріоритетами компанії. «Він [Альтман] встановлює механізми, які нібито обмежують його в майбутньому, — пояснює один із колишніх дослідників. — А коли це майбутнє настає і настає момент дотримуватися цих обмежень — позбувається їх».
За словами співробітників, які працювали над питаннями безпеки, у компанії поступово змінювався баланс між дослідженнями ризиків і розвитком продуктів. Частину команд, що займалися цими напрямами, розформували, включно з підрозділами, які працювали над підготовкою суспільства до появи більш просунутих систем ШІ. Це відображено навіть у податкових звітах: там, де йдеться про найбільш значущу діяльність, поняття безпеки, яке фігурувало раніше, більше не згадується.
Зовнішні оцінки також відрізняються від ранніх очікувань. Зокрема, незалежний аналітичний центр Future of Life Institute у своєму звіті оцінив підхід OpenAI до «екзистенційної безпеки» на рівні F. Водночас, коли журналісти звернулися до компанії з проханням зв’язати їх із дослідниками, що працюють у цьому напрямі, представник пресслужби перепитав: «Що ви маєте на увазі під "екзистенційною безпекою"? Це не той термін, який ми використовуємо».
На цьому тлі OpenAI продовжує масштабуватися як комерційна структура і готується до можливого виходу на IPO із високою оцінкою. Компанія вже впливає на формування практик використання штучного інтелекту в різних сферах — від державних сервісів до безпекових систем. Водночас питання щодо співвідношення комерційного розвитку продуктів і довгострокових ризиків у публічних документах компанії не формулюється так прямо, як раніше.
Замість висновку
У цій історії є деталь, яка повертає до початку. У 2015 році Сем Альтман писав, що штучний інтелект не обов’язково має бути ворожим, щоб становити загрозу. Достатньо, якщо він просто переслідуватиме іншу мету, і люди опиняться на її шляху.
Це застереження він повторював роками — інвесторам, кандидатам, сенаторам, президентам. Воно лягло в основу цілої компанії. І саме воно, як випливає з розслідування The New Yorker, найточніше описує те, що відбувається з OpenAI сьогодні. Тільки загроза прийшла не звідти, звідки її чекали — з кабінету CEO.





