Я только что прочитал расследование, опубликованное вчера в The New Yorker, которое шокировало многих. Ронан Фарроу и Эндрю Маранц опросили более 100 человек, получили внутренние меморандумы, никогда не публиковавшиеся, и даже более 200 страниц личных заметок Дарио Амодеи ( основателя Anthropic, который ушел из OpenAI). Результат — по сути, бомба.



Все начинается с документа на 70 страниц, который Илья Сутскевер, главный ученый OpenAI, составил осенью 2023 года. Он собрал сообщения из Slack, коммуникации с отделом кадров, протоколы совещаний. Цель? Ответить на простой вопрос: можно ли доверять Сэму Алтману, который, возможно, контролирует самую опасную технологию в истории? Ответ Сутскевера в первой строке: Сэм демонстрирует устойчивую тенденцию к... лжи.

Примеры очень конкретные. В декабре 2022 года Алтман заверил совет, что функции GPT-4 уже прошли проверку безопасности. Когда запрашивали документы о одобрении, выяснилось, что две из самых спорных — (кастомизация и внедрение личного помощника) — никогда не были одобрены. Потом был случай с Индией, где Microsoft запустила ChatGPT раньше, чем завершились проверки безопасности. Сутскевер также отметил, что Алтман говорил техническому директору Мира Мурати, что процесс безопасности не так важен, потому что юридический советник уже одобрил. Когда Мурати спросила у юрисконсульта? Он ответил: «Не знаю, откуда у Сэма это взялось».

Но самое холодное — это команда «супервыравнивания». В середине 2023 года Алтман связался со студентом из Беркли, исследующим выравнивание ИИ, очень обеспокоенным этой проблемой, говоря о гранте на исследования в 1 миллиард долларов. Этот парень закончил университет, поступил в OpenAI. Потом Алтман передумал: создал внутреннюю команду вместо грантов и публично заявил, что собирается выделить 20% вычислительных мощностей компании (потенциал более 1 миллиарда). Очень серьезный язык, речь идет о «вымирании человечества», если проблему выравнивания не решить.

На деле? Четыре человека, работавшие там, говорят, что было выделено всего 1-2% от общей мощности, и оборудование было старым. Команда была распущена, ничего не завершив. Когда журналисты попросили интервью у ответственных за «экзистенциальную безопасность», пресс-служба ответила: «Это не реально существующая вещь».

И есть еще. Сара Фрайар, финансовый директор OpenAI, серьезно не согласилась с Алтманом по поводу IPO. Она считает, что компания еще не готова — много бюрократии, и риск обещания Алтмана потратить 600 миллиардов на вычислительные мощности слишком высок. Но Алтман хочет ускориться к четвертому кварталу этого года. Абсурд? Фрайар больше не отчитывается напрямую перед Алтманом. С августа 2025 года она отчитывается перед Фиджи Симо, генеральным директором по бизнес-приложениям. А Симо в отпуске с прошлой недели.

Бывший член совета описал Алтмана так: у него есть сильное желание нравиться при личных встречах, но одновременно почти социопатская равнодушие к последствиям обмана. Очень редкое сочетание. Но для продавца? Это идеальный дар. Даже руководители Microsoft больше не выдерживают, говоря, что Алтман «искажает факты, нарушает обещания и постоянно отменяет договоренности». Один сравнил его с Берни Мэдоффом или SBF.

Почему это так важно? Потому что OpenAI — не обычная технологическая компания. Она разрабатывает технологии, способные перестроить глобальную экономику, создавать биохимическое оружие в масштабах или запускать кибератаки. Все механизмы безопасности сейчас — в основном формальность. Миссия без прибыли превратилась в гонку за IPO. Бывший главный ученый считает Алтмана ненадежным. Ответственный за безопасность ушел и основал Anthropic из-за фундаментальных разногласий о том, как должна развиваться ИИ.

Гэри Маркус, профессор ИИ в NYU, позже написал: если будущая модель OpenAI сможет создавать биохимическое оружие или катастрофические кибератаки, вы действительно чувствуете себя в безопасности, позволяя Алтману решать, выпускать или нет?

Ответ OpenAI? В основном проигнорировали конкретные обвинения, не опровергли меморандумы, лишь поставили под сомнение мотивы источников. Алтман не ответил прямо.

Десять лет OpenAI в одном абзаце: группа идеалистов создает НКО, озабоченную рисками ИИ, достигает заметных успехов, привлекает огромный капитал, капитал требует отдачи, миссия уступает место, команда по безопасности распущена, диссиденты изгнаны, структура без прибыли превращается в прибыльную организацию, совет, который мог бы закрыть компанию, теперь полон сторонников CEO. Более сотни свидетелей использовали один и тот же ярлык для главного героя: «не ограничен правдой». И сейчас он идет на IPO с оценкой выше 850 миллиардов.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить