Сэм Альтман: OpenAI оказался «не на той стороне истории» в отношении открытого исходного кода

В завершение дня, посвящённого выпуску продуктов, исследователи, инженеры и руководители OpenAI, в том числе генеральный директор OpenAI Сэм Альтман, ответили на вопросы в широкой дискуссии на Reddit AMA в пятницу.

Компания OpenAI оказалась в довольно шатком положении. Она борется с мнением, что уступает позиции в гонке AI китайским компаниям, таким как DeepSeek, которые, по утверждению OpenAI, могли украсть её интеллектуальную собственность. Разработчик ChatGPT пытается укрепить свои отношения с Вашингтоном и одновременно реализовать амбициозный проект центра обработки данных, а также, как сообщается, закладывает основу для одного из крупнейших в истории раундов финансирования.

Альтман заявил, что разработка DeepSeek позволила OpenAI сократить разрыв в сфере AI, и что, по его мнению, OpenAI «оказалась не на той стороне истории», когда дело дошло до открытого доступа к технологиям. Хотя в прошлом OpenAI предоставляла модели с открытым исходным кодом, в целом компания отдавала предпочтение проприетарному подходу к разработке, предполагающему закрытый исходный код.

«Я лично считаю, что нам нужно разработать другую стратегию с открытым исходным кодом, — сказал Альтман. — Не все в OpenAI разделяют эту точку зрения, и это не является нашим главным приоритетом на данный момент… Мы будем создавать более качественные модели в будущем, но будем отставать от конкурентов меньше, чем в предыдущие годы».

В ответном комментарии Кевин Вейл, директор по продуктам OpenAI, сказал, что компания рассматривает возможность публикации в открытом доступе более старых моделей, которые уже не являются передовыми. «Мы определённо подумаем о том, чтобы делать это чаще», — сказал он, не вдаваясь в подробности.

Помимо того, что DeepSeek побудил OpenAI пересмотреть свою философию выпуска новых моделей, Альтман отметил, что DeepSeek подтолкнул компанию к потенциальному раскрытию информации о том, как её так называемые модели рассуждений, такие как выпущенная модель o3-mini, демонстрируют свой «мыслительный процесс». В настоящее время модели OpenAI скрывают свои рассуждения — это стратегия, призванная помешать конкурентам собирать обучающие данные для своих собственных моделей. В отличие от них, модель рассуждений DeepSeek R1 демонстрирует всю цепочку рассуждений.

«Мы работаем над тем, чтобы показать гораздо больше, чем мы показываем сегодня, — демонстрация мыслительного процесса модели будет очень-очень скоро, — добавил Вейл. — Пока не решено — демонстрация всей цепочки мыслей приводит к конкурентной дистилляции, но мы также знаем, что люди (по крайней мере, опытные пользователи) хотят этого, поэтому мы найдём правильный способ сбалансировать это».

Альтман и Вейл попытались развеять слухи о том, что ChatGPT в будущем подорожает. Альтман сказал, что хотел бы со временем сделать ChatGPT «дешевле», если это возможно. Ранее Альтман заявил, что OpenAI теряет деньги на самом дорогом плане ChatGPT, ChatGPT Pro, который стоит 200 долларов в месяц.

В несколько схожем контексте Вейл сказал, что OpenAI продолжает получать доказательства того, что увеличение вычислительной мощности приводит к созданию «более качественных» и производительных моделей. По словам Вейла, именно это в значительной степени объясняет необходимость таких проектов, как Stargate, недавно анонсированный масштабный проект центра обработки данных OpenAI. Обслуживание растущей пользовательской базы также увеличивает спрос на вычислительные ресурсы в OpenAI, продолжил он.

На вопрос о рекурсивном самосовершенствовании, которое может быть обеспечено этими мощными моделями, Альтман ответил, что, по его мнению, «быстрый взлёт» более вероятен, чем он когда-то считал. Конечно, стоит отметить, что Альтман печально известен своими чрезмерными обещаниями. Не так давно он понизил планку OpenAI в отношении AGI.

Один из пользователей Reddit спросил, будут ли модели OpenAI, самообучающиеся или нет, использоваться для разработки разрушительного оружия — в частности, ядерного. На этой неделе OpenAI объявила о партнёрстве с правительством США и передала свои модели Национальным лабораториям США для исследований в области ядерной обороны.

Вейл сказал, что доверяет правительству.

«Я познакомился с этими учёными, и они не только исследователи мирового уровня, но и эксперты в области искусственного интеллекта, — сказал он. — Они понимают возможности и ограничения моделей, и я не думаю, что они просто возьмут и применят какую-нибудь модель для ядерных расчётов. Они умны, опираются на факты и проводят множество экспериментов и работу с данными, чтобы подтвердить результаты своей работы».

Команде OpenAI задали несколько вопросов более технического характера, например, когда будет выпущена следующая модель OpenAI для обработки данных («более чем через несколько недель, но менее чем через несколько месяцев», — сказал Альтман); когда может появиться следующая флагманская модель компании, не основанная на обработке данных, GPT-5 («пока нет сроков», — сказал Альтман); и когда OpenAI может представить преемника DALL-E 3, модели компании для создания изображений. DALL-E 3, выпущенный около двух лет назад, уже порядком устарел. С момента дебюта DALL-E 3 технологии создания изображений шагнули далеко вперёд, и модель больше не конкурентоспособна в ряде тестов.

«Да! Мы работаем над этим, — сказал Вейл о продолжении DALL-E 3. — И я думаю, что ожидание того стоит».

Источник

Материал опубликован при поддержке сайта habr.com
Комментарии

    Актуальные новости по теме "Array"