OpenAI планирует создать собственный процессор для ИИ
OpenAI собирается снизить свою зависимость от Nvidia и разработать собственный чип для ИИ вместе с Broadcom. Это партнерство может изменить правила игры на рынке ИИ-технологий и укрепить позиции компании в индустрии.
OpenAI, один из лидеров в области искусственного интеллекта, находится в процессе переговоров с Broadcom о создании собственного процессора для ИИ. Компании хочет стать более независимой и управлять своими технологиями самостоятельно. На данный момент OpenAI сильно зависит от графических процессоров Nvidia для обучения и запуска своих моделей ИИ, что создает определенные ограничения и увеличивает расходы.
Почему Broadcom? Эта компания славится своими полупроводниковыми и инфраструктурными программными продуктами и имеет огромный опыт в разработке специализированных ускорителей ИИ. Одним из примеров успешной работы Broadcom является сотрудничество с Google над созданием тензорных процессоров (TPU), которые сейчас уже используются в шестом поколении. Эти процессоры показывают высокую производительность и могут масштабироваться, что делает Broadcom идеальным партнером для OpenAI.
Если партнерство состоится, OpenAI сможет воспользоваться специализированными решениями ASIC от Broadcom, которые будут адаптированы под конкретные потребности компании. Broadcom также предоставляет широкий ассортимент решений для центров обработки данных, включая сетевые компоненты, контроллеры PCIe, контроллеры SSD и заказные ASIC. Такая интеграция позволит OpenAI существенно сократить свою зависимость от Nvidia и других поставщиков, а также снизить расходы на эксплуатацию и поддержку своих ИИ-моделей.
Однако, несмотря на все плюсы, выпуск собственного процессора ожидается не раньше 2026 года. На сегодняшний день Nvidia занимает доминирующее положение на рынке ИИ-технологий, контролируя более 70% рынка графических процессоров, который оценивается в 150 миллиардов долларов. Тем не менее, стремление OpenAI создать собственный чип может изменить расстановку сил на этом рынке и внести свежие и доступные решения, хотя Nvidia не боится этой конкуренции.
Написать комментарий