Секрет успеха Together AI: как революция DeepSeek-R1 спровоцировала бум на графические процессоры с инвестициями в 305 миллионов

Когда DeepSeek-R1 только появился на рынке, в индустрии возникли опасения, что сложные вычисления станут доступными на менее мощных инфраструктурах.

Тем не менее, это оказалось не совсем верным. По мнению Together AI, развитие DeepSeek и открытых алгоритмов привело к противоположному результату: вместо уменьшения потребностей в инфраструктуре, они только возросли.

Этот рост спроса положительно сказался на развитии платформы и бизнеса Together AI. Сегодня компания сообщила о привлечении 305 миллионов долларов в рамках раунда финансирования серии B, который возглавили General Catalyst и Prosperity7. Together AI была основана в 2023 году с целью упростить применение крупных языковых моделей (LLM) с открытым исходным кодом в бизнесе. В 2024 году компания расширила свои предложения, представив корпоративную платформу Together, которая позволяет развертывать ИИ в виртуальных частных облаках (VPC) и локально. В 2025 году Together AI опять обновила свою платформу, добавив кластеры логического мышления и функции агентного ИИ.

По данным компании, на её платформе зарегистрировано свыше 450 000 разработчиков, а бизнес за последний год вырос в 6 раз. Среди её клиентов находятся как крупные компании, так и стартапы в области ИИ, такие как Krea AI, Captions и Pika Labs.

«На данный момент мы применяем модели во многих областях: от текстов и мышления до изображений, аудио и видео», — поделился Випул Пракаш, генеральный директор Together AI.

DeepSeek-R1 произвёл революцию в момент своего появления на рынке. Одной из причин этого стало то, что продвинутая модель логического вывода с открытым исходным кодом может быть разработана и внедрена с меньшими затратами на инфраструктуру по сравнению с закрытыми аналогами.

Однако, как пояснил Пракаш, Together AI расширила свою инфраструктуру в ответ на увеличенный спрос на рабочие нагрузки, связанные с DeepSeek-R1.

«Это достаточно затратная модель для логического вывода, — отметил он. — В ней 671 миллиард параметров, требующих распределения между множеством серверов. Поскольку качество модели высокое, спрос на неё также возрастает, что в свою очередь увеличивает потребности в ресурсах».

Кроме того, он добавил, что обработка запросов DeepSeek-R1 занимает больше времени — от двух до трёх минут. Значительный пользовательский интерес к DeepSeek-R1 также способствует росту нужды в дополнительной инфраструктуре.

Для удовлетворения этого запроса компания Together AI запустила сервис, известный как «Кластеры для логических вычислений», который предоставляет выделенные ресурсы — от 128 до 2000 процессоров — для обеспечения максимальной производительности моделей.

Кроме того, Together AI замечает рост потребности в инфраструктуре, поскольку её пользователи внедряют агентный ИИ. Пракаш пояснил, что агентные процессы, при которых один запрос приводит к множеству вызовов API для выполнения задачи, создают значительно большую нагрузку на инфраструктуру Together AI.

Чтобы поддержать эти агентные рабочие нагрузки, Together AI недавно приобрела CodeSandbox, технологии которой позволяют создавать легковесные, быстро загружаемые виртуальные машины (ВМ) для выполнения безопасного кода в облаке компании, где также размещены языковые модели. Это новшество уменьшает время ожидания между агентским кодом и необходимыми моделями, что повышает эффективность рабочих процессов.

К ко всем платформам ИИ предъявляются растущие требования. Это одна из причин, по которой Nvidia продолжает внедрять новые графические процессоры, обеспечивающие более высокую производительность. Последней новинкой от Nvidia стал графический процессор Blackwell, который уже используется в Together AI.

Пракаш отметил, что чипы Nvidia Blackwell стоят примерно на 25% дороже предыдущего поколения, однако обеспечивают в 2 раза большую производительность. Платформа GB 200 с чипами Blackwell идеально подходит для обучения и логического вывода моделей «смесь экспертов» (MoE), которые обучаются на нескольких серверах, подключенных через InfiniBand. Он также ожидал, что чипы Blackwell обеспечат повышение производительности для обработки более крупных моделей по сравнению с меньшими.

«Например, мы обеспечиваем скорость обработки для модели DeepSeek-R1 на уровне 85 токенов в секунду, в то время как Azure — лишь 7 токенов в секунду, — отметил Пракаш. — Разница в производительности и стоимости, которую мы можем предложить нашим клиентам, действительно значительна».

Источник