Кай-Фу Ли: Переход 01.AI на Deepseek как вызов для доминирования OpenAI в мире ИИ

Кай-Фу Ли, бывший руководитель Google China, изменяет направление своего стартапа в области искусственного интеллекта 01.AI, ставя акцент на полное использование моделей Deepseek с открытым исходным кодом. Он называет это решение экзистенциальной угрозой для бизнес-моделей OpenAI.

Компания Ли отошла от прежней стратегии, связанной с созданием собственных крупных языковых моделей, и теперь сосредоточена исключительно на открытых решениях Deepseek, что он подробно разъяснил в интервью изданию South China Morning Post.

В словах Ли звучит, что выход моделей Deepseek стал отправной точкой для так называемого «момента ChatGPT» в Китае, генерируя бурный интерес к приложениям в области ИИ. Этот сдвиг заставил множество китайских компаний в области аппаратного и программного обеспечения адаптировать свои предложения под стандарты Deepseek.

«Для нас было важно сделать Deepseek нашим основным направлением», — отметил Ли. Это решение было вызвано резким увеличением интереса к моделям Deepseek среди руководителей китайских компаний в конце января.

Ли утверждает, что бесплатный и открытый подход Deepseek представляет собой серьезный вызов для OpenAI.

«Самая большая тревога Сэма Альтмана в том, что его конкурент предлагает свои услуги без оплаты», — отмечает Ли, добавляя, что он столкнулся с множеством людей, которые отменили подписки на ChatGPT в пользу бесплатного Deepseek.

Свой стартап 01.AI, в котором работает 200 сотрудников, Ли теперь собирается настраивать модели Deepseek для клиентов из финансовой, игровой и юридической отраслей.

«Модель, прошедшая предварительное обучение, может быть оправдана лишь при наличии сотен миллионов пользователей», — сказал Ли. «Так что такие компании, как Alibaba, Google, Deepseek и ByteDance могут это себе позволить, но большинству других это не по зубам».

Ли уверен, что технический опыт его команды по-прежнему важен, несмотря на смену стратегии. «Как вести обучение, как настраивать модель, как реализовывать обучение с подкреплением, как быстро проводить вывод? Эти задачи могут решать лишь компании, обладающие возможностями LLM», — объясняет он.

Ли прогнозирует, что за первый квартал 2025 года доход составит 100 миллионов юаней (примерно 13 миллионов долларов), что равно общему доходу компании за 2024 год. Несмотря на это, 01.AI еще не достигла уровня прибыльности.

Недавно OpenAI и Anthropic обратились к правительству США с призывом запретить модели Deepseek, охарактеризовав стартап как «государственно поддерживаемый». Ли воспринимает это как «проявление паранойи». «Они видят, как их карточный домик начинает рушиться, когда кто-то сдает в аренду дом такой же отличной конструкции бесплатно», — отмечает Ли.

В другом интервью с Bloomberg Ли подчеркнул продолжающийся процесс консолидации крупных заранее обученных моделей как в США, так и в Китае. Он предсказывает, что открытое программное обеспечение в конечном итоге займет доминирующее положение, в то время как предварительное обучение крупных языковых моделей останется в руках немногих крупных компаний.

Ли отмечает значительную разницу в операционных расходах между двумя компаниями. Согласно его данным, OpenAI, вероятно, потратила 7 миллиардов долларов на операционные нужды в 2024 году, в то время как Deepseek требует лишь около 2% этой суммы.

«Таким образом, вопрос не в том, чья модель на 1% лучше. Я думаю, что все они весьма качественные. Вопрос в устойчивости модели OpenAI», — считает Ли.

Он описывает Deepseek как «бесконечно жизнеспособную», подчеркивая, что ее основатель обеспечен достаточным финансированием для поддержания работы и смог значительно сократить вычислительные расходы в 5–10 раз. «С таким внушительным соперником, я полагаю, Сэм Альтман не может спать спокойно», — добавляет Ли.