Мощнее Meta и OpenAI: китайский стартап DeepSeek представил ИИ-модель

artificial intelligence

Китайский ИИ-стартап DeepSeek презентовал новую большую языковую модель, которая, согласно тестам, превосходит аналоги от Meta и OpenAI.

Модель DeepSeek V3 обладает 671 млрд параметров, что превышает 405 млрд у Llama 3.1. Это говорит о большей способности адаптироваться к сложным задачам и обеспечивать более точные ответы.

image 151

Компания из Ханчжоу обучила нейросеть за два месяца с бюджетом 5,58 млн долларов, используя всего 2048 графических процессоров. Это значительно меньше, чем обычно требуется крупным технологическим компаниям. DeepSeek обещает лучшее соотношение цена/качество на рынке.

В будущем стартап планирует добавить мультимодальность и «другие передовые функции».

Член команды OpenAI Андрей Карпати назвал разработку DeepSeek впечатляющей, особенно в условиях ограниченных ресурсов.

«Это не означает, что большие кластеры GPU больше не нужны для создания продвинутых LLM. Но важно не растрачивать имеющиеся ресурсы. Этот проект демонстрирует, что многое еще можно улучшить как в данных, так и в алгоритмах», — отметил Карпати.

Ранее DeepSeek выпустила «конкурента o1 от OpenAI» — продвинутую «думающую» модель DeepSeek-R1-Lite-Preview.

Напомним, в июле китайская компания Kuaishou открыла доступ к своей ИИ-модели для генерации видео Kling.