Компания утверждала, что потратила всего 6 миллионов долларов и использовала 2 048 графических процессоров (GPU) для обучения нейросети DeepSeek V3.
Но похоже это не совсем так, сообщает 24 Канал со ссылкой на данные SemiAnalysis. В ходе расследования оказалось, что реальные масштабы вычислительной инфраструктуры DeepSeek гораздо больше, а общие инвестиции в развитие компании превышают 1,6 миллиарда долларов.Не пропустите Что такое проект Stargate, о котором говорит вся сфера искусственного интеллектаПо данным SemiAnalysis, DeepSeek управляет огромной вычислительной инфраструктурой, насчитывающей около 50 000 видеокарт Nvidia Hopper.
Среди них:10 000 H800 10 000 H100 Дополнительные партии H20Эти ресурсы распределены между несколькими дата-центрами и используются для обучения ИИ, исследований и финансового моделирования.
Читать на 24tv.ua