Аналитики выяснили подлинные затраты DeepSeek на подготовку ИИ

Аналитики выяснили подлинные затраты DeepSeek на подготовку ИИ

Аналитики выяснили подлинные затраты DeepSeek на подготовку ИИ

Китайский стартап в сфере ИИ DeepSeek инвестировал около 1,6 млрд долларов в обучение крупномасштабной языковой модели с возможностью размышления R1, хотя ранее упоминалась сумма всего в 6 млн долларов.

Об этом говорится в докладе от SemiAnalysis.

У Mind появился Telegram-канал Mind tweet, где вы первыми узнаете главные новости, оказывающие влияние на экономику и бизнес. Подпишитесь, чтобы сэкономить время и деньги.

Сообщается, что стоимость обучения DeepSeek-R1 стала ключевой темой обсуждения вокруг китайского стартапа, так как его разработчикам удалось достичь уровня OpenAI при значительно меньших расходах. Несмотря на разные предыдущие предположения, аналитики SemiAnalysis сообщают, что DeepSeek использует порядка 50 тысяч чипов ИИ Hopper от NVIDIA и ожидает получения еще 10 тысяч.

Из-за экспортных ограничений США для Китая DeepSeek применяет не только чипы H100, которые до выхода BlackWell считались лучшими в индустрии, но и менее производительные H800, специально разработанные для китайского рынка H20, а также A100.

Наибольшую часть среди используемых в стартапе чипов составляют H20 — около 30 тысяч, с учетом дополнительных заказов. Кроме того, компания располагает по 10 тысяч чипов H100, H800 и A100.

Регион:

Распечатать

Все статьи