То есть: пока американцы вбухивали десятки миллиардов долларов на тренировку нейросетей, небольшая китайская компания смогла сделать нейронку не хуже, и всего за считанные миллионы долларов.
Секрет в том, что китайцы использовали большое количество оптимизационных приёмов, к которым приходилось прибегать в условиях жёсткой конкуренции при ограниченных ресурсах. Результат налицо: качество не хуже аналогов, при этом дешевле и Open Source.
Рынок в панике: получается, многомиллиардные затраты не требуются, если можно тренировать модели гораздо дешевле. Если смотреть под таким углом, то это потенциальная катастрофа для Nvidia и других производителей чипов, потому что десятки тысяч ИИ-чипов будут попросту невостребованы.
Но на самом деле можно посмотреть и под другим углом, который нам кажется логичнее.
Судите сами: в отрасли сейчас бешеная конкуренция, все борятся В ПЕРВУЮ ОЧЕРЕДЬ за долю рынка. Допустим, кто-то из игроков отрасли решит, что капзатраты не окупаются, и надо пилить новые нейронки в таком же "экономном" режиме, как и DeepSeek.
Что могут сделать конкуренты, вроде OpenAI? Попробовать внедрить оптимизационные "фишки" от DeepSeek (они подробно описали как добились результата), и получить потенциально гораздо более мощные модели, располагая тем огромным объемом вычислительных ресурсов.
Соответственно те, кто будет прибегать к экономии — окажутся не у дел, потому что нейронки тех, кто НЕ экономит, будут гораздо более продвинутыми.
=> достижения DeepSeek скорее выглядит как мощным катализатором для всей отрасли, который в среднесроке может только подстегнуть рост капзатрат. Все задаются вопросом, а стоят ли того все эти капзатраты — и когда будет возможность представить заметно более мощные модели нейронок за счёт оптимизационных подходов DeepSeek — тогда вопросы, думаем, отпадут.
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Жалоба
