Активируйте JavaScript для полноценного использования elitetrader.ru Проверьте настройки браузера.
Google #GOOG — оптимизация памяти в AI меняет экономику дата-центров » Элитный трейдер
Элитный трейдер
Искать автора

Google #GOOG — оптимизация памяти в AI меняет экономику дата-центров

Сегодня, 16:28 Invest Era | Alphabet

Google представила набор новых алгоритмов — TurboQuant, PolarQuant, Quantized Johnson-Lindenstrauss, — направленных на снижение потребления памяти при работе LLM и векторного поиска.

Рынок отреагировал сливом производителей чипов памяти. За неделю:

▪️ Micron Technology −15%.

▪️ Western Digital −6%.

▪️ Seagate Technology −7%.

▪️ SanDisk −13%.

Инвесторы увидели потенциальный риск для спроса на память и хранение.

📌 Что именно сделала Google

Google сфокусировалась на векторной компрессии и уменьшении memory overhead — памяти, которая используется на служебные нужды, а не для прямого решения задач:

▪️ TurboQuant оптимизирует хранение embedding’ов (ключевая нагрузка в LLM и search).

▪️ Алгоритм Johnson-Lindenstrauss transform уменьшает размер данных, сохраняя расстояния между точками.

▪️ PolarQuant снижает overhead за счет другой геометрии представления данных.

Меньше памяти => меньше требований к DRAM / SSD => ниже стоимость инференса.

Но сегодняшний ИИ-бум держится на обратной логике: больше моделей => больше параметров => больше памяти (HBM, DRAM, SSD).

Именно поэтому Micron Technology — один из главных бенефициаров ИИ-цикла, цены на память резко выросли и возник структурный дефицит DRAM / NAND.

Теперь Google показывает альтернативный вектор: оптимизация вместо масштабирования.

📊 Что говорят аналитики по теме

▪️ Память — одно из главных бутылочных горлышек в ИИ. Инфраструктура всё больше упирается не в вычислительные мощности, а в пропускную способность и стоимость хранения данных.

▪️ Исследования Google Research и академические публикации, включая ICLR, показывают, что embedding и retrieval-системы занимают огромные объемы памяти, особенно при масштабировании.

▪️ Оптимизация памяти — ключевой тренд. По данным NVIDIA и отраслевых материалов, эффективность ИИ всё чаще измеряется не в мощности как таковой, а в cost per token / cost per inference, где память — критический фактор.

То есть Google двигается в абсолютно логичном направлении рынка.

⚖️ Насколько сильная угроза для Micron и других

❌ Короткий ответ — не сейчас.
⚠️ Но стратегически да, это риск.

📌 Почему краткосрочно это не ломает тезис по памяти

Спрос всё еще сильно больше предложения. Даже сами компании, включая Micron, говорят, что дефицит памяти может сохраняться до 2027–2028 годов.

ИИ продолжает расти быстрее этих оптимизаций. Даже если объем памяти на модель падает, количество моделей и данных растет быстрее. А HBM, например, как категория памяти, остается критичной. Оптимизации касаются больше storage и embedding, но не убирают потребность в высокопропускной памяти.

Однако в целом снижение объема необходимой памяти как тренд — это тезис за нормализацию цены в будущем и скорое прохождение пика цикла. Рынок начинает оптимизировать, а не просто масштабировать системы. Это сигнал о возможной потере производителями ценовой власти уже совсем скоро.

🎯 Итог

Новость не про «революцию сегодня», а про сдвиг парадигмы. Сейчас цикл остается сильным, и память всё еще в дефиците. Но крупные игроки уже ищут способы снизить зависимость от цикла.

Нормализация цен и окончание цикла роста в памяти после появления новой технологии произойдут раньше. Также не стоит забывать, что рынок отыгрывает будущее, что может давить на котировки MU и ко и не даст им обновить свои максимумы.