Google и Amazon разрабатывают собственные чипы для ИИ: один для запуска моделей, другой для их обучения, конкурируя с Nvidia. Новый чип Google имеет большой объем статической оперативной памяти, как и предстоящий продукт Nvidia.
Google, после многолетних исследований в области разработки чипов, способных обучать модели искусственного интеллекта и выполнять задачи вывода информации, представила восьмое поколение тензорных процессоров (TPU). Эти изменения направлены на то, чтобы бросить вызов лидеру в сфере ИИ, компании Nvidia.
В своем блоге Амин Вахдат, старший вице-президент Google и главный технолог по ИИ и инфраструктуре, объяснил, что с появлением агентов искусственного интеллекта возникла потребность в специализированных чипах, которые бы индивидуально подходили для обучения и обслуживания.
В марте компания Nvidia анонсировала свои разработки, которые позволят моделям ИИ быстро отвечать на вопросы пользователей, благодаря технологиям, приобретенным у стартапа Groq в рамках сделки на 20 миллиардов долларов. Google, являясь крупным клиентом Nvidia, предлагает TPU в качестве альтернативы для компаний, использующих облачные сервисы Nvidia.
Многие ведущие технологические компании, включая Apple и Microsoft, уже много лет разрабатывают специализированные полупроводниковые решения для ИИ. В январе компания Meta (признана в РФ экстремистской и запрещена) объявила о сотрудничестве с Broadcom для создания нескольких версий процессоров ИИ.
Google одной из первых начала использовать собственные процессоры для запуска моделей ИИ в 2015 году и стала сдавать их в аренду облачным клиентам в 2018 году. Amazon Web Services также анонсировала свой чип Inferentia в 2018 году и представила процессор Trainium для обучения моделей ИИ в 2020 году.
Аналитики DA Davidson оценили бизнес TPU Google в сочетании с группой Google DeepMind AI в 900 миллиардов долларов.
Хотя ни один из технологических гигантов не пытается вытеснить Nvidia, Google не сравнивает производительность своих новых чипов с чипами лидера в области ИИ. Компания заявила, что обучающий чип обеспечивает в 2,8 раза большую производительность по сравнению с TPU Ironwood седьмого поколения, при той же цене. Производительность процессора для вывода результатов у нового чипа на 80% выше Ironwood.
Nvidia также анонсировала свой будущий процессор Groq 3 LPU, который будет использовать большие объемы статической оперативной памяти (SRAM), применяемой в компании Cerebras, производителе чипов для ИИ, подавшем заявку на первичное размещение акций в начале года. Новый чип для инференции от Google, TPU 8i, также использует SRAM, причем каждый чип содержит 384 мегабайта SRAM, что в три раза больше, чем Ironwood.
Архитектура TPU 8i разработана для обеспечения высокой пропускной способности и низкой задержки, необходимых для одновременной и экономически эффективной работы миллионов агентов, как отметил Сундар Пичаи, генеральный директор Alphabet, материнской компании Google, в своем блоге.
Внедрение чипов Google для ИИ набирает обороты. Компания Citadel Securities разработала программное обеспечение для количественных исследований, использующее TPU Google, а все 17 национальных лабораторий Министерства энергетики США используют программное обеспечение для совместной работы ученых в области ИИ, созданное на основе этих чипов. Компания Anthropic обязалась использовать TPU Google мощностью в несколько гигаватт.
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Жалоба

