3 декабря 2019 Вести Экономика | NVIDIA
Основными задачами искусственного интеллекта (ИИ) являются обучение и инференс. Первый - это процесс подготовки моделей искусственного интеллекта для производственных приложений, требующий больших объемов данных. Обучение модели искусственного интеллекта гарантирует, что она может точно и автоматизированно выполнять поставленные перед ней задачи, такие как распознавание лиц или понимание речи человека.
Инференс – это та задача, для выполнения которой необходимы обученные нейронные сети. Так как новые данные поступают в систему в виде изображений, речи, поисковых запросов по изображениям, именно инференс позволяет находить ответы и давать рекомендации, что лежит в основе большинства сервисов искусственного интеллекта.
Инференс - это крупный бизнес, и он должен стать крупнейшим драйвером роста ИИ. Согласно подсчетам McKinsey к 2025 г. распространение инференс-оборудования ИИ в центре обработки данных будут вдвое выше, чем оборудования для тренировки ИИ (от $9 млрд до $10 млрд против $4-5 млрд сегодня). При развертывании периферийных устройств рынок инференс-решений к тому же году в три раза увеличится по сравнению с рынком аппаратного обеспечения для обучения алгоритмов.
По прогнозам Tractica, рынок чипсетов для глубокого обучения увеличится с $1,6 млрд в 2017 г. до $66,3 млрд к 2025 г.
Nvidia будет расти лучше, чем ожидалось, благодаря своему раннему лидерству в области чипов аппаратных ускорителей ИИ для платформ инференса, пишет MarketWatch. Это преимущество должно сохраняться по крайней мере в течение следующих двух лет, учитывая рост отрасли, а также существующий ассортимент продукции и позиционирование компании.
В большинстве серверных и облачных приложений машинного обучения, глубокого обучения и обработки естественного языка графический процессор (GPU) является основной архитектурой микросхем, используемых как для обучения, так и для инференса. GPU - это программируемый процессор, предназначенный для быстрой визуализации изображений и видео высокого разрешения, изначально использовавшийся в играх.
Самое большое преимущество Nvidia - и, возможно, самая большая уязвимость перед конкурентами - заключается в технологии ее основных чипсетов. GPU Nvidia были оптимизированы в первую очередь для крупномасштабного и высокоскоростного обучения моделей искусственного интеллекта, хотя они также используются в задачах инференса в большинстве серверных приложений для машинного обучения. Сегодня эта GPU-технология является существенным конкурентным преимуществом на рынке инференса в дата-центре.
GPU-ускорение для инференса глубокого обучения дает возможность крупным нейросетям работать практически в режиме реального времени, не требуя увеличения затрат на аппаратную часть. По оценкам Nvidia, это обеспечивает высокую точность работы сетей с целочисленной математикой и данными с плавающей точкой, что в свою очередь позволяет сократить серверные затраты до 70%.
Сервер, оснащенный одним GPU, обеспечивает в разы более высокую производительность в задачах инференса по сравнению с сервером на основе процессора (CPU), что приводит к значительному снижению затрат на инфраструктуру дата-центра.
В чем разница между GPU и CPU? Проще говоря, центральный процессор - это мозг компьютера, а GPU выступает в роли специализированного микропроцессора. CPU может справляться с несколькими задачами, а GPU может справляться с меньшим числом задач, но очень быстро.
В то время как графические процессоры Nvidia способны выполнять самые ресурсоемкие ИИ-задачи в облачных и серверных платформах, GPU не так экономичны для автоматизации инференса в мобильных, IoT и других приложениях "периферийных вычислений".
Такие технологии, как CPU, ASIC, FPGA и различные нейросетевые процессоры, имеют преимущества в производительности, стоимости и энергоэффективности по сравнению с GPU для инференса искусственного интеллекта в ярде случаев, например в сфере самоуправляемых автомобилей и робототехники.
Nvidia, несомненно, признает, что гораздо большие возможности открываются благодаря решениям для инференса нейросетей и другим компонентам, оптимизированным для развертывания в периферийных устройствах. Однако компания работает над тем, чтобы расширить или усовершенствовать свои текущие предложения за счет более дешевых специализированных чипов искусственного интеллекта для работы с этой важной частью рынка.
Nvidia продолжает совершенствовать свою GPU-технологию, чтобы сократить разрыв в производительности по сравнению с другими чиповыми архитектурами. Одним из заметных недавних достижений стал недавний выпуск нового модуля Jetson Xavier NX, который нацелен на выполнение высоконагруженных задач и, в частности, ИИ.
Как отмечается, с выпуском Jetson Xavier NX открываются новые возможности для выпуска встраиваемых периферийных вычислительных устройств, которые требуют повышенной производительности, но ограничены размером, весом, энергопотреблением или стоимостью. К таковым относятся небольшие коммерческие роботы, беспилотники, различные интеллектуальные датчики высокого разрешения для индустриального применения, сетевые видеорегистраторы, портативные медицинские устройства и другие промышленные системы IoT.
Значительные возможности, связанные с ростом решений для инференса глубокого обучения будут стимулировать инновации и конкуренцию для разработки более мощных и доступных решений искусственного интеллекта. С большими ресурсами и возможностями, несомненно, у Nvidia есть вероятность осуществить прорыв, который может быстро изменить позиции в сфере ИИ-инференса.
Дэниел Ньюман, ведущий аналитик Futurum Research, считает, что сильная рыночная позиция Nvidia сохранится по крайней мере в течение следующих 24 месяцев. В связи с тем, что компания уделяет повышенное внимание недорогим ускорителям для инференса, а также высокопроизводительному оборудованию для всех рабочих нагрузок ИИ, предлагает распространенные библиотеки алгоритмов, API и вспомогательные программные продукты, предназначенные для решения широкого спектра задач AI. Любому конкуренту все это нужно было бы сделать лучше, чем у Nvidia. Это была бы непростая, но вполне выполнимая задача.
Инференс – это та задача, для выполнения которой необходимы обученные нейронные сети. Так как новые данные поступают в систему в виде изображений, речи, поисковых запросов по изображениям, именно инференс позволяет находить ответы и давать рекомендации, что лежит в основе большинства сервисов искусственного интеллекта.
Инференс - это крупный бизнес, и он должен стать крупнейшим драйвером роста ИИ. Согласно подсчетам McKinsey к 2025 г. распространение инференс-оборудования ИИ в центре обработки данных будут вдвое выше, чем оборудования для тренировки ИИ (от $9 млрд до $10 млрд против $4-5 млрд сегодня). При развертывании периферийных устройств рынок инференс-решений к тому же году в три раза увеличится по сравнению с рынком аппаратного обеспечения для обучения алгоритмов.
По прогнозам Tractica, рынок чипсетов для глубокого обучения увеличится с $1,6 млрд в 2017 г. до $66,3 млрд к 2025 г.
Nvidia будет расти лучше, чем ожидалось, благодаря своему раннему лидерству в области чипов аппаратных ускорителей ИИ для платформ инференса, пишет MarketWatch. Это преимущество должно сохраняться по крайней мере в течение следующих двух лет, учитывая рост отрасли, а также существующий ассортимент продукции и позиционирование компании.
В большинстве серверных и облачных приложений машинного обучения, глубокого обучения и обработки естественного языка графический процессор (GPU) является основной архитектурой микросхем, используемых как для обучения, так и для инференса. GPU - это программируемый процессор, предназначенный для быстрой визуализации изображений и видео высокого разрешения, изначально использовавшийся в играх.
Самое большое преимущество Nvidia - и, возможно, самая большая уязвимость перед конкурентами - заключается в технологии ее основных чипсетов. GPU Nvidia были оптимизированы в первую очередь для крупномасштабного и высокоскоростного обучения моделей искусственного интеллекта, хотя они также используются в задачах инференса в большинстве серверных приложений для машинного обучения. Сегодня эта GPU-технология является существенным конкурентным преимуществом на рынке инференса в дата-центре.
GPU-ускорение для инференса глубокого обучения дает возможность крупным нейросетям работать практически в режиме реального времени, не требуя увеличения затрат на аппаратную часть. По оценкам Nvidia, это обеспечивает высокую точность работы сетей с целочисленной математикой и данными с плавающей точкой, что в свою очередь позволяет сократить серверные затраты до 70%.
Сервер, оснащенный одним GPU, обеспечивает в разы более высокую производительность в задачах инференса по сравнению с сервером на основе процессора (CPU), что приводит к значительному снижению затрат на инфраструктуру дата-центра.
В чем разница между GPU и CPU? Проще говоря, центральный процессор - это мозг компьютера, а GPU выступает в роли специализированного микропроцессора. CPU может справляться с несколькими задачами, а GPU может справляться с меньшим числом задач, но очень быстро.
В то время как графические процессоры Nvidia способны выполнять самые ресурсоемкие ИИ-задачи в облачных и серверных платформах, GPU не так экономичны для автоматизации инференса в мобильных, IoT и других приложениях "периферийных вычислений".
Такие технологии, как CPU, ASIC, FPGA и различные нейросетевые процессоры, имеют преимущества в производительности, стоимости и энергоэффективности по сравнению с GPU для инференса искусственного интеллекта в ярде случаев, например в сфере самоуправляемых автомобилей и робототехники.
Nvidia, несомненно, признает, что гораздо большие возможности открываются благодаря решениям для инференса нейросетей и другим компонентам, оптимизированным для развертывания в периферийных устройствах. Однако компания работает над тем, чтобы расширить или усовершенствовать свои текущие предложения за счет более дешевых специализированных чипов искусственного интеллекта для работы с этой важной частью рынка.
Nvidia продолжает совершенствовать свою GPU-технологию, чтобы сократить разрыв в производительности по сравнению с другими чиповыми архитектурами. Одним из заметных недавних достижений стал недавний выпуск нового модуля Jetson Xavier NX, который нацелен на выполнение высоконагруженных задач и, в частности, ИИ.
Как отмечается, с выпуском Jetson Xavier NX открываются новые возможности для выпуска встраиваемых периферийных вычислительных устройств, которые требуют повышенной производительности, но ограничены размером, весом, энергопотреблением или стоимостью. К таковым относятся небольшие коммерческие роботы, беспилотники, различные интеллектуальные датчики высокого разрешения для индустриального применения, сетевые видеорегистраторы, портативные медицинские устройства и другие промышленные системы IoT.
Значительные возможности, связанные с ростом решений для инференса глубокого обучения будут стимулировать инновации и конкуренцию для разработки более мощных и доступных решений искусственного интеллекта. С большими ресурсами и возможностями, несомненно, у Nvidia есть вероятность осуществить прорыв, который может быстро изменить позиции в сфере ИИ-инференса.
Дэниел Ньюман, ведущий аналитик Futurum Research, считает, что сильная рыночная позиция Nvidia сохранится по крайней мере в течение следующих 24 месяцев. В связи с тем, что компания уделяет повышенное внимание недорогим ускорителям для инференса, а также высокопроизводительному оборудованию для всех рабочих нагрузок ИИ, предлагает распространенные библиотеки алгоритмов, API и вспомогательные программные продукты, предназначенные для решения широкого спектра задач AI. Любому конкуренту все это нужно было бы сделать лучше, чем у Nvidia. Это была бы непростая, но вполне выполнимая задача.
Не является индивидуальной инвестиционной рекомендацией | При копировании ссылка обязательна | Нашли ошибку - выделить и нажать Ctrl+Enter | Жалоба