- Каталог
- Серверное оборудование
- NVIDIA Tesla
- NVIDIA
- Графический ускоритель вычислений NVIDIA Tesla A30 24Gb OEM (900-21001-0040-000)
- Описание
Описание графического ускорителя вычислений NVIDIA Tesla A30 24Gb OEM (900-21001-0040-000)
ID: 410855
Коротко о товаре
- Архитектура графического процессора: NVIDIA Ampere
- Базовая частота чипа графического ускорителя: 930 МГц
- Число универсальных процессоров: 3584
- Объём памяти: 24 Гб
- Тип памяти: HBM2
- Частота видеопамяти: 1215 МГц
- Система охлаждения: пассивная
- TDP: 165 Вт
Полные характеристики
Нет в наличии
GPU NVIDIA A30 С ТЕНЗОРНЫМИ ЯДРАМИ
Универсальное ускорение вычислений для основных корпоративных серверов.
Инференс ИИ и вычисления для каждого предприятия
Обеспечьте ускорение для любой корпоративной рабочей нагрузки с помощью GPU NVIDIA A30 с тензорными ядрами. С архитектурой NVIDIA Ampere, тензорными ядрами и технологией MIG этот GPU обеспечивает безопасное ускорение для различных рабочих нагрузок, включая инференс ИИ и приложения для высокопроизводительных вычислений (HPC). Сочетая высокую пропускную способность памяти и низкое энергопотребление в форм-факторе PCIe, оптимальном для популярных серверов, A30 позволяет создать гибкий дата-центр и обеспечивает максимум прибыли для предприятий.
Дата центр для современной инфраструктуры
Архитектура NVIDIA Ampere является частью унифицированной платформы NVIDIA EGX и включает в себя составные элементы аппаратного, сетевого, программного обеспечения, библиотек и оптимизированных моделей ИИ и приложений из каталога NVIDIA NGC. Представляя собой самую производительную комплексную платформу для ИИ и HPC, HGX A100 позволяет получать результаты в реальном времени и разворачивать масштабируемые решения.
ТРЕНИРОВКА АЛГОРИТМОВ ГЛУБОКОГО ОБУЧЕНИЯ
Обучение моделей ИИ для решения продвинутых задач, таких как разговорный ИИ, требует большой вычислительной мощности и масштабируемости.
Тензорные ядра в NVIDIA A30 с поддержкой Tensor Float (TF32) повышают производительность в 10 раз по сравнению с NVIDIA T4 , не требуя изменений в коде, и в 2 раза ускоряют автоматическую функцию работы с различной точностью и FP16, в общем повышая производительность до 20 раз. При объединении с NVIDIA® NVLink, PCI Gen4, NVIDIA Mellanox® и SDK NVIDIA Magnum IO ускоритель A30 можно масштабировать в тысячи раз.
Тензорные ядра и MIG позволяют использовать A30 для рабочих нагрузок в течение дня. Его можно использовать для инференса при пиковом спросе, а часть GPU можно перепрофилировать для быстрой повторного обучения тех же самых моделей в часы наименьшей загрузки.
NVIDIA установила несколько рекордов производительности в отраслевом бенчмарке для обучения алгоритмов ИИ MLPerf.
ИНФЕРЕНС ГЛУБОКОГО ОБУЧЕНИЯ
A30 представляет революционные функции для оптимизации инференса. Он ускоряет широкий диапазон операций: от FP64 до TF32 и INT4. Поддерживая до четырех MIG на GPU, A30 позволяет нескольким сетям работать одновременно в защищенных аппаратных сегментах с гарантированным качеством обслуживания (QoS). А структурная поддержка разреженности повышает производительность до 2 раз помимо других преимуществ A30 в задачах инференса.
В современных разговорных моделях ИИ A30 в 3 раза увеличивает пропускную способность в реальном времени по сравнению с предыдущим поколением GPU NVIDIA V100 с тензорными ядрами.
При классификации изображений в реальном времени (которая требует задержки <7 мс) A30 увеличивает пропускную способность в 7 раз по сравнению с NVIDIA T4.
В MLPerf Inference была продемонстрирована ведущая в отрасли производительность NVIDIA. В сочетании с сервером для инференса NVIDIA Triton, который с легкостью развертывает ИИ в масштабе, A30 обеспечивает революционную производительность для любого предприятия.
ВЫСОКОПРОИЗВОДИТЕЛЬНЫЕ ВЫЧИСЛЕНИЯ
Чтобы совершать новые научные открытия, ученые обращаются к моделированию для лучшего понимания окружающего мира.
NVIDIA A30 на базе архитектуры NVIDIA Ampere с поддержкой FP64 оснащен тензорными ядрами, которые обеспечивают самый большой скачок в производительности HPC с момента появления GPU. В сочетании с 24 ГБ видеопамяти с пропускной способностью 933 ГБ/с исследователи могут быстро решать задачи с двойной точностью вычислений. Приложения для высокопроизводительных вычислений также могут использовать TF32 в A100 для достижения большей пропускной способности для точных операций.
Сочетание операций FP64 и MIG позволяет безопасно разделять GPU, что дает доступ нескольким исследователям к вычислительным ресурсам с гарантированным QoS и максимальной утилизацией GPU. Предприятия, развертывающие ИИ, могут использовать возможности инференса A30 в периоды максимальной нагрузки, а затем перепрофилировать одни и те же вычислительные серверы для тренировки HPC и ИИ в часы наименьшей загрузки.
ВЫСОКОПРОИЗВОДИТЕЛЬНЫЙ АНАЛИЗ ДАННЫХ
Специалистам по data science необходимо анализировать, визуализировать наборы данных и извлекать из них ценную информацию. Но помехой для горизонтально-масштабируемых решений зачастую становится распределенность наборов данных на нескольких серверах.
Чтобы справиться с рабочими нагрузками, ускоренные серверы с A30 обеспечивают необходимую вычислительную мощь наряду с огромной памятью HBM2, пропускной способностью 933 Гбит/с и масштабируемостью с NVLink. В сочетании с InfiniBand, NVIDIA Magnum IO и набором библиотек с открытым исходным кодом RAPIDS, включая RAPIDS Accelerator для Apache Spark, платформа NVIDIA для дата-центров позволяет ускорить эти ресурсоемкие задачи, обеспечивая непревзойденную производительность и эффективность.
УТИЛИЗАЦИЯ ИНФРАСТРУКТУРЫ
A30 с технологией Multi-Instance GPU (MIG) обеспечивает максимальную утилизацию инфраструктуры с ускорением на GPU. Технология MIG позволяет разделить GPU A30 на четыре отдельных инстанса и предоставить доступ к GPU большему числу пользователей.
MIG работает с контейнерами Kubernetes и виртуализацей серверов с гипервизором. MIG позволяет разработчикам инфраструктуры предлагать оптимальный размер GPU с гарантированным качеством обслуживания (QoS) для каждой задачи, повышая утилизацию и предоставляя доступ к ресурсам для ускоренных вычислений большему числу пользователей.
NVIDIA AI ENTERPRISE
NVIDIA AI Enterprise, комплексный набор ПО с поддержкой облака для ИИ и анализа данных, сертифицирован для работы на A30 в виртуальной инфраструктуре с гипервизорами с VMware vSphere. Это позволяет управлять и масштабировать рабочие нагрузки ИИ в гибридной облачной среде.
ПОПУЛЯРНЫЕ СЕРТИФИЦИРОВАННЫЕ СИСТЕМЫ NVIDIA
Сертифицированные системы NVIDIA с NVIDIA A30 объединяют вычислительное ускорение и высокоскоростные безопасные сети NVIDIA в серверах дата-центров, построенных и реализуемых партнерами NVIDIA. Эта программа позволяет потребителям определять, приобретать и развертывать системы для традиционных и современных приложений для работы с ИИ из каталога NVIDIA NGC в единой высокопроизводительной, экономичной и масштабируемой инфраструктуре.
Универсальное ускорение вычислений для основных корпоративных серверов.
Инференс ИИ и вычисления для каждого предприятия
Обеспечьте ускорение для любой корпоративной рабочей нагрузки с помощью GPU NVIDIA A30 с тензорными ядрами. С архитектурой NVIDIA Ampere, тензорными ядрами и технологией MIG этот GPU обеспечивает безопасное ускорение для различных рабочих нагрузок, включая инференс ИИ и приложения для высокопроизводительных вычислений (HPC). Сочетая высокую пропускную способность памяти и низкое энергопотребление в форм-факторе PCIe, оптимальном для популярных серверов, A30 позволяет создать гибкий дата-центр и обеспечивает максимум прибыли для предприятий.
Дата центр для современной инфраструктуры
Архитектура NVIDIA Ampere является частью унифицированной платформы NVIDIA EGX и включает в себя составные элементы аппаратного, сетевого, программного обеспечения, библиотек и оптимизированных моделей ИИ и приложений из каталога NVIDIA NGC. Представляя собой самую производительную комплексную платформу для ИИ и HPC, HGX A100 позволяет получать результаты в реальном времени и разворачивать масштабируемые решения.
ТРЕНИРОВКА АЛГОРИТМОВ ГЛУБОКОГО ОБУЧЕНИЯ
Обучение моделей ИИ для решения продвинутых задач, таких как разговорный ИИ, требует большой вычислительной мощности и масштабируемости.
Тензорные ядра в NVIDIA A30 с поддержкой Tensor Float (TF32) повышают производительность в 10 раз по сравнению с NVIDIA T4 , не требуя изменений в коде, и в 2 раза ускоряют автоматическую функцию работы с различной точностью и FP16, в общем повышая производительность до 20 раз. При объединении с NVIDIA® NVLink, PCI Gen4, NVIDIA Mellanox® и SDK NVIDIA Magnum IO ускоритель A30 можно масштабировать в тысячи раз.
Тензорные ядра и MIG позволяют использовать A30 для рабочих нагрузок в течение дня. Его можно использовать для инференса при пиковом спросе, а часть GPU можно перепрофилировать для быстрой повторного обучения тех же самых моделей в часы наименьшей загрузки.
NVIDIA установила несколько рекордов производительности в отраслевом бенчмарке для обучения алгоритмов ИИ MLPerf.
ИНФЕРЕНС ГЛУБОКОГО ОБУЧЕНИЯ
A30 представляет революционные функции для оптимизации инференса. Он ускоряет широкий диапазон операций: от FP64 до TF32 и INT4. Поддерживая до четырех MIG на GPU, A30 позволяет нескольким сетям работать одновременно в защищенных аппаратных сегментах с гарантированным качеством обслуживания (QoS). А структурная поддержка разреженности повышает производительность до 2 раз помимо других преимуществ A30 в задачах инференса.
В современных разговорных моделях ИИ A30 в 3 раза увеличивает пропускную способность в реальном времени по сравнению с предыдущим поколением GPU NVIDIA V100 с тензорными ядрами.
При классификации изображений в реальном времени (которая требует задержки <7 мс) A30 увеличивает пропускную способность в 7 раз по сравнению с NVIDIA T4.
В MLPerf Inference была продемонстрирована ведущая в отрасли производительность NVIDIA. В сочетании с сервером для инференса NVIDIA Triton, который с легкостью развертывает ИИ в масштабе, A30 обеспечивает революционную производительность для любого предприятия.
ВЫСОКОПРОИЗВОДИТЕЛЬНЫЕ ВЫЧИСЛЕНИЯ
Чтобы совершать новые научные открытия, ученые обращаются к моделированию для лучшего понимания окружающего мира.
NVIDIA A30 на базе архитектуры NVIDIA Ampere с поддержкой FP64 оснащен тензорными ядрами, которые обеспечивают самый большой скачок в производительности HPC с момента появления GPU. В сочетании с 24 ГБ видеопамяти с пропускной способностью 933 ГБ/с исследователи могут быстро решать задачи с двойной точностью вычислений. Приложения для высокопроизводительных вычислений также могут использовать TF32 в A100 для достижения большей пропускной способности для точных операций.
Сочетание операций FP64 и MIG позволяет безопасно разделять GPU, что дает доступ нескольким исследователям к вычислительным ресурсам с гарантированным QoS и максимальной утилизацией GPU. Предприятия, развертывающие ИИ, могут использовать возможности инференса A30 в периоды максимальной нагрузки, а затем перепрофилировать одни и те же вычислительные серверы для тренировки HPC и ИИ в часы наименьшей загрузки.
ВЫСОКОПРОИЗВОДИТЕЛЬНЫЙ АНАЛИЗ ДАННЫХ
Специалистам по data science необходимо анализировать, визуализировать наборы данных и извлекать из них ценную информацию. Но помехой для горизонтально-масштабируемых решений зачастую становится распределенность наборов данных на нескольких серверах.
Чтобы справиться с рабочими нагрузками, ускоренные серверы с A30 обеспечивают необходимую вычислительную мощь наряду с огромной памятью HBM2, пропускной способностью 933 Гбит/с и масштабируемостью с NVLink. В сочетании с InfiniBand, NVIDIA Magnum IO и набором библиотек с открытым исходным кодом RAPIDS, включая RAPIDS Accelerator для Apache Spark, платформа NVIDIA для дата-центров позволяет ускорить эти ресурсоемкие задачи, обеспечивая непревзойденную производительность и эффективность.
УТИЛИЗАЦИЯ ИНФРАСТРУКТУРЫ
A30 с технологией Multi-Instance GPU (MIG) обеспечивает максимальную утилизацию инфраструктуры с ускорением на GPU. Технология MIG позволяет разделить GPU A30 на четыре отдельных инстанса и предоставить доступ к GPU большему числу пользователей.
MIG работает с контейнерами Kubernetes и виртуализацей серверов с гипервизором. MIG позволяет разработчикам инфраструктуры предлагать оптимальный размер GPU с гарантированным качеством обслуживания (QoS) для каждой задачи, повышая утилизацию и предоставляя доступ к ресурсам для ускоренных вычислений большему числу пользователей.
NVIDIA AI ENTERPRISE
NVIDIA AI Enterprise, комплексный набор ПО с поддержкой облака для ИИ и анализа данных, сертифицирован для работы на A30 в виртуальной инфраструктуре с гипервизорами с VMware vSphere. Это позволяет управлять и масштабировать рабочие нагрузки ИИ в гибридной облачной среде.
ПОПУЛЯРНЫЕ СЕРТИФИЦИРОВАННЫЕ СИСТЕМЫ NVIDIA
Сертифицированные системы NVIDIA с NVIDIA A30 объединяют вычислительное ускорение и высокоскоростные безопасные сети NVIDIA в серверах дата-центров, построенных и реализуемых партнерами NVIDIA. Эта программа позволяет потребителям определять, приобретать и развертывать системы для традиционных и современных приложений для работы с ИИ из каталога NVIDIA NGC в единой высокопроизводительной, экономичной и масштабируемой инфраструктуре.