Перейти к содержимому

Новое сотрудничество между Amazon Web Services и NVIDIA: что это значит для мира технологий?

Фактов больше, разверни!

1. Amazon Web Services (AWS) и NVIDIA объявили о расширении сотрудничества. AWS Project Ceiba получит 21 тысячу суперчипов NVIDIA GB200 к 21 марта 2024 года. Ускорители GB200 и B100 появятся в облаке AWS. Amazon SageMaker интегрируется с NVIDIA NIM. В AWS HealthOmics появятся новые базовые модели NVIDIA BioNeMo. Поддерживается обновленная платформа NVIDIA AI Enterprise. AWS предложит кластеры EC2 UltraClusters из суперускорителей GB200 NVL72 и B100. Сочетание AWS Nitro и NVIDIA GB200 повысит защиту ИИ моделей. Инстансы с GB200 поддерживают анклавы AWS Nitro Enclaves.
2. Чипы Blackwell будут использоваться в обновленном облачном суперкомпьютере AWS Project Ceiba. Облачный суперкомпьютер AWS Project Ceiba будет состоять из 20 736 суперчипов GB200. Каждый суперчип GB200 будет иметь 800 Гбит/с EFA подключение. Пиковая FP8 производительность системы составит 414 Эфлопс.
3. Кристалл Blackwell B200 содержит 208 миллиардов транзисторов и обеспечивает до 20 петафлопс вычислительной мощности (FP4). Nvidia выпустила ускоритель GB200, состоящий из двух графических процессоров Blackwell B200 и центрального процессора Grace (144 ядра ARM Neoverse V2). Трехчиповый модуль GB200 обеспечивает до 30 раз большую производительность в задачах LLM и до 25 раз сокращает стоимость и энергопотребление по сравнению с H100. Обновленные интерфейсы NVLink имеют пропускную способность 1,8 терабит в секунду, что сокращает время синхронизации и передачи данных. Вычислительные станции GB200 NVL72 состоят из 72 графических процессоров B200 и обеспечивают порядка 1,4 экзафлопс вычислительной мощности в задачах обучения ИИ. Система DGX Superpod содержит восемь модулей NVL72 (11,5 экзафлопс, 240 ТБ памяти, 576 чипов B200). Разработчики могут масштабировать свои системы, соединяя в одну сеть десятки тысяч модулей GB200. В скором времени GB200 и масштабируемые системы на базе этих модулей появятся на рынке.
4. Nvidia раскрыла технические характеристики вычислительных решений на основе архитектуры Blackwell на конференции GTC 2024. Графический процессор Blackwell B200 оценивается в диапазоне от $30 000 до $40 000. Предшественник Blackwell, Hopper, оценивался в сумму от $25 000 до $40 000 за чип. Компания Nvidia потратила около $10 млрд на разработку чипов семейства Blackwell и их интеграцию в вычислительную инфраструктуру. Компания оценивает рынок серверных компонентов в $250 млрд в год на текущем уровне развития. Поставки ускорителей поколения Blackwell начнутся до конца текущего года. Дефицит данных компонентов неизбежен, несмотря на подготовку к высокому спросу. Зеленоградский «Микрон» запустил две новые производственные линии, на них потратили 1,35 млрд рублей.

Thank you for reading this post, don't forget to subscribe!

Amazon Web Services (AWS) и NVIDIA объявили о захватывающем расширении своего сотрудничества, которое обещает революционизировать мир технологий и игр. Ключевым моментом этого партнерства стало участие AWS Project Ceiba, который получит невероятные 21 тысячу суперчипов NVIDIA GB200 к 21 марта 2024 года. Это означает, что ускорители GB200 и B100 в скором времени появятся в облаке AWS, открыв новые возможности для разработки и использования передовых технологий.

Amazon SageMaker, платформа машинного обучения AWS, также интегрируется с NVIDIA NIM, что обещает улучшить процессы обучения и оптимизации моделей искусственного интеллекта. Вместе с этим, в AWS HealthOmics появятся новые базовые модели NVIDIA BioNeMo, что даст толчок развитию исследований в области биомедицины и геномики.

Следует отметить, что обновленная платформа NVIDIA AI Enterprise будет поддерживаться AWS, а также будет предложена возможность использовать кластеры EC2 UltraClusters из суперускорителей GB200 NVL72 и B100. Это сочетание AWS Nitro и NVIDIA GB200 позволит повысить безопасность моделей искусственного интеллекта, а инстансы с GB200 будут поддерживать анклавы AWS Nitro Enclaves, обеспечивая надежную защиту данных.

Кроме того, облачный суперкомпьютер AWS Project Ceiba, состоящий из 20 736 суперчипов GB200, будет оборудован чипами Blackwell, содержащими 208 миллиардов транзисторов и обеспечивающими впечатляющую производительность. Суперчипы GB200 будут иметь 800 Гбит/с EFA подключение, а пиковая производительность системы достигнет 414 Эфлопс, что откроет новую эру в области технологий и вычислений.

Исходя из представленной информации, новое сотрудничество между Amazon Web Services и NVIDIA обещает уникальные возможности для развития технологий и игровой индустрии. Сочетание передовых ускорителей, инновационных платформ и мощных вычислительных систем создаст основу для новых открытий и революционных изменений в мире вычислительной техники. В скором времени мы увидим, как эти технологии изменят наше представление о возможностях искусственного интеллекта и облачных вычислений.