В гостях у immers.cloud: показываем и сравниваем топовое железо для работы с нейросетями! Технический директор Владислав Галянин рассказывает о серверных платформах, GPU и процессорах, которые используются в дата-центре для обучения и инференса LLM.
📦 ЧТО ПОКАЗЫВАЕМ:
• NVIDIA H100 PCI-E (94GB) - $28,000
• NVIDIA H200 (141GB) - $34,500
• RTX 5090 Blackwell - первые впечатления
• Intel Xeon 5-gen (32 ядра, 6548Y+)
• Серверная платформа Supermicro на 10 GPU
• DDR5 память и NVMe диски серверного класса
💡 ОБСУЖДАЕМ:
- Чем серверные GPU отличаются от игровых и почему разница в цене 10-15 раз
- Intel vs AMD: почему выбираем Intel для GPU-серверов
- Как изменились цены на H100 за год (с $40k до $28k)
- Доступность железа в России и санкции
- NVLink vs NVSwitch: нужны ли и когда необходимы
- HBM vs GDDR память: влияние на скорость обучения
- Прогноз развития железа на 2-3 года
📊 ПОЛЕЗНАЯ ИНФОРМАЦИЯ:
• H100: 2TB/s к памяти, 600-900 GB/s через NVLink
• H200: 4.8TB/s к памяти, 141GB HBM3e
• RTX 5090: поддержка FP4, 32GB GDDR7
• Разница PCI-E 5.0 vs NVLink: замедление в 16 раз
🏢 О компании immers.cloud:
Облачный провайдер GPU-ресурсов с иммерсивным охлаждением. Специализация на аренде видеокарт для AI/ML задач.
https://immers.cloud/🎯 Таймкоды:
00:00 Вступление
00:25 H100 H200 RTX5090 и другие GPU
06:01 Intel платформа для 10 видеокарт
12:12 Выбор видеокарт
15:15 HBM vs GDDR память видеокарт
16:29 Драйвера NVIDIA
17:48 Иммерсионное охлаждение видеокарт
20:00 NVlink vs NVSwitch vs PCIE
22:25 RAM
24:20 CPU
25:59 Сетевые карты
29:58 Тренировка chatgpt
31:11 Серверные диски
35:18 Сервер для 10 видеокарт
38:16 AMD vs Nvidia
40:30 Видеокарты будущего
#GPU #NVIDIA #H100 #H200 #RTX5090 #НейроСети #ИИ #MachineLearning #DataCenter #ServerHardware #ImmersCloud #DeepLearning #LLM #AI #ИскусственныйИнтеллект