Baum
  • О нас
  • Решения
    • UDS
    • MDS
    • SWARM
    • BAS
  • Экспертиза
    • Software
    • IT-инфраструктура
    • Интеграции
    • BI&MLOps
    • Лаборатория
  • Карьера
  • Блог
Связаться с нами
  • О нас
  • Решения
    • UDS
    • MDS
    • SWARM
    • BAS
  • Экспертиза
    • Software
    • IT-инфраструктура
    • Интеграции
    • BI&MLOps
    • Лаборатория
  • Карьера
  • Блог
Связаться с нами
Категории
  • AI
  • Storage
  • Tech Pulse
  • Product
  • Glossary
AI
Читать
Storage
Читать
Tech Pulse
Читать
Product
Читать
Glossary
Читать
Теги
  • #3d-nand
  • #3dxpoint
  • #AgenticAI
  • #AI
  • #AI_datacenter
  • #AllFlash
  • #AmongUs
  • #BaS
  • #BAUM
  • #Baum MDS
  • #Baum MDS Security
  • #BaumMDS
  • #BAUMSTORAGE
  • #BaumSWARM
  • #BaumTechPulse
  • #BaumUDS
  • #Codium
  • #ComputationalStorage
  • #cxl
  • #Data
  • #DataProcessing
  • #DIF/DIX
  • #DRAM
  • #dwpd
  • #enterprise
  • #Gartner
  • #GDS
  • #GPU
  • #HAMR
  • #HBM
  • #HDD
  • #Inference
  • #it-инфраструктура
  • #KV_cache
  • #LLM
  • #Long-context_LLM
  • #MAMR
  • #MDS
  • #Medical
  • #NAND
  • #NFS
  • #NVIDIA
  • #nvme
  • #NVMEoF/FC
  • #OFP
  • #optane
  • #plc
  • #PMR
  • #pNFS
  • #Product
  • #protocols
  • #qlc
  • #RAG
  • #RDMA
  • #reservations
  • #S3
  • #SAS
  • #SATA
  • #SCM
  • #scsi
  • #SensorLM
  • #SNIA
  • #ssd
  • #Storage
  • #StorageArchitecture
  • #StorageOffload
  • #SWARM
  • #t10
  • #TCP
  • #tlc
  • #VectorBucket
  • #WALSH
  • #ZeroTrust
  • #zns
  • #Автоматизация
  • #АгентныйИИ
  • #Архитектура
  • #Безопастность
  • #БольшиеДанные
  • #Будущее
  • #Виртуализация
  • #Документация
  • #ЗащитаДанных
  • #Здравоохранение
  • #ИИ
  • #Инновации
  • #ИскусственныйИнтеллект
  • #Кибератака
  • #Кибербезопасность
  • #коммутаторы
  • #Лаборатория
  • #Локальное хранилище
  • #ЛокальноеХранилище
  • #МашинноеОбучение
  • #Наука
  • #ОблачныеТехнологии
  • #ОбъектноеХранилище
  • #ПирамидаBaum
  • #Программирование
  • #Продукт
  • #Протоколы
  • #Разработка
  • #РезервноеКопирование
  • #Риски
  • #рынок
  • #серверы
  • #Сети
  • #Системное администрирование
  • #СистемноеАдминистрирование
  • #СистемныйАнализ
  • #СредниеДанные
  • #СРК
  • #СХД
  • #Тестирование
  • #Технологии
  • #ФайловаяСистема
  • #ШколаСХД
  • #ЭкосистемаBaum
Топ-записи
Фоновая проверка ошибок в файловой системе

Фоновая проверка ошибок в файловой системе

Проверка ошибок файловой системы выполняется...
Архитектура

Архитектура

№ Вопрос Ответ 1....
Влияние типа RAID-массива на производительность

Влияние типа RAID-массива на производительность

Для идеального случая запросы распределяются...
Влияние глубины очереди на производительность и задержку

Влияние глубины очереди на производительность и задержку

Рассмотрим понятие глубины очереди применительно...
Дедупликация данных

Дедупликация данных

Дедупликация данных обнаруживает и исключает...
  • Главная
  • /
  • Тег: RDMA
  • NVIDIA Inference Context Memory Platform (платформа контекстной памяти для инференса)
    Андрей Гантимуров
    78
    35
    NVIDIA Inference Context Memory Platform (платформа контекстной памяти для инференса)

    NVIDIA Inference Context Memory Platform (платформа контекстной памяти для инференса)

    Архитектура и назначение платформы Context Memory Storage NVIDIA Inference Context Memory Storage Platform – это новая архитектура хранения данных, специально разработанная для ускорения инференса крупных моделей за счет эффективной работы...
    78
    35
    Читать дальше
    NFS RDMA: от базовых принципов до вариантов использования с ИИ
    Олег Ларин
    263
    8
    NFS RDMA: от базовых принципов до вариантов использования с ИИ

    NFS RDMA: от базовых принципов до вариантов использования с ИИ

    NFS (Network File System) — это файловый протокол поверх IP (чаще TCP), через который СХД публикует каталоги, а клиенты монтируют их и работают с файлами как с локальными. Как это...
    263
    8
    Читать дальше
    Архитектуры для расширения памяти GPU через высокоскоростные сетевые фабрики: обзор исследований
    Андрей Гантимуров
    469
    45
    Архитектуры для расширения памяти GPU через высокоскоростные сетевые фабрики: обзор исследований

    Архитектуры для расширения памяти GPU через высокоскоростные сетевые фабрики: обзор исследований

    Раздел 1: Введение: необходимость расширения памяти GPU за пределы монолитного сервера Современные вычислительные задачи, особенно в области искусственного интеллекта, анализа больших данных и научных симуляций, предъявляют беспрецедентные требования к ресурсам...
    469
    45
    Читать дальше
    Свидетельство участника проекта Сколково Фонд содействия инновациям Российский фонд развития ИТ Выписка из реестра IT-компаний
    Sk
    Офис
    Москва
    Email
    info@baum.ru
    Адрес
    Москва, ул. Нобеля д. 7

    © 2026 BAUM

    Сведения об организации Политика обработки персональных данных

    Используя сайт, вы предоставляете согласие на обработку файлов cookie (с помощью сервисов веб-аналитики) в соответствии с политикой обработки персональных данных. Запретить обработку файлов cookie можно в настройках браузера.