Baum
  • О нас
  • Решения
    • UDS
    • MDS
    • SWARM
    • BAS
  • Экспертиза
    • Software
    • IT-инфраструктура
    • Интеграции
    • BI&MLOps
    • Лаборатория
  • Карьера
  • Блог
Связаться с нами
  • О нас
  • Решения
    • UDS
    • MDS
    • SWARM
    • BAS
  • Экспертиза
    • Software
    • IT-инфраструктура
    • Интеграции
    • BI&MLOps
    • Лаборатория
  • Карьера
  • Блог
Связаться с нами
Категории
  • AI
  • Storage
  • Tech Pulse
  • Product
  • Glossary
AI
Читать
Storage
Читать
Tech Pulse
Читать
Product
Читать
Glossary
Читать
Теги
  • #3d-nand
  • #3dxpoint
  • #AgenticAI
  • #AI
  • #AI_datacenter
  • #AllFlash
  • #AmongUs
  • #BaS
  • #BAUM
  • #Baum MDS
  • #Baum MDS Security
  • #BaumMDS
  • #BAUMSTORAGE
  • #BaumSWARM
  • #BaumTechPulse
  • #BaumUDS
  • #Codium
  • #ComputationalStorage
  • #cxl
  • #Data
  • #DataProcessing
  • #DIF/DIX
  • #DRAM
  • #dwpd
  • #enterprise
  • #Gartner
  • #GDS
  • #GPU
  • #HAMR
  • #HBM
  • #HDD
  • #Inference
  • #it-инфраструктура
  • #KV_cache
  • #LLM
  • #Long-context_LLM
  • #MAMR
  • #MDS
  • #Medical
  • #NAND
  • #NFS
  • #NVIDIA
  • #nvme
  • #NVMEoF/FC
  • #OFP
  • #optane
  • #plc
  • #PMR
  • #pNFS
  • #Product
  • #protocols
  • #qlc
  • #RAG
  • #RDMA
  • #reservations
  • #S3
  • #SAS
  • #SATA
  • #SCM
  • #scsi
  • #SensorLM
  • #SNIA
  • #ssd
  • #Storage
  • #StorageArchitecture
  • #StorageOffload
  • #SWARM
  • #t10
  • #TCP
  • #tlc
  • #VectorBucket
  • #WALSH
  • #ZeroTrust
  • #zns
  • #Автоматизация
  • #АгентныйИИ
  • #Архитектура
  • #Безопастность
  • #БольшиеДанные
  • #Будущее
  • #Виртуализация
  • #Документация
  • #ЗащитаДанных
  • #Здравоохранение
  • #ИИ
  • #Инновации
  • #ИскусственныйИнтеллект
  • #Кибератака
  • #Кибербезопасность
  • #коммутаторы
  • #Лаборатория
  • #Локальное хранилище
  • #ЛокальноеХранилище
  • #МашинноеОбучение
  • #Наука
  • #ОблачныеТехнологии
  • #ОбъектноеХранилище
  • #ПирамидаBaum
  • #Программирование
  • #Продукт
  • #Протоколы
  • #Разработка
  • #РезервноеКопирование
  • #Риски
  • #рынок
  • #серверы
  • #Сети
  • #Системное администрирование
  • #СистемноеАдминистрирование
  • #СистемныйАнализ
  • #СредниеДанные
  • #СРК
  • #СХД
  • #Тестирование
  • #Технологии
  • #ФайловаяСистема
  • #ШколаСХД
  • #ЭкосистемаBaum
Топ-записи
Кэширование

Кэширование

№ Вопрос Ответ 1....
SmartNIC, DPU, IPU (часть 2)

SmartNIC, DPU, IPU (часть 2)

Broadcom Broadcom Stingray PS1100R SmartNIC...
Масштабируемость

Масштабируемость

Масштабируемость увеличением количества дисков Масштабируемость...
Репликация

Репликация

Асинхронная репликация Принцип данного вида...
Современные распределенные объектные/файловые/блочные и key-value хранилища – WEKA (часть 4)

Современные распределенные объектные/файловые/блочные и key-value хранилища – WEKA (часть 4)

Введение В исследовании Gartner –...
  • Главная
  • /
  • Тег: GPU
  • NVIDIA Inference Context Memory Platform (платформа контекстной памяти для инференса)
    Андрей Гантимуров
    76
    35
    NVIDIA Inference Context Memory Platform (платформа контекстной памяти для инференса)

    NVIDIA Inference Context Memory Platform (платформа контекстной памяти для инференса)

    Архитектура и назначение платформы Context Memory Storage NVIDIA Inference Context Memory Storage Platform – это новая архитектура хранения данных, специально разработанная для ускорения инференса крупных моделей за счет эффективной работы...
    76
    35
    Читать дальше
    NFS RDMA: от базовых принципов до вариантов использования с ИИ
    Олег Ларин
    263
    8
    NFS RDMA: от базовых принципов до вариантов использования с ИИ

    NFS RDMA: от базовых принципов до вариантов использования с ИИ

    NFS (Network File System) — это файловый протокол поверх IP (чаще TCP), через который СХД публикует каталоги, а клиенты монтируют их и работают с файлами как с локальными. Как это...
    263
    8
    Читать дальше
    Архитектуры для расширения памяти GPU через высокоскоростные сетевые фабрики: обзор исследований
    Андрей Гантимуров
    469
    45
    Архитектуры для расширения памяти GPU через высокоскоростные сетевые фабрики: обзор исследований

    Архитектуры для расширения памяти GPU через высокоскоростные сетевые фабрики: обзор исследований

    Раздел 1: Введение: необходимость расширения памяти GPU за пределы монолитного сервера Современные вычислительные задачи, особенно в области искусственного интеллекта, анализа больших данных и научных симуляций, предъявляют беспрецедентные требования к ресурсам...
    469
    45
    Читать дальше
    Боремся с дефицитом памяти GPU
    Андрей Гантимуров
    589
    4
    Боремся с дефицитом памяти GPU

    Боремся с дефицитом памяти GPU

    Современные системы искусственного интеллекта всё чаще сталкиваются с критическим ограничением GPU-памяти: объём видеопамяти на ускорителях не успевает за ростом размеров и сложности нейронных моделей. В результате при обучении и инференсе...
    589
    4
    Читать дальше
    Свидетельство участника проекта Сколково Фонд содействия инновациям Российский фонд развития ИТ Выписка из реестра IT-компаний
    Sk
    Офис
    Москва
    Email
    info@baum.ru
    Адрес
    Москва, ул. Нобеля д. 7

    © 2026 BAUM

    Сведения об организации Политика обработки персональных данных

    Используя сайт, вы предоставляете согласие на обработку файлов cookie (с помощью сервисов веб-аналитики) в соответствии с политикой обработки персональных данных. Запретить обработку файлов cookie можно в настройках браузера.