S3 over RDMA: как ускорить путь данных к GPU без отказа от S3 Мы продолжаем говорить про S3/RDMA и сегодня подробно разберем доклад на SDC'25. Вопрос у него очень приземленный:...
GPU
333
35
Архитектура и назначение платформы Context Memory Storage NVIDIA Inference Context Memory Storage Platform – это новая архитектура хранения данных, специально разработанная для ускорения инференса крупных моделей за счет эффективной работы...
333
35
529
8
NFS (Network File System): как работает доступ к файлам по сети NFS (Network File System) — это файловый протокол поверх IP (чаще TCP), через который СХД публикует каталоги, а клиенты...
529
8
654
45
Раздел 1: Необходимость расширения памяти GPU за пределы монолитного сервера Современные вычислительные задачи, особенно в области искусственного интеллекта, анализа больших данных и научных симуляций, предъявляют беспрецедентные требования к ресурсам графических...
654
45
802
5
Проблема дефицита GPU-памяти в современных AI-системах Современные системы искусственного интеллекта всё чаще сталкиваются с критическим ограничением GPU-памяти: объём видеопамяти на ускорителях не успевает за ростом размеров и сложности нейронных моделей....
802
5