Мы продолжаем говорить про S3/RDMA и сегодня подробно разберем доклад на SDC'25. Вопрос у него очень приземленный: что делать в ситуации, когда S3 как API всех устраивает, а вот привычный...
GPU
276
35
Архитектура и назначение платформы Context Memory Storage NVIDIA Inference Context Memory Storage Platform – это новая архитектура хранения данных, специально разработанная для ускорения инференса крупных моделей за счет эффективной работы...
276
35
464
8
NFS (Network File System) — это файловый протокол поверх IP (чаще TCP), через который СХД публикует каталоги, а клиенты монтируют их и работают с файлами как с локальными. Как это...
464
8
606
45
Раздел 1: Введение: необходимость расширения памяти GPU за пределы монолитного сервера Современные вычислительные задачи, особенно в области искусственного интеллекта, анализа больших данных и научных симуляций, предъявляют беспрецедентные требования к ресурсам...
606
45
730
4
Современные системы искусственного интеллекта всё чаще сталкиваются с критическим ограничением GPU-памяти: объём видеопамяти на ускорителях не успевает за ростом размеров и сложности нейронных моделей. В результате при обучении и инференсе...
730
4