Рынок хранения для AI (и не только) сильно изменился. По данным VDURA, к Q1 2026 емкостью 30 ТБ на QLC SSD стоила в 22,6 раза дороже, чем та же емкость...
Об авторе
Технический директор БАУМ, увлекается спортом, мастер на все руки и вообще хороший человек
Статьи автора
101
19
Мы продолжаем говорить про S3/RDMA и сегодня подробно разберем доклад на SDC'25. Вопрос у него очень приземленный: что делать в ситуации, когда S3 как API всех устраивает, а вот привычный...
101
19
776
48
Краткий обзор В современной корпоративной среде искусственный интеллект (ИИ) перестал быть экспериментальной технологией и превратился в инструмент для создания конкурентных преимуществ. Однако для раскрытия полного потенциала ИИ требуется переосмысление базового...
776
48
110
3
На фоне бесконечных новостей про модели, агентов и GPU довольно легко упустить более тихую, но очень важную тему — кто будет вытаскивать данные для этих систем быстро, точно и без...
110
3
127
38
Динамика рынка и позиционирование поставщиков Ландшафт, представленный в отчете GigaOm RADAR, демонстрирует рынок распределенных СХД в состоянии активной трансформации.1 VAST Data занимает уникальное положение лидера в области инноваций, устанавливая новый...
127
38
96
3
VDURA добавила к своей all-flash системе V5000 дисковые полки Western Digital Ultrastar Data60 и Data102. SSD для скорости, HDD для объёма, всё в одном namespace. (Blocks and Files) На первый...
96
3
109
5
Пока все смотрят на Nvidia, GPU-кластеры и очередные рекорды по обучению моделей, деньги тихо и очень серьезно пошли в менее гламурный слой AI-инфраструктуры: в хранение данных. 11 марта 2026 года...
109
5
114
3
Недавнее исследование Pure Storage совместно с Университетом Технологии Сиднея наглядно показало, что компании, которые не принимают всерьез вопросы суверенитета данных, рискуют потерять не только деньги, но и доверие клиентов, а...
114
3
270
34
В сфере генеративного искусственного интеллекта (ИИ) технология Retrieval-Augmented Generation (RAG) стала одной из наиболее важных архитектурных решений, позволяющих предприятиям преодолеть ограничения больших языковых моделей (LLM) и раскрыть истинный потенциал своих...
270
34
277
35
Архитектура и назначение платформы Context Memory Storage NVIDIA Inference Context Memory Storage Platform – это новая архитектура хранения данных, специально разработанная для ускорения инференса крупных моделей за счет эффективной работы...
277
35