在 AI 应用中,大容量存储技术的选择对于处理 和分析海量数据至关重要,近年来涌现了多种适应 于 AI 的数据存储技术。其中,在存储设备方面,全闪 存存储提供更高的 I/O 性能和更低的延迟。

随着Open AI等大模型参数增长至万亿级别,对应的算力需求也呈现指数级增长的趋势,海量的算力必然需要海量的存力,各大科技巨头也加码研发用于AI的HBM存储模块,在AI增长的推动下,产业整体的HBM消耗量将显著提升,2024年预估增速超过200%,2025年HBM消耗量将再翻倍。

全球存储产业发展现状

存储器具有高度标准化的特点,全球产业高度 集中,韩国的三星、SK 海力士和美国美光三家企业 在 DRAM 和 NAND Flash 等主流存储器领域占据 90%以上市场份额。面临人工智能应用的新需求,传 统存储厂商凭借已有技术优势继续保持产业领先, 同时英伟达、英特尔等算力芯片企业越来越深入参 与存储产品的定义和研发。

大模型的全生命周期主要可以分为 三个阶段,包括数据的准备、训练(微调)、推理:在 数据准备阶段,存储系统需要高效地存储和调度大 规模的数据,包括结构和非结构数据,可能包含文 字、视频、音频等多种多样的数据类型。这就要求存 储系统必须是大容量、可扩展的,同时支持文件和对 象访问协议;在训练(微调)阶段,存储系统必须足 够快速地为 AI 算力芯片提供训练所需数据,以提升算力利用率.

追加内容

本文作者可以追加内容哦 !