首页 排行榜文章正文

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

排行榜 2025年09月24日 17:35 0 admin

在阅读文章前,辛苦您点下“关注”,方便讨论和分享。作者定会不负众望,按时按量创作出更优质的内容。

文I夙夜玖歌

编辑I夙夜玖歌

最近刷AI圈的消息,发现风向变了 —— 以前大家都盯着GPU喊 “算力不够”,现在突然集体转头研究“存储”,就像一群人围着火锅抢肉吃,吃着吃着发现“菜不够了”,开始急着找食材。

今天就跟大家唠唠,为啥存储突然成了香饽饽,还有平头哥那款叫“镇岳510”的芯片,到底怎么解决了AI的“吃饭难题”。

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

先说说这事儿的由头:AI现在越来越能“吃”数据了。比如训练个大模型,得喂进去PB级的数据,相当于把几十万个G的电影存进去,还得让GPU随用随取,不能等半天。

结果问题来了,以前的数据中心都是“重算力、轻存储”,就像家里厨房只买了高端灶台,却没装够冰箱,食材要么放不下,要么拿的时候磨磨蹭蹭,GPU空有一身力气,天天等着数据“喂饭”,利用率低得可怜。

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

更有意思的是行业里的“冰火两重天”:一边是三星、SK海力士这些存储大佬忙着减产,搞得存储芯片越来越抢手;另一边是国内智算中心急得跳脚,山东河口那个智算中心,先进存储占比都超35%了,上海还计划提到50%以上。

你想啊,要是存储跟不上,就算买再多GPU,也跟买了跑车却开在乡间小路上一样,根本跑不起来。

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

但这事儿难就难在“既要又要”。AI需要存储“性能顶呱呱”—— 时延要低(最好眨个眼的功夫就能取到数据)、容量要大(能装下海量训练数据)、还得靠谱(不能突然崩了让训练功亏一篑);可企业又想“成本省哗哗”,毕竟智算中心耗电跟吞钱似的,美国能源部都预测2028年数据中心电力需求能占12%,再买贵的存储,钱包根本扛不住。

之前英特尔有个叫Optane的存储技术,性能是不错,结果因为太贵,今年年底就要停售了,活生生把好技术卖成了“奢侈品”。

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

就在这时候,平头哥的镇岳510冒了出来,这玩意儿是SSD的“大脑”(主控芯片),刚好卡在“性能”和“成本”中间,把两边都给兼顾了。

先说说它有多靠谱,行业标准的不可恢复错误率是10的负17次方,它直接干10的负18次方,简单说就是32TB的硬盘每天写满一遍,十年才可能出一次没法恢复的错。

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

要知道,AI训练一旦因为存储出错中断,损失可比买个硬盘贵多了,这一下就解决了企业的“后顾之忧”。

再说说省电这事儿,它的能效比能到420K IOPS/Watt,比竞品高20%。别小看这20%,智算中心里成千上万的存储设备,积少成多省下来的电费,说不定够买好几块GPU了。

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

而且它不搞“堆配置”那套,没靠提主频、加核心来堆性能,而是靠优化设计实现“低功耗高输出”,跟会过日子的人似的,花最少的钱办最多的事。

最绝的是它还特“百搭”,既能用TLC、QLC这种低成本的闪存(QLC比TLC便宜不少),还能探索pSLC、QLC+ZNS这些新技术。比如 QLC+ZNS,能把存储的寿命延长、成本降低,相当于给企业提供了“性价比套餐”,不用为了性能被迫买“顶配”,也不用为了省钱委屈性能。

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

而且它的时延能压到4微秒,接近理论极限,比行业平均的6微秒快了不少,GPU再也不用等着“饿肚子”了。

现在平头哥还在拉着忆恒创源、佰维存储这些厂商一起搞生态,从芯片到SSD再到实际应用,形成了一条国产产业链。以前咱们在高端存储领域总有点“卡脖子”,现在有了自己的主控芯片,还能带动上下游一起发展,这波操作确实挺提气的。

AI圈变天了!现在最火的不是GPU,而是给它“喂饭”吃的存储

其实说到底,AI这事儿就像搭积木,光有GPU这块“大积木”不够,还得有存储这种“关键小积木”配合。镇岳510的出现,刚好补上了AI存储的短板,也让咱们看到,真正好用的技术不用搞太多花里胡哨的概念,能解决“性能不够、成本太高”这些实际问题,就是真本事。

以后再听人聊AI,可别只盯着GPU了,记得问问“你家存储跟得上吗?”

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap