芯片涨了,模型瘦了,国产设备动了

发布时间:2026-01-22 07:46  浏览量:3

今天股市刚开,芯片股就往上冲,不是那些做GPU的大公司带头涨,反倒是搞存储和封装的小企业涨停了一片,大家这才明白,原来AI这股热潮背后,真正在干活的都是这些不起眼的小零件,以前总说大模型要靠算力堆起来,现在发现,先得有能撑得住的硬件才行。

DeepSeek最近推出一个新型号,叫做MODEL1,这个型号并不追求参数数量有多大,专门研究节省电力和内存,能够在手机和眼镜这样的小型设备上运行起来,听说下一代V4很快就要发布,代码生成能力比GPT-4还要稳定,我一开始不太相信,但是看过测试数据之后,确实觉得它有可取之处,模型变得轻便了,反而更加实用,这才是真正能够落地使用的路子。

AI终端开始大量出货,手机、电脑、眼镜都装上了芯片,去年光AI眼镜就卖出一百七十多万台,每台都需要好几颗芯片来支持,内存价格一路上涨,DDR4 16Gb今年第一季度预计还要再涨六成,这不是市场炒作,是真的缺货,全国算力规模已经达到1590 EFLOPS,六千多家AI公司等着用芯片,需求根本停不下来。

国内大模型现在走两条路,一边是通义、盘古这样的闭源模型,另一边是开源模型,像DeepSeek这种愿意开放训练方案的类型,中文开源数据集已经有两百多个,大家拿去进行微调,各自做自己的事,芯片设计也跟着变化,不再比拼谁家参数更高,而是比较谁能省电、速度快、还能塞进小设备里,说到底用户需要的是好用,不是好看。

晶圆厂接到更多AI订单,开始扩大生产,利润增加后,设备采购也变得宽松,以前国产设备要等两年才能进厂测试,现在只要性能合格、交货及时,半年就能装机使用,刻蚀机、薄膜沉积这类过去被嫌弃的设备,现在成了抢手货,听说有厂家为了赶产能,连没完全通过测试的设备都敢用,这是被逼出来的效率。

大模型不再只在云端运行,开始向手机、手表、眼镜这些设备转移,这时候存储、封装和专用芯片就成了关键环节,每次模型更新都会对硬件提出新需求,摩尔定律已经失效,现在由应用场景决定芯片设计方向,模型越智能,芯片就越需要具备灵活性和适应性。

以前人们觉得芯片只是个搬运工,把算力从一处传到另一处,现在才明白,它必须自己会计算、会节省资源、还要懂得配合,模型在变化,芯片也得跟着变,这不是单纯的技术升级,而是整个生态的重新洗牌,谁能先适应这种变化,谁就能生存下去。