应对算力短缺,国产芯片如何变挑战为机遇?
通用大模型的空前突破,搅动了人工智能(AI)的一池春水。然而,面对AI突破性发展带来的对AI芯片的井喷式需求,国内芯片供应却并未跟上此番步伐。随着科技巨头公司和新兴企业争先涌入大模型的竞争赛道,新一轮的AI芯片短缺问题正在浮出水面。
AI浪潮“炒热”芯片需求
AI芯片,也被称为AI加速器或计算卡,是专门用于处理AI相关计算任务的芯片。它们是构筑算力的重要基石。
中国信息通信研究院在8月19日发布的《中国综合算力指数(2023年)》白皮书显示,我国算力产业保持高速增长,其中人工智能算力在整个算力结构中的占比已经超过25%。我国算力总规模近五年年均增速近30%,数据中心机架数量年复合增长率超过30%。
“受大模型热潮影响,智算算力市场的需求旺盛。”北京超级云计算中心技术CTO甄亚楠对人民网财经表示,当前相关的算力服务器呈现持续紧缺状态,配货周期偏长。服务器制造商普遍预计要等待6个月以上才能获得最新的GPU,而GPU的供应短缺情况至少会持续到明年。
不仅供应紧张,价格也节节攀升。以目前较为主流的英伟达A100 GPU为例,大模型的单次训练要求至少百卡、千卡规模。依据当前市场价格,建设1000卡GPU规模的算力集群成本可达2亿元。
在大模型建设正酣的同时,人工智能技术与健康、教育、交通等其他领域的交叉融合也逐渐加深。华大基因高性能计算研发总监王浩灵表示,基因行业对算力的需要不断增长。他进一步表示:“未来,大型语言模型的加入还将进一步提高疾病诊断分析效率。”
中国工程院院士高文将算力比作电力,视为数字经济发展的重要指标。燧原科技创始人、董事长兼CEO赵立东认为,大模型算力需求将进一步驱动AI芯片的研发,“如今的AI芯片,不仅要高性能、高带宽、高存储,而且要高通用性、高效分布式计算,高效集群互联。”
国产AI芯片市场:挑战与机遇并存
业内人士表示,目前国内智能算力的发展,特别是适用于大模型训练的算力,与全球算力发展趋势相比仍存在较大差距。
甄亚楠坦言,算力的短缺不仅会削弱人工智能算法的复杂度与性能提升、延缓模型训练速度、约束应用部署规模,更会阻碍人工智能技术的发展,“许多创新的算法和方法需要大规模的计算资源来验证和改进,缺乏足够的算力将限制研究人员的创造力和实验空间,从而阻碍人工智能技术领域的进一步突破。”
近年来,我国人工智能算力芯片的市场格局主要由美国公司英伟达主导,其占据了80%以上的市场份额,一直保持着无可匹敌的竞争优势。然而,随着美国对高性能芯片出口限制措施不断加强,英伟达最先进的A100、H100芯片无法在国内销售,定制版A800和H800又缺货严重,在这种情况下,国产AI芯片肩负起填补市场空缺的重要使命。
据人民网财经不完全统计,目前,百度、阿里巴巴、腾讯和华为等互联网巨头公司已加快AI芯片的自研步伐,并在各自的云平台上率先试用。与此同时,一些初创公司则从芯片的底层架构设计入手,试图通过“弯道超车”抓住机遇。
公开资料显示,2018年创立的AI芯片设计商墨芯凭借双稀疏化算法技术,通过软硬件结合为AI计算模式和芯片架构带来了颠覆性创新,取得了比国际主流GPU产品更好的测试成绩;2017年创立的鲲云科技自主研发了全球首款大规模商用的数据流AI芯片,用更少的芯片资源实现了数倍的实测性能,摆脱对最新制程工艺的依赖。
但需要指出的是,目前,国产AI芯片在大模型推理方面表现相对出色,而在门槛更高的大模型训练方面仍无法与英伟达的通用GPU相媲美。
中国电子技术标准化研究院副院长陈大纪表示,国内产品的软硬件以及面向不同场景的生态落地仍需要进一步完善。