行业动态
嘉成portfolio 国内首家!探微芯联完成天使轮融资对标英伟达“NVLinkNVSwitch”互联通信方案
发布:行业动态   更新时间:2025-02-14 14:01:20

  探微芯联源自清华大学类脑计算研究中心,致力于GPU与GPU间的通信协议和交换芯片的研发,提供整体高速通信解决方案,突破国内芯片通信领域“卡脖子”技术。

  清华大学类脑计算研究中心(CBICR)创立于2014年9月,是国内最早进行全方位类脑计算研究的团队。类脑计算被“国际半导体技术蓝图”列为后摩尔时代两个重要技术方向之一。借鉴脑科学基本原理,团队开展了从基础理论、芯片、软件到系统集成和应用的全链条研究。类脑计算中心的相关研究成果于2019及2024年两次荣登Nature封面。

  探微芯联创始人刘学是清华大学类脑计算中心工程研究员、类脑计算中心总工,也是中国脑计划异构融合类脑计算平台的类脑服务器集群课题负责人。刘学老师主导研制了国内第一代类脑服务器和第二代亿级神经元类脑集群,建设了十亿级神经元和功能齐全的千卡类脑集群,主持开发了全自研大规模智算系统网络通信调度架构,近五年参与学术文章发表在Nature、Nature Communications、Nature Electronics、Science Robotics、NSR等期刊,并基于研究成果申请专利40余项。

  刘学老师团队历时多年积累推出的全自研ACCLink&ACCSwitch技术,可对标英伟达NVLink&NVSwitch技术。ACCLink协议支持多点、多GPU间的低时延无损通信,同时具备可扩展性、缓存一致性及池化能力。该协议可实现50ns协议延时,具备Load/Store/Sync的指令语义,同时具备完整的自研CTX通信语义,并支持字节级对齐和任意地址数据搬移。ACCSwitch交换芯片支持最高4,096个GPU互联,256个GPU组播优化,具备32个高速传输端口并支持双工线速及多级转发。ACCLink&ACCSwitch技术通过提升GPU间的数据传输性能,全面发挥自主芯片算力能力。

  近年来,大语言模型的发展突飞猛进,规模呈指数级增长。训练庞大的语言模型需要海量的计算资源,大模型厂商不得不投入巨资构建由数万GPU组成的超大规模集群。然而,GPU卡间以及服务器间的通信损耗成为了一大挑战,亟需通过软硬件协同的技术创新来提升集群的单任务算力。在这一过程中,高速互联技术扮演了至关重要的角色。

  ,例如流水线并行和数据并行。这类策略可依托于Scale-Out网络或消息语义网络,在现有的技术体系(如以太网、IB网络)基础上改造实现,以在成本可控的前提下实现高性能的分布式训练。

  ,例如张量并行和专家并行。这类策略对互联带宽需求极大,需要将并行处理任务部署在GPU之间,并通过超高带宽、超低时延的网络进行传输,以最大限度地压缩通信开销,承载并行计算时的海量通信需求。这种网络被称为Scale-Up网络,或Load-Store的内存语义网络。Scale-Up方案侧重于通过增加单个节点内部的计算资源来提升性能,将计算资源集中于单台服务器或一个紧密耦合的超节点系统之中,以实现极致的性能优化。

  在过去很长一段时间内,Scale-Up网络领域的典型技术是PCIe。它很好地解决了以CPU为中心的互联问题。但在大模型训练领域以GPU为中心的互联场景下,PCIe技术存在GPU语义支持冗余问题,且没办法实现低延迟、大带宽和强一致性特征。

  Scale-Up互联采用GPU直出,将所有的控制器植入GPU内部是不可避免的选择。英伟达在业界最早发现有关问题,推出了NVLink和NVSwitch技术,实现了在Scale-Up领域的高带宽、低延迟和强一致性,各个GPU之间彼此直接用HBM内存,将多个计算单元集成为一个高度协作的整体。

  当前中国AI产业链呈现上游算力层和下游应用层两端分散,中间空白的态势。在中间的网络层,特别是Scale-Up网络领域,缺少领军企业,亟需研发共建统一的互联通信技术标准,链接上下游两端,实现不一样的GPU卡间的协同计算。探微芯联的出现刚好弥补了这一市场空白,分层设计在

  为代表的MLA和MOE方案中,KV(键值对)信息可以在不同的TP(张量并行)组之间共享,SM(流处理器)作为特定通信模块,FP8格式小数据尺寸包,都对All to All高速通信有更多的需求。探微芯联团队ACCLink协议可以在一定程度上完成细颗粒度的高速通信,进而满足了低成本分布式堆叠硬件方案对通信的更大需求。

  清华大学类脑计算研究中心赵蓉教授表示:清华大学类脑计算研究中心作为类脑计算的开拓者和先行者,在类脑芯片间、GPU与GPU间以及异构芯片通信领域具备技术上的先发优势。基于超过十年的类脑科研成果及持续正向的研发迭代,由类脑计算研究中心孵化的探微芯联得以在产品上具备与英伟达竞争的网络通信和并行能力。

  探微芯联创始人、CEO刘学表示:人工智能的发展目前正处于系统架构的黄金十年,探微芯联将持之以恒专注通信、聚焦集群,携手GPU合作伙伴获得与英伟达竞争的网络通信和并行能力,与GPU合作伙伴共同构建智算中心的AI Infra基石。

  随着制程发展逐步走到物理极限,算力提升由以制程更新为主导朝着互联集群化转变,自主可控的高速低延时GPU间互联方案逐步成为中国算力发展的“卡脖子”环节。刘学老师及探微芯联团队负责过多项类脑集群项目,具备多年通信协议研发经验,自主研发的ACCLink&ACCSwitch方案在关键指标上对标英伟达。我们持续看好团队在GPU间通信及集群化方面的研发及产业化能力,期待和支持团队突破关键领域技术难关。麟阁创投将持续在AI+领域布局,做好科学家的共同创业者、创业者的长期陪伴者。

  水木创投专注于硬科技项目的早期投资与科技成果转化,已孵化出多家上市公司和独家兽企业。水木创投的投资着眼于突破核心卡脖子技术,在半导体和AI产业链已有丰富的布局。高速互联技术是AI基础设施中的关键一环,当前我国在网络层尤其是Scale-Up网络领域缺少领军企业。项目团队经过多年的研发积累,不断突破技术难关,推出对标英伟达NVlink&NVSwitch的解决方案,能够有效提升GPU合作伙伴产品竞争力。期待公司不断前进,为我们国家科技产业高质量发展贡献更大的力量。

  人工智能和硬科技的早期孵化和投资是盛景最核心的关注,投资清华类脑中心孵化的探微芯联项目就是这一价值定位的充分体现;短期内,探微芯联的技术将帮助更多的国产AI算力芯片更好、更快地支持满血版DeepSeek R1模型等头部大模型,加快突破中国市场AI算力“卡脖子”的困境;从中长期看,AI与物理世界(包括具身智能、智能/人形机器人等)、科学世界、元宇宙数字世界的结合,AI算力的上限和均值将会十倍、百倍地提升,探微芯联的技术将伴随着AI产业的整体发展获得更大的空间。

  创新工场长期跟踪计算架构演进带来的新机会,深度覆盖了AI算力产业链。AI技术正处于快速迭代的阶段,scaling law依旧有效,在过去两年研发中的预训练的模型和大规模部署在生产环境推理的模型的参数持续变大,受限于单卡显存,scale up网络变得愈发重要。探微芯联团队在该领域有多年的研发积累和充分的验证,自研协议性能对标NVLink & NVSwitch,期待见证公司持续突破,和国产AI芯片公司一道构建新的生态。

  探微芯联所在的GPU互联领域,属于卡脖子难题,做国内的Nvlink很难但是很重要;创始人刘学及其背后的清华类脑中心技术实力丰沛雄厚,刘学对整个行业了解很深,有商业意识,也比较谦逊,综合素养高,是一位难得的技术型创业者,从水木清华校友基金投人和投事两个角度来看,都很值得链接支持!

上一篇:银禧科技未来资本预算曝光重组策略引发市场关注!
下一篇:格陵兰科技股票跌落583%背面隐含的财政压力与商场危险剖析
关于我们
华体育会app官方下载在线
企业文化
发展历程
新闻资讯
华体育网官方入口
行业动态
华体会手机
咨询服务
审计服务
资质荣誉
联系我们
网站地图
备案号:京ICP备05032212号-1