高端GPU持续缺货之下,一家要寻衅英伟达的芯片初创公司成为行业热议焦点。
8枚芯片跑大模型,就能支持5万亿参数(GPT-4的三倍) 。
这是独角兽企业SambaNova刚刚发布的新型AI芯片SN40L——
型号中40代表是他们第四代产品,L代表专为大模型(LLM)优化:高达1.5T的内存,支持25.6万个token的序列长度。
CEO Rodrigo Liang表示,当前行业标准做法下运行万亿参数大模型须要数百枚芯片,我们的方法使总拥有本钱只有标准方法的1/25。
SambaNova目前估值50亿美元(约365亿公民币),累计完成了6轮总计11亿美元的融资,投资方包括英特尔、软银、三星、GV等。
他们不仅在芯片上要寻衅英伟达,业务模式上也说要比英伟达走的更远:直接参与帮助企业演习私有大模型。
目标客户上野心更是很大:瞄准天下上最大的2000家企业。
1.5TB内存的AI芯片最新产品SN40L,由台积电5纳米工艺制造,包含1020亿晶体管,峰值速率638TeraFLOPS。
与英伟达等其他AI芯片更大的不同在于新的三层Dataflow内存系统。
520MB片上SRAM内存65GB的高带宽HBM3内存以及高达1.5TB的外部DRAM内存与紧张竞品比较,英伟达H100最高拥有80GB HBM3内存,AMD MI300拥有192GB HBM3内存。
SN40L的高带宽HBM3内存实际比前两者小,更多依赖大容量DRAM。
Rodrigo Liang表示,虽然DRAM速率更慢,但专用的软件编译器可以智能地分配三个内存层之间的负载,还许可编译器将8个芯片视为单个别系。
除了硬件指标,SN40L针对大模型做的优化还有同时供应密集和稀疏打算加速。
他们认为大模型中许多权重设置为0,像其他数据一样去实行操作很摧残浪费蹂躏。
他们找到一种软件层面的加速办法,与调度和数据传输有关,但没有透露细节,“我们还没准备好向公布是如何做到这一点的”。
咨询机构Gartner的剖析师Chirag Dekate认为,SN40L的一个可能上风在于多模态AI。
GPU的架构非常严格,面对图像、视频、文本等多样数据时可能不足灵巧,而SambaNova可以调度硬件来知足事情负载的哀求。
目前,SambaNova的芯片和系统已得到不少大型客户,包括天下排名前列的超算实验室,日本富岳、美国阿贡国家实验室、劳伦斯国家实验室,以及咨询公司埃森哲等。
业务模式也比较特殊,芯片不单卖,而是出售其定制技能堆栈,从芯片到做事器系统,乃至包括支配大模型。
为此,他们与TogetherML联合开拓了BloomChat,一个1760亿参数的多措辞谈天大模型。
BloomChat建立在BigScience组织的开源大模型Bloom之上,并在来自OpenChatKit、Dolly 2.0和OASST1的OIG上进行了微调。
演习过程中,它利用了SambaNova独特的可重配置数据流架构,然后在SambaNova DataScale系统进行演习。
这也是这家公司最大被投资者热捧之外的最大争议点之一,很多人不看好一家公司既做芯片又做大模型。
给每家大企业打造150个大模型在与The Next Platform网站互换时,CEO Rodrigo Liang表示:
用于大模型演习的公开数据已快耗尽,但对参数数量的追求还在不断增加。
各种大模型的性能相差只有几个百分点,这不是大家该当玩的游戏。
他认为大模型与天生式AI商业化的下一个沙场是企业的私有数据,尤其是大企业。
这些企业坐拥大量的数据,但自己不知道个中大部分内容是什么。
对付企业私有大模型的形态,SambaNova也有分歧凡响的不雅观点。
他们认为终极企业内部不会运行一个GPT-4或谷歌Gemini那样的超大模型,而是根据不同数据子集创建150个独特的模型,聚合参数超过万亿。
相称于把GPT-4等大模型内部的Mixture of Experts(专家稠浊)架构扩展到全体系统,称为Composition of Experts(专家合成)。
在企业运转的每个节点运行一个完全且经由专门调度的根本模型,分别用法律语料库、制造语料库、风险管理语料库、财富管理语料库、客户发卖语料库、客户支持语料库等平分歧数据演习。
这些专家模型之间通过一种软件路由或负载平衡器联在一起,收到推理要求后决定详细向哪个模型推送提示词。
这一策略与GPT-4和谷歌Gemini等做法形成光鲜比拟,巨子大多希望创建一个能泛化到数百万个任务的巨型模型。
剖析师认为技能上可能谷歌的做法性能更强,但SambaNova的方法对企业来说更实用。
没有任何一个模型或人能完全访问企业的所有数据,限定每个部门能访问的专家模型,就能限定他们能访问的数据。
斯坦福系芯片公司,华人工程师主力SambaNova成立于2017年,2020年之前都比较低调。
联创3人都是斯坦福背景,连产品系列名Cardinal(深赤色)都是斯坦福的昵称与代表颜色。
CEO Rodrigo Liang是前Sun/甲骨文工程副总裁,也有人将这个名字解读为暗指甲骨文老敌人IBM的DeepBlue(深蓝)。
其余两位联合创始人都是斯坦福教授。
CTO Kunle Olukotun是电气工程教授,因多核芯片架构方面的研究而有名,开拓了首批支持线程级推测 (TLS) 的芯片之一。
Christopher Ré是打算机科学副教授,重点研究方向机器学习和数据剖析的速率和可扩展性。
此外团队中还有不少华人工程师。
从官网公开信息来看,SambaNova的领导团队中,至少有3名华人。
Jonathan Chang,拥有UC伯克利的机器工程学士学位以及南加州大学的MBA学位。
他在构建高增长方面拥有20多年的履历。加入SambaNova之前,Chang在特斯拉事情了近9年。
Marshall Choy,此前曾担当甲骨文公司系统产品管理和解决方案开拓副总裁,监督了数十个行业的企业硬件和软件产品的上市。
Penny Li,在EDA工具和微处理器设计方面拥有超过27年的履历。此前,她曾在IBM和甲骨文事情过。
如果去领英搜索还能创造更多华人团队成员。
目前SambaNova包含SN40L芯片的人工智能引擎已上市,但定价没有公开。
根据Rodrigo Liang的说法,8个SN40L组成的集群统共可处理5万亿参数,相称于70个700亿参数大模型。
环球2000强的企业只需购买两个这样的8芯片集群,就能知足所有大模型需求。
参考链接:[1]https://spectrum.ieee.org/ai-chip-sambanova[2]https://www.nextplatform.com/2023/09/20/sambanova-tackles-generative-ai-with-new-chip-and-new-approach/[3]https://sambanova.ai/resources/