英伟达强化生态围墙 中国厂商生态之战提速

最新信息

英伟达强化生态围墙 中国厂商生态之战提速
2024-03-16 02:15:00
近期,AI芯片巨头英伟达CUDA(Compute Unified Device Architecture,计算统一设备架构)的一条新增条款,引发了国内科技圈的瞩目。据了解,CUDA是英伟达于2006 年所开发的一种异构编程语言,它为通用程序提供了调用GPU的接口。
  今年2月,一名德国工程师在安装CUDA 11.6时发现,英伟达在最终用户许可协议 (EULA) 的限制类目中新增了条款:“不得对使用SDK元素生成的任何输出部分进行逆向工程、反编译或拆解,以将此类输出工件转换为非NVIDIA平台”。
  而后,国外科技自媒体猜测并分析英伟达CUDA的新增条款的原因,认为该举措是为了针对英特尔和AMD都有参与的ZLUDA计划,也可能是指向某些通过翻译层利用CUDA代码的中国GPU厂商。
  经过层层“加码”,这些消息传到国内以后已经变形,于是“英伟达出手封杀,禁止使用翻译工具将CUDA运行在其他硬件平台上”演变成英伟达的“封杀”还要卡住国产GPU/AI芯片的脖子。
  《中国经营报》记者注意到,面对以上的传言,国内GPU厂商摩尔线程快速站出来回应称:“摩尔线程MUSA/MUSIFY不涉及英伟达EULA相关条款,开发者可放心使用。”另一家国产AI芯片公司壁仞科技也表示:“对我们没影响,我们用的是自己开发的软件系统。”
  “我们走的是对标英伟达的全功能GPU路线,CUDA兼容一直是我们的一个优势。”摩尔线程方面告诉记者,该公司有自己的MUSA生态,一方面可以独立自主发展,另一方面也可以兼容CUDA,两者不冲突,且兼容CUDA的方式不在英伟达所禁止的范围内。
  此外,在知识含量很高的问答平台知乎上一些程序员也表示,英伟达CUDA的最终用户许可协议新条款对于国产GPU厂商没有影响,有的只是外行的猜想。“虽然不清楚条款具体情况,也没去追溯看旧版和新版的对比,不过基本没有影响。其他的GPU厂商如果想要尽快占领市场的话,一个最重要的方法就是兼容CUDA生态。这些厂商去兼容,实际上不违反任何规则,英伟达也不会去阻止这样的行为。”资深产业分析师黄烨锋表示。
  与非网资深行业分析师张慧娟则表示,这对一些初创公司(试图通过兼容CUDA入局的企业)有一定影响,但是对于技术成熟度较高、注重自有生态建设的企业来说,影响有限。“英伟达此举其实也反映AI芯片市场不断走向成熟,竞争越来越激烈,未来生态对企业意味着一切,会看到更多巨头在生态间的布局和竞争。”她说。
  新规是对自身生态的一种保护
  事实上,从2021年开始,英伟达就禁止其他硬件平台使用模拟层运行CUDA软件,但只是在在线最终用户许可协议中提出了警告。如今,从CUDA 11.6版本开始,安装的时候就会在最终用户许可协议中看到相关警告条款。2024年2月,英伟达CUDA 11.6及更高版本安装则出现新规。
  据了解,CUDA作为英伟达所开发的一种异构编程语言,为通用程序提供了调用GPU的接口,也为英伟达扩张自己的芯片应用生态提供了便利。在AI 2.0时代,大模型进行训练或推理,开启GPU加速,实质就是利用CUDA 进行加速。
  “CUDA的强大,在于英伟达构建的人工智能软件系统和开发者生态,入门的开发者都会习惯性地使用它,因为生态比较全,模型、软件集成,应有尽有。”研究机构Omdia AI行业首席分析师苏廉节表示。
  而把英伟达的CUDA作为标杆,是不少国内AI芯片厂商的共同做法,典型代表是华为昇腾的编程语言Ascend C、寒武纪的智能编程语言BANG C。这是国内GPU厂商为了培育自己的芯片应用生态所做的努力之一。
  为了尽快打开市场,不少AI芯片的后入局者会采用兼容CUDA的方式,比如摩尔线程把CUDA兼容作为自身的优势。“一些公司在做开发的时候,首先会将兼容CUDA作为一个卖点,这也侧面反映了英伟达CUDA生态的成功和软件的重要性。”张慧娟说。
  根据知乎蓝V认证清华大学博主“埃米博士”的说法,当前主要有两种兼容CUDA的方法:一是重新编译底层二进制代码,二是API接口兼容或编译。
  重新编译底层二进制代码,如ZLUDA通过简单替换,为ZLUDA库实现CUDA兼容。据悉,ZLUDA是由个人开发者Andrzej Janik所开发的项目,于2020年首次出现,可使CUDA 应用无须修改源代码即可在英特尔和AMD的GPU上运行。
  “ZLUDA库对CUDA API进行转换,未经修改的CUDA二进制文件能够直接在(AMD)ROCm和Radeon GPU上运行。”埃米博士表示,虽然该方法拥有转换简单、技术开源等优点,但计算效率低,芯片无法发挥最优性能,且直接触犯了英伟达新规。
  而埃米博士认为:“在API接口协议和编译器层面与CUDA对应一致。”这种方法不涉及对CUDA SDK输出元素的修改,是合法可行的。他指出,英特尔、AMD、瀚博、登临、壁仞、沐曦、摩尔线程、天数智芯等都采取了这种兼容方式。
  摩尔线程的公告也侧面证实了这点。“MUSIFY是摩尔线程面向广大MUSA开发者提供的开发工具……可以让开发者将自己的C++源代码,转换成MUSA C++源代码,再通过MUSA编译器MCC编译生成基于MUSA指令集的二进制代码,最终运行在摩尔线程全功能GPU上。”摩尔线程在声明中指出。
  如今,为什么英伟达要在EULA中推出新规定?对此,苏廉节表示:“在其他硬件上运行CUDA会严重影响英伟达的利益。英伟达提供CUDA的初衷不是为了支援其他硬件,单纯是为了方便开发者和玩家利用GPU做软件开发。”
  张慧娟也表示,英伟达在使用条款里明确了CUDA的兼容条款,从企业经营角度看是必然,是对自己生态的一种保护。“英伟达此举其实也反映AI芯片市场不断走向成熟,竞争越来越激烈,未来生态对企业意味着一切,会看到更多巨头在生态间的布局和竞争。”她说。
  国内厂商也需建立自己的生态
  虽然此次新增的CUDA规则对国内AI芯片兼容未有很大影响,但长期来看,构建自主的软件生态体系,也是国内AI芯片公司的必走之路。
  “CUDA生态做得非常好,因为它在很多领域都有布局,比如计算化学,而要用GPU加速,那就必须买英伟达的显卡。”黄烨锋指出,英伟达此前针对生物制药、化学、气候预测、量子计算等领域也发布过一些中间件和软件库。
  苏廉节表示,除英伟达之外的厂商由于起步太晚,因此软件生态里的很多东西都跟不上前者步伐。他指出,国内AI芯片公司想要构建起自己的软件生态,可以向英伟达学习。
  “首先要支持所有主流的开源大模型,推出各类训练推理和模型优化软件,降低开发者门槛。”苏廉节表示,还要和开发者社群紧密合作,积极听取他们的反馈,及时提供更新;如果可以跟高校合作是最好的,率先抢占入门开发者。“总之,就是依靠合作和支援开发者。没有开发者使用你的平台,有再强的软件都没有用。”他说。
  所幸的是,国内AI芯片公司已经在重视软件生态的建设。在“2022世界人工智能大会”(WAIC)上,记者在看到壁仞科技、燧原科技、瀚博等这些公司的芯片产品之外,也了解到他们在大力强调系统和软件生态的重要性。
  “作为英伟达CUDA的主要挑战者,华为的软件生态是除英伟达以外最受开发者欢迎的。”苏廉节表示。据了解,华为已推出AI异构计算架构CANN、开源自研AI框架MindSpore,并于2023年5月发布了昇腾Ascend C编程语言,针对GPU的Kernel级源码迁移工具,可将算子迁移时间从“周级”降到“天级”。
  从公司运作角度来看,对标英伟达的国内公司,想要做出和CUDA那样强大的生态,当前需要在哪些方面发力?对此,摩尔线程方面表示:“首先要具备和CUDA GPU能力全面对标的技术研发能力,能够充分吸收现有的CUDA生态,并在此基础上发展自主可控的基于统一系统架构的新生态,鼓励开发者平滑迁移至新生态。”
  摩尔线程方面还表示,目前打造了从GPU架构功能角度全面对标CUDA的MUSA生态,能完美支持人工智能、科学计算、图形渲染和视频编解码等混合计算能力,有500多家生态合作伙伴,当前重点在于持续打磨MUSA生态开发体验,将生态迁移成本降低至零。
(文章来源:中国经营网)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

英伟达强化生态围墙 中国厂商生态之战提速

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml