12月3日,由亿欧主办的“WIM2025创新者年会”在北京威斯汀酒店正式拉开帷幕。
本届WIM创新者年会以“NewGrowth,NewArena”为主题。这是国内专门聚焦“未来产业”的千人峰会——会议邀请了来自未来产业界的100+位头部企业专业嘉宾、超过2000位行业从业者齐聚一堂,共同探讨“AI引领新增长,未来产业新赛场”核心议题,回望2025年未来产业创新成果,预测2026年最新创业创新趋势。
WIM2025创新者年会由北京科技大学、中国人民大学数据与人工智能研发实验中心、欧美同学会(中国留学人员联谊会)留日分会、首都统战智库联合会民营经济高质量发展专委会、中国农机工业协会低空经济装备分会、深圳谦仁智能产业研究院、百城市长公益论坛协办,中国国际科技促进会国际科技产业创新工作委员会支持。
WIM2025创新者年会于12月3日—5日在北京、上海、深圳三地先后举办,会议以独立演讲、尖峰对话、圆桌论坛、报告首发、百人晚宴、榜单发布等多种丰富形式,为大家带来一场商业视听盛宴!
2025年是世界创新者年会(WorldInnovatorsMeet,WIM)走过的第十一个年头。十一年来,中国科技创新动能澎湃,新兴产业风起云涌。正值“未来产业”发轫之际,本次峰会邀请英伟达亚太区企业级软件负责人张旭,发表《即刻部署,敏捷创新:开启企业专属AI工厂的实践之路》主题演讲。

以下为发言内容原文:
大家下午好,非常感谢亿欧的邀请,有机会和大家分享,我汇报的主题叫做“企业专属的AI工厂”。
重点在专属,这个图应该大家见过很多遍,NVIDIA的本质是做加速计算,所以大家广泛感受到的感知AI,再往前AI也一直存在,但只是说只有英伟达将AI在GPU加速以后,大家才更加直接在生产生活中,感觉到AI对我们的影响。
从最早感知AI,对流媒体的处理,包括视频、语音。那时候耳熟能详的有AI四小龙,滨江三强,有科大讯飞,百度的智能音箱...一直到三年前, 本周一,12月1日,是ChatGPT三周年生日。生成式AI,根据场景的请求,生成一个答案给用户。
再到今天我们都在提到的代理人式AI,我们叫做智能体。可能碳基劳动力和硅基劳动力的融合,智能体是有工作意识的,可以调用各种工具去完成一项任务。还有接下来我们谈到的Physical AI,改变物理世界。
我刚加入英伟达的时候,还在给小米手机提供GPU芯片,基于Android,也做特斯拉的车载显示、也有会议智能终端,也做任天堂Switch的游戏机。档解决了计算任务之后,我们发现数据传输对于AI的限制。所以NVIDIA发明了NVLink用取代PCIe。在2016年,老黄将基于NVLink的一台服务器DGX,送给了位于旧金山的一家创业公司,叫做OpenAI。大模型的生命周期管理已经超出了单台服务器的能力,所以在NV在19年收购了以色列的Mallenox,为IDC提供计算和网络。一直到现在,NVIDIA提供了整个AIDC的参考设计,帮助合作伙伴从能源规划,数据中心建设,提供全栈的咨询以及软硬件的方案。
AI这个主题有点儿抽象,我今天的分享,试着以复刻碳基劳动力的逻辑,看一下NVIDIA的方案如何在硅基劳动力全生命周期管理的过程中提供价值。
首先企业掏腰包部署AI的目的,并不是购买并且芯片,而且是希望将企业场景中的各种业务流加速。所以我们看到很多在座的合作伙伴,花力气说服了企业的一把手,或者很多企业的一把手有非常强的意愿去投入AI,但是花了钱以后会有第二个问题。他觉得花了钱之后,Demo也有了。但是好像对于企业的业务没什么实际的关系,准确率,召回率都不够。用这些基础的开源模型百分之六七十的准确率,解决不了业务上的问题。然后我们做了很多数据治理,模型迭代,发现准确率够了。准确略够了,但是第三个问题,用不起。GPU很贵,模型很大,业务端的需求很多,并发很高,第一个Token生成时间很长,效果不好。
所以我们今天汇报的企业专属的AI工厂,解决两个问题。一个是解决Token效率问题,另一个是Token业务相关性的问题。
每一个实体的企业不管是生产产品还是生产服务,你都应该有一个基于企业数据AI工厂去辅助你的业务。
其实刚才跟大家做了一个比喻,因为AI很抽象,我们其实这一帮人在做的事情就是帮助企业用数字人重塑它的组织架构其实叫做硅基劳动力,我想让大家了解我们碳基的进化逻辑一样,我们硅基的逻辑里面也存在着三个规律,我们其实在企业里不断的在去复刻三个规律,第一个就是叫预训练,预训练类似于基础模型已经完成了我们前20年本科毕业的一件事,我们已经做了本科毕业我们现在可以去企业里上班,但是后面的后训练和推理相当于我们经常说的活到老、学到老,或者叫做边学边用等等,所以这三个定律都是在GPU发生并且被GPU加速,包括你的模型训练,不管你是前训练还是后训练,包括你说模型的推理,这两者是GPU上去做加速处理的,所以为了支撑企业,能够把刚才说的工作流能更好的运行在企业,这是英伟达整个的技术栈。下面有我们的芯片,但是这些芯片其实并不流通,所以英伟达不单单做GPU,我们有CPU、网络芯片等等,中间的这一层,是大家花了很多钱拥有的,我们叫做各种各样的平台。可以是节点的,或者是工作栈,也可能是这样的机柜。但是真正能够让合作伙伴花几百亿、上千亿去拥有这样设备的原因,是因为上面的大家的右手边叫做CUDA生态。
我刚才讲的任何企业不是拥有GPU而去付费,而是为了服务它的业务。英伟达在全球200个国家近千万开发者里面,几乎把所有的应用都做了加速计算,包括做CAD的设计、物质发现、3D生成、流体力学的仿真、包括大模型等等,都是做了加速计算。但是会用加速计算的人大部分分布在互联网大厂,大模型公司,或者是一些教科研的组织,所以在企业里面很少有这样的人。
那企业不愿意把自己的数据给到互联网大厂,或者给是到这些大模型的公司,自己组织当中又没有足够多的客户, 企业怎么用好自己的数据呢?所以我们做了上面的左边这一部分叫做企业服务。你不需要把数据给我,我不需要拿你的数据,我把工具给你,你可以用这些工具来构建自己的企业服务。
下面这个我抽象的硬件就是刚才说的英伟达的硬件平台。上面第一个其实大家叫推理微服务,其实就是刚才说的学以致用就是用,我们把所有的大模型的推理都变成了一个GPU加速的微服务,我们在这地方叫做AI能力的IT化。把之前你需要在AI场景里面去掌握的一大堆的SDK,中间件。把它封装在一个标准的API,剩下就是跟IT一样的术语,在一个K8环境里面可以去做部署。
第二个是Nemo。我们提供了硅基劳动力全生命周期的管理工具。所以在学和用之间就是用企业自己的数据来做数据飞轮。你的企业组织架构有一个爱因斯坦,可能有很多很多的外卖小哥。
刚才说完NEMO就是一个学的过程,我们从数据准备开始,你要有培训资料,然后你要做培训,培训完了我们要去做检查做评估,如果没有通过培训我们还要继续培训,培训完了以后我们会要告诉员工你企业行为规范,什么可以做、什么不能做,再到后面你再加上你最新的产品手册,你就可以去工作。所以给英伟达提供更多的工具可以帮助企业更快的、更好的管理硅基劳动力的全生命周期。
另外就是很多的这些Agent可以一起去配合、一起去工作,我们其实讲的未来我们的操作系统,我们硅基劳动力的操作系统就是Agent,你不需要浏览器,你并不需要ERP、WMS,你企业里面这些系统最后都是一个Agent。
所以我给大家看整个的技术栈,IDC解决了能源就绪的问题,在数据中心会放入设备把它变成算力就绪,存储、计算、网络这都是英伟达提供的全栈的管理软件。上面我们提供一套云生源的架构,包括GPU切分,各种operator来更好的调用各种硬件加速。GPU的动态管理,所以我们通过一系列的收购,包括去年我们收购了以色列Run.ai公司,今年的Lepton,这些能力都会集成在AI Factory软件栈来提升用户价值。
今天的时间关系我没有展开这一部分。,当然物理世界的具身智能也会出现幻觉,英伟达提供的Physical AI stack告诉你的碳基劳动力怎么大学毕业,但是在不同的生产环境当中,例如在化工企业、在药品企业还是在开放道路,你不同的行为准则都要符合规律,自然定律,社会法律法规等。
这是我们的一些场景,这是我们在在做的一些事情,大家可以看到一个ServiceNow的案例。我们也在跟中国的小伙伴们在做China For China的实践。
我们希望能够让大家把把GPU资源,更好的更有效的转化成他们的服务。这就是我的汇报,谢谢大家。
)