[2025年5月23日,中国北京]鲲鹏昇腾开发者大会2025在北京中关村国际创新中心成功举行。大会吸引了国内外众多开发者、行业专家学者以及行业伙伴参加。在23日上午举行的鲲鹏开发者峰会上,鲲鹏计算正式发布了基于openEuler的鲲鹏+xPU推理解决方案和基于openEulerIntelligence的AI开发组件,为开发者呈现一场AI创新与算力融合的前沿技术盛宴。
迈向AI时代,智算、通算走向异构融合,从训练到推理,CPU以其通用性、灵活性与良好的生态兼容性,构建了AI技术普惠的基石。同时以DeepSeek为代表,伴随高性能、低成本大模型的迅速普YY易游体育平台及,国内AI算力需求呈现爆发式增长,行业焦点已从“算力供给”转向“算力高效利用”。
通过openEuler的安装部署工具,开发者可以灵活地以组件化配置方式安装部署所需AI环境,实现一键分钟级DeepSeek环境安装部署。经伙伴实测,原需3~5天手动安装的DeepSeek环境,利用安装工具仅需约20分钟即可完成,极大提升了开发效率。openEuler安装部署工具当前已经默认支持了15款业界生态组件,包括K8s、OpenStack、PyTorch等常用组件。此外,openEuler还提供了插件框架,使能开发者极简快速开发组件安装插件,实现伙伴/客户私有组件也可一键安装。
openEuler通过GMEM打通xPU和CPU内存统一编址,使能异构xPU加速器透明超分HostT级内存,可用内存倍级提升,LLM推理吞吐量提升50%,实现透明超分,极致性能。同时GMEM使能OS原生接口(malloc)异构内存编程能力,极简异构编程;异构xPU加速器仅需百行代码轻松接入GMEM生态,实现极简编程,极易接入。
openEuler发布的sysHAX组件,动态调度鲲鹏和异构xPU算力资源,计算*佳算力配比,将部分Decode任务卸载至鲲鹏CPU;同时调度算法根据集群负载自动调度,自动选择调度时机,调度方向,使数据在设备内存和主机内存之间流动,提升推理总可用内存容量,提升并发,实现LLM推理吞吐量提升10%~30%。
很多客户场景有大量私域知识无法通过大模型互联网训练学习,导致知识问答结果不准确、不可用。openEulerIntelligence支持用户私域RAG知识库的搭建,支持DOC、PDF、PPTX、TXT、MD等多种格式,文字、表格、图片等多钟模式文档导入,结合openEuler的数据治理服务、多路召回引擎和LLM管理服务等工程能力,可以使问答准确率从60%提升至90%左右。此外,openEulerIntelligence支持了可视化的MCP工作流编排,快速生成AI应用,开发效率由3-6周缩短至天级。
openEuler开发者体验Workshop现场由40台设备构建了一个多小时的沉浸式实操体验课堂。活动开场由华为计算鲲鹏副总裁,openEuler委员会执行总监胡正策致辞,阐述AI赋能操作系统的技术愿景。近百名开发者在openEuler开发平台上深度体验了代码生成、部署、发布等场景,深度验证开发需求口语化,系统自动解析执行的创新模式。现场开发者反馈希望能了解更多有关openEuler开发平台的内容,实操中涌现的交互优化建议将驱动智能体持续进化。这场大规模实战验证了openEuler描绘的新型开发范式的落地可行性。
在openEuler开发平台Codelab展区现场,12台体验设备持续满载,两天吸引数百名开发者深度参与,通过自然语言交互体验AI重构的智能化openEuler社区工具链。开发者亲身感受对话即编程的创新工作流。多位资深程序员评价智能体精准理解开发意图,调试效率提升明显,更有开发者赞叹非常震撼。展区收集的百余条优化建议将融入社区演进路线。这场沉浸式AI开发体验不仅验证了openEuler的技术前瞻性,更点燃了开发者拥抱智能操作系统的热情。
基于“鲲鹏+xPU”组合,鲲鹏基于openEuler将不断为企业提供更灵活组合的智能化基础软件底座,加快AI在各行业应用。