北京商报讯(记者 魏蔚)3月27日,众智FlagOS 2.0于中关村论坛期间重磅发布,同期FlagEval(天秤)大模型评测体系与Eclipse基金会签署大模型评测战略合作协议,以及中关村人工智能开源联盟正式发起。FlagOS 2.0全面拥抱智能体时代,将支持范围从大模型训推扩展到具身智能与科学计算,并为大模型性能提升正式发布Triton-TLE编程语言、AI算子自动生成平台KernelGen 2.0、FlagOS Skills 1.0智能体技能库等多项创新成果。
据悉,FlagOS 2.0版本由北京智源研究院、中科加禾、中科院计算所、澎峰科技、清程极智、清华大学、北京大学、中科院软件所、硅基流动、先进编译实验室、华为、清微智能、海光信息、中电信人工智能公司、北京邮电大学、摩尔线程、沐曦股份、天数智芯、燧原科技、基流科技、苦芽科技、晶隆智算等23家核心机构共同完成,是面向多种AI芯片的统一开源系统软件栈的重大版本升级。FlagOS 2.0在原有FlagGems大模型算子库基础上,新增6大领域算子库,算子总数达到497个,从大模型走向科学计算全域覆盖,构建起全球最大的多芯片算子库。
FlagOS 2.0的多芯片统一编译器FlagTree v0.5正式发布Triton-TLE(Triton Language Extension),这是对原有Triton语言的全面扩展,让算子开发从单一GPU架构拓展到一个兼顾高性能、高开发效率的更广阔空间,Triton-TLE目前支持31种原语,分别在GPU、DSA、可重构计算三大代表性架构上进行验证。实测性能显著优于原生Triton,接近甚至超过各芯片原厂C语言。
通过与华为昇腾、清微智能、ARM AIPU团队深入合作,FlagOS 2.0的多芯片统一编译器FlagTree v0.5首次发布FLIR (FlagIR)的预览版,探索建立支持多芯片架构的统一中间表示层,让不同芯片可以共享统一编译优化、更容易适配。目前,FLIR已经支持了76个Triton语言的原语,103个FlagGems算子,首批支持芯片包括华为昇腾、清微智能、ARM AIPU。FLIR不但是FlagTree 在 Triton 编译体系上的关键技术,也成为与生态协同的技术桥梁,本次预览版发布,也标志着众智FlagOS与华为昇腾CANN两大开源生态的打通。
FlagOS 2.0通过FlagScale统一多芯片插件体系,向上连接多种主流AI框架,向下连接FlagOS核心能力与厂商原生能力,形成面向多元AI芯片的统一插件中枢,覆盖从推理、到训练、到强化学习全流程,从解决"N种芯片"的统一,迈向解决"M种框架与算法包接入"的统一。
本次发布的FlagOS-Robo更新版本,是面向具身智能的训推一体化多芯片框架,支持了更多模型的具身智能大模型的训练和推理,打通了具身智能领域的训练-推理-仿真评测全流程覆盖。
KernelGen 2.0是面向多种AI芯片的算子生成自动化平台,覆盖算子生成、基线构建、验证测试的完整生命周期,支持Triton和Triton-TLE两种语言,已适配6款AI芯片(英伟达、海光、摩尔线程、华为昇腾、天数智芯、沐曦)。KernelGen在英伟达上的算子生成正确性和加速比均显著超过Claude Code,在5种国产AI芯片上均获得高于95%的生成正确性,超过50%的算子性能优于芯片原生实现。
FlagRelease作为开源大模型的跨芯迁移与统一发布平台,目前已面向10家厂商的12款硬件发布了70+个开源模型实例,覆盖DeepSeek-R1、Qwen3.5、GLM-5、TeleChat3等主流模型,为每个模型、每种芯片提供统一的源代码、验证过的模型文件和开箱即用的Docker镜像。