当前位置: 首页 » 资讯 » 新科技 » 正文

千万用户涌入的魔搭社区,如何成了中国AI开源生态的典型样本?

IP属地 中国·北京 科技行者 时间:2026-03-23 16:11:57


作者 | 金旺

开源概念,在大模型时代尤为盛行。

开源社区,也成了推动如今大模型空前盛世一种无法忽视的机制。

作为国内规模最大的模型开源社区,魔搭社区发起人、阿里云CTO周靖人今日(3月22日)的智汇金陵·AI开源人才峰会暨魔搭开发者大会上,给出了魔搭社区最新官方数据:

2025年6月30日至今,魔搭社区用户数已经从1600万增长到了2500万,魔搭社区上的开源模型数量从7万个增长至17万个。

同样是在这次大会上,魔搭社区开源发展委员会正式成立,魔搭社区开始投入更多精力来做全球开源技术标准。

时至今日,魔搭社区已经成为中国AI开源生态的一个典型样本。

那么,中国AI开源生态有哪些先天优势?又为什么能催生出一个发展如此之快的魔搭社区?

这成了大模型、智能体疯狂涌入各行业的当下,一个值得思考的问题。

01 千万用户涌入魔搭社区背后

2022年11月,由中国计算机学会开源发展委员会(CCF)和阿里共同发起,魔搭社区正式成立。

当时全球还有另一个人工智能发展史上的里程碑事件,是OpenAI的ChatGPT正式发布。

说起来,魔搭社区的成立是在ChatGPT爆发之前,当时,阿里提出了一个新概念MaaS(model as a service,模型即服务)。

如果说ChatGPT的发布,让所有人都开始用一个可以聊天的机器人来做一些有趣的事,那么,MaaS的提出,则明确了大模型的商业价值,就像曾经的软件一样,模型本身就将成为一种服务。

在随后几年里,我们看到,魔搭社区将国内外主流开源模型通通纳入到了这一开源社区的生态中,这其中既包括阿里过往发布的各代Qwen模型,包括百度的文心、腾讯的混元等互联网大厂的开源模型,也包括智谱、MiniMax、阶跃星辰、DeepSeek、Mistral等开源模型。

从阿里官方公布的最新数据来看,截至目前,魔搭社区已经服务了全球超2500万用户,汇聚了17万+开源模型和1000+顶尖科研机构和企业。


从ChatGPT的发布到DeepSeek的上线,大模型仅仅用三年时间就完成了从技术爆发到工程落地的演进,模型能力的提升、模型降本的速度,让不少普通用户也都用上了大模型,或多或少感受到了来自人工智能技术带来的冲击。

而在DeepSeek上线之后,其实又有两项技术,完善了大模型的能力,让大模型能力加持下的、更具象化的智能体开始有了落地的可能。

其一是2024年11月25日由Anthropic研究出的MCP。

MCP,即模型上下文协议,是一项开放标准协议,借助这一标准化、双向、安全的协议,大模型可以安全连接外部数据源、工具和系统,突破训练数据静态知识的局限性,让AI应用拥有了实时获取信息、减少幻觉、执行实际操作的能力。

这一协议在2025年迅速成为大模型领域的一项事实标准,直接推动了各类AI应用,尤其是智能体的开发热潮。

魔搭社区是在2025年4月15日上线了MCP广场,并同步上线了上千款MCP服务,覆盖搜索、地图、支付、开发者工具等各领域,让这一开源社区得以向工具增强型的Agent时代迈出了重要一步。

经过过去这一年的发展,从阿里官方公布的最新数据来看,截至目前,魔搭社区已经上线了超过9200个MCP Server,由魔搭社区托管的MCP服务也已经支持了超过16亿次调用。

其二是由Anthropic在2025年10月16日在Claude中上线的Skill功能。

Claude Skills本质上是一套模块化、可复用的“功能包”,每个Skill是一个文件夹,包含针对特定任务的指令、脚本、资源和模板,仅在任务相关时动态加载对应Skill,从而显著提升在专业领域的任务执行能力。

skill这一模式比传统长提示模式拥有更高的效率、一致性、复用性,它是大模型从聊天机器人向专用智能体又一次重要的进化。

在本次大会上,魔搭社区正式推出了Skills中心,据周靖人透露,基于魔搭社区的Skills中心,开发者可借助封装好的Skills,将复杂技能快速集成至模型工作流,提升Agent的交付效率。


正是在经过了这一系列的开源能力更新和发展,如今的魔搭社区用户数已达到2500万,开源模型数量达到17万个。

仅仅在过去9个月里,魔搭社区的用户量增长接近千万,开源模型数量增长超10万个。

而在这次大会上,魔搭社区正式全面开放核心OpenAPI、并成立了开源发展委员会,魔搭社区开始投入更多精力来做全球开源技术标准。


如今的魔搭社区,显然已经成了中国AI开源生态的一个典型样本。

02 中国AI开源生态的优势是什么?

2026年,人工智能技术对于开源生态的需求已经不言而喻。

北京人工智能研究院副院长兼总工程师林咏华针对当下关注度颇高的世界模型与具身智能结合应用为例,在大会上为我们解释了AI开源生态的重要性:

“大家关于具身智能的一个极致探索,是用物理世界模型做‘VLA’的‘V’,来与‘A’做融合,然而,现在优秀的物理世界模型训练成本极高,即便这样的物理世界模型被训练出来,之后的推理成本也会很高,这样的技术就需要开源出来。

只有将其中最新的技术开源出来,让更多团队基于这些新技术进行迭代、解决系统优化问题,推动这些优秀的模型被真正用于具身智能。”

也是在这场大会上,我们还听到了浙江大学本科生院院长&浙江大学求是特聘教授吴飞、清华大学计算机系高性能所所长翟季冬、北京大学软件研究所所长刘譞哲、智元机器人合伙人兼具身业务总裁姚卯青几位关于中国AI开源生态优势的分析。


其中,姚卯青强调的是制造优势:

“中国良好的制造业基础,让我们能够大批量生产和推广机器人本体硬件,其次,中国也有大量应用场景,从机器人走入真实部署场景来将的话,制造业就是第一个可以大规模引入机器人的场景,作为制造业大国,既提供了本体制造基础,也提供了很好的应用土壤。”

刘譞哲强调的是场景优势:

“这样的场景优势特别体现在算力,由我们的国情所致,我们需要适配不同的算力,通过极致的性能倒逼出我们在开源上有极致的系统。”

翟季冬强调的是人才优势:

“清华计算系2014年之后的毕业生大都留在了国内,从国内高校来看,中国聚集了很多人才,这是推动中国AI开源生态的优势之一。”

林咏华强调的是产业优势:

“我们要做能够适配不同芯片的软件技术栈,中国目前拥有最多的AI芯片厂商,我们(软件技术栈)动辄就能实现全球AI芯片覆盖最多,在开源生态中,我们更容易获得更多基础力量的产业支持。”

吴飞强调的则是协同优势:

“我们这个大会的主办方是魔搭社区(开源社区),下面坐了多位政府领导和院士学者,这在国外可能不会发生,这样的协同优势让我们每个人都可以找到搭子,帮助我们做成自己想做的事。”

正是基于这些优势,中国的大模型已经具备了全球竞争力,接下来,中国AI开源生态也将在全球AI生态中扮演着越来越重要的角色。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。