邓思邈 发自 凹非寺
量子位 | 公众号 QbitAI
龙虾确实很火,但很多人用着用着,突然开始怀念一件东西:
控制感
就像个没戴紧箍咒的孙悟空一样,你让它改A,它反手把你写好的B给删了;你求它别动B,它转头趁你不注意把C改得面目全非。
更别提甚至没打招呼就清空你的手机,或者自作主张帮你去相亲这种极端案例了……
于是,一支来自清华、哈佛的团队坐不住了。他们觉得:AI越强,理应越可控,而不是越难伺候。
他们搞出了全球首个可操控AI平台MorphMind,直接把AI从一个黑箱对话框,改造成了一套可以被人随时干预的工作系统。
比起简单快速拿到一个答案,在这里你直接稳拿顶级霸总剧本,运筹帷幄,操盘整支AI专家团,与他们并肩作战。
每位成员职责和分工明确,主打工作过程全透明。
下属们分别都在想什么、干什么,你一眼看穿。逻辑跑偏了?当场打断;细节存疑?反手就是一个追问和质询。
你可以亲自调教这帮顶级大脑,让它们越用越顺手,越用越懂你;嗯……至于那些逻辑混乱、爱摸鱼的?直接一键打入冷宫。
![]()
△我手把手培养的团队
这种把AI彻底“拿捏”住、所有输出都尽在掌控的感觉,真还挺过瘾的。
所以话不多说,一手实测这就奉上咯。
一手实测MorphMind
打开主页面,是这个样子的,界面比较简单直观:
![]()
跟一般的对话式AI不一样,它没有设置“深度思考”类似的选项按钮,而是在右侧安放了两个开关:
Review each step(监督每步)Auto-complete(自动完成)
一上来系统默认的是打开前者。
我这种喜欢把控全局和细节的人,当然要来趁机体验一下当老板的爽感,所以基本上选的都是“监督每步”
任务1:创业从0到1冷启动
先上开胃小菜。
prompt:我失业了,想去摆摊卖淀粉肠,帮我想个立刻就能从0开始执行的方案出来。
它想了一会儿,没有一股脑给我端上一个糊弄人的半成品方案来,而是先来征求我的想法和意见
真的是靠谱啊,把我压根没想到的问题前置性考虑到了。而且还提供了不同选项,我只要拍板做决策就行,游戏互动感极强。
![]()
在哪里摆摊卖呢?我一头雾水,所以希望它给我的方案包括选址的决策逻辑。但如果你很有主见,预先就想好了摆摊地点,就可以明确告诉它大方向。
![]()
紧接着,它就自动为我把这个项目拆解为四步,以思维导图的形式呈现在页面的右方,然后系统会自动给我的同事们派活儿:
![]()
于是,我之前在其他任务下培养过的同事们,像什么:
市场调研专家、预算精算师、供应链专家、财务顾问、文案与品牌大师、安全合规官……
他们就都冒泡了,甚至都不用我张嘴吩咐,然后就被分配到不同的任务底下。
由于创业刚刚起步,为了节省开支,它备货清单里列出来的有些东西我并不想要,它还冲出来劝阻我:
![]()
鉴于我也不是卖什么“法式街头慢烘脆皮植物蛋白凝萃配克什米尔风味迷踪辛香粉末”淀粉肠,所以我纠正了它要求我用牛皮纸袋打包的要求,毅然决然选择塑料袋。
几个员工这么一顿忙活下来,再加上我的及时纠偏和确认,直接整出来一个包含选址决策、启动成本清单、定价与盈亏模型、第一天SOP的完整创业手册。
![]()
甚至连跟路人打招呼揽客的话术、食品安全注意事项、每日记账模板都给我备好了,I人P人看了真是狂喜啊!!!
![]()
任务2:旅行规划
刚从普吉岛团建旅游回来,感觉玩得还不够尽兴,就让它为我下一次重返,安排一下行程吧。
这次我给的prompt比较详尽,直接告诉它我需要哪些人替我出谋划策:
![]()
乍一看,给我推荐的都是这次我没玩过的,而且满足我的要求,够小众、也不网红
![]()
△@量子位老板,下次能带我去这吗?
好家伙,原本以为我把普吉岛这地探索得已经够彻底了,没想到还别有洞天啊,当时在小某书上做攻略的时候咋没瞅见啊。
让我惊喜的一点是,我从未向它透露过我的内在倾向,但在制定行程时,它绕过了那些热门的传统骑象项目,优先给我安排了去这个象园,也是非常有人文温度了。
![]()
而且推荐的那些餐厅定睛一搜,评分竟然还不错:
![]()
想要点名表扬的还有我的“安全合规官”,它为我出具了一份七日行程里可能涉及的潜在风险:
![]()
去过那的人就知道这些风险的的确确真实存在,并不是那种车轱辘套话,让第一次出国的人感到暖暖的很安心~
真后悔没早点看到,这样就不会像当时一样那么着急忙慌,临出门还突然打起了退堂鼓。
任务3:中英文翻译
之前备考翻译资格证的时候,总是被汉译英折腾得不轻。
重点是有些文本翻译出来,网上也找不到原汁原味的范本来对照参考,我们试着考考它。
材料节选自钱穆先生的《国史新论》,理解起来有些复杂,所以我跟它说,我需要两名员工:一名母语级翻译大师,一名逻辑校审官
![]()
翻译得够不够信达雅咱先不说,至少看上去它是诚实的——逐段进行拆分,会把它为何选择这么翻译的思路,清晰展示出来:
![]()
有些它拿不准主意的,还会给你提供三种方案,我查了查资料、动用我为数不多的毕生所学,选择了分支B:
![]()
这种咀嚼和对比的过程,似乎也能提高我对语言的把控力。
校审官在审查上也非常严谨,比如我在翻译时经常犯的错误——术语统一问题、逻辑断层这类问题,它也细心指出来了。
![]()
我有哪里觉得不对劲的地方,还可以直接@校审官出来“挨打”,真是快哉:
![]()
看到这儿,我真觉得MorphMind就像是一个给我启发和灵感的语言学习搭子
因为我本身就喜欢探索同一意义的多种语言表达方式,包括回想起高中英语老师在教我们写作时,她也会跟我们讲,尽量多用那些不烂大街的——所谓高级表达词组和句式。
诶,说不定真的可以靠着MorphMind,有朝一日拿下CATTI二笔资格证呢,flag我先立在这里了。
任务4:续写文学作品
最近甜茶在北京四处晃悠,在地铁上那叫一个班味十足。
看到他那张脸,不禁又让我回味起了他那部经典作品。
原著改编的电影都翻来覆去看了十多遍了,不如咱搞个二创?
prompt:帮我续写《以你的名字呼唤我》这部文学作品
因为是突然心血来潮,我脑子里对细节残存的记忆也不多了,它竟然会主动问询我从哪个时间节点开始续写、续写的篇幅字数、续写时想要使用的语言。
![]()
紧接着系统自动将这个任务拆解成这么几步,包括风格研究、续写创作、润色校准,曾经在其他任务里调教过的AI专家们,又齐聚一堂了:
![]()
仔细看它写的初稿,我发现有一些不对劲的地方,例如某一处语言文风似乎有点偏离原著的语感,以及音乐描述的细节与那个场景下的气氛不太搭,稍显喧闹……
于是我当场就提出了质疑:
![]()
而且,进行到某一步我突然不知道该做什么了,这AI也会提醒我下一步可以干嘛,选就是了:
![]()
紧接着,上面翻译用到过的“校审官”不请自来,它对自身要求很高,直接给我摊开展示哪些地方续写得与原著吻合,哪些地方还要再进行校准:
![]()
我真的感觉这样一步步核查和确认后写出来的东西,融入了我的创意进去,是我能够放心署名交出去的作品:
![]()
实测了一圈下来,我开始思考一个问题:
为什么在别的AI那儿充其量我只是个“提问者”,而在MorphMind这里我可以安心做“主理人”
深挖下去才发现,MorphMind团队对AI的理解,原来是走了一条和主流AI产品截然不同的路。
“如果AI只学会了读书,它永远无法抵达AGI”
今天大多数AI产品真正的问题,是能力越来越强,人却越来越难掌控它。
问题的根源,在MorphMind团队看来,并不是单个模型参数,而是系统架构和工作方式本身。
复杂任务本来就不是“一问一答”,而是一个不断循环的过程:分工、检查、调整、继续。
但在一个对话框里同时完成检索、分析和写作,这些标准完全不同的工作往往被揉成一个答案。用户既看不到过程,也无法只修改其中某一步,只能整段重来。
![]()
MorphMind试图解决的正是这个结构性问题。
在设计上,它并没有选择继续给单个模型叠加更多工具或Skill,而是把AI重新组织成一个具有分工的专家团队系统
在这里,你可以针对不同任务开辟“工作室”,请不同专家坐镇。很妙的点是,这些专家能随时“串门”,在不同项目里合力帮你解决问题。
![]()
这专家你培养得足够优秀,还能挂这平台上出来给大家,甚至收到打赏,赚一点“睡后”收入(目前平台尚未上线该功能,可以期待一下)。
其实这么看下来,MorphMind有点“Agent领域的油管或者B站”那味儿。
把AI产品变成创作者社区,这听起来像是一个关于未来的宏大叙事。
但要真正实现“越用越聪明”且“永不退化”的体验,靠的不是虚无的情怀,而是对系统运行逻辑的推倒重来。
剥开MorphMind的交互外壳,会发现他们平台背后的核心,建立在三类底层能力之上。
第一是单调性(Monotonicity)
团队希望系统对用户的理解随着使用时间不断增强,而不是越用越混乱。
用户纠正过的错误、确认过的标准、否定过的方向,都会在后续任务中继续发挥约束作用。当用户与AI互动越多,系统对用户判断逻辑的理解也会稳定提升。
第二是共生式运行(Mutualistic Runtime)
正如上面你所看到的,在MorphMind的设计里,它会让用户在任务运行的过程中持续参与系统能力的塑形,而非在结果出来之后再让用户去试图检查和纠错。
AI会在合适的节点吸收用户反馈,并将这些反馈转化为可复用的能力,以便后续再遇到类似的任务,能够逐渐贴近用户的思路。
第三是即时学习(Just-in-Time Learning)
AI会在任务执行过程中识别知识缺口:
什么时候现有信息已经足够,可以继续推进;什么时候需要去外部搜索资料;什么时候问题仍然存在不确定性,需要回到用户处进一步确认。
在这三类能力之上,系统才会组织不同的AI专家角色。
值得注意的是,这些“专家”并不是同一个模型简单换个名字,而是在能力边界上的真正分工
不同专家角色调用的底层模型并不相同,它们各自可以访问不同信息、调用不同工具,并承担不同类型的任务。例如,有的专家负责文献检索,有的负责数据分析,有的负责写作表达。
每个专家也拥有各自独立的上下文和记忆路径。
用户纠正文献研究专家的内容,并不会直接影响写作专家的判断;不同角色也会在各自领域中逐渐形成独立的能力积累。
为了避免多Agent系统常见的混乱问题,MorphMind把任务组织成一个有方向的协作图
![]()
任务会被拆解成具有先后关系的节点:谁负责搜索、谁负责整理、谁负责校对,以及在哪些关键节点需要回到用户进行确认。
这样一来,AI团队的协作过程就更像是接力,而不是一场混战。
要真正做到“来源可查、逻辑可审”,MorphMind的做法并不是在答案最后附上一长串引用链接,而是让每一个关键结论都能回溯到它依赖的原始资料和中间步骤。
![]()
他们认为很重要的一点是,如果信息本身存在不确定性,系统也会明确标注出来,而不是替用户“糊弄过去”。
在使用体验上,这也带来了一个明显变化:
用户可以在任务进行过程中随时暂停、修改或回滚某一步,而不需要因为一个小问题就重新生成整个答案。
相比许多Agent系统追求的“自动跑完整个流程”,MorphMind的选择看起来有点叛逆。
它没有向用户兜售什么无所不能的超级Agent,而把精力瞄准在构建一套看起来不那么讨巧的协作结构
但好处是,人类可以持续性介入和引导,即这套框架下所有内容可检查、可编辑、可重跑
事实上,我们很多时候都希望能够在一个工作项目的关键节点参与判断、调整策略,并逐渐把经验沉淀为系统能力,而不只是当个最后的验收者草草了事。
在MorphMind联合创始人刘嘉心里,这也是AI真正走向AGI的重要一步。
刘嘉目前是哈佛大学工程与应用科学学院助理教授,在纳米电子学和生物电子学领域拥有超18年研究经验,长期深耕脑机接口前沿领域。
![]()
他本科就读于复旦大学化学系,师从赵东元院士;在哈佛大学师从Charles M. Lieber教授(美国国家科学院院士、国际纳米科技领军人物之一)完成博士深造,期间主要进行纳米电子器件应用于脑机接口的研究。
正因为长年研究如何让机器与生物系统实现无缝的“底层连接”,刘嘉对机器如何辅助人类智慧有着更本质的洞察:
如果AI只学会了读书,那它永远无法抵达AGI。真正的智慧,存在于人与世界的感知和交互之中。MorphMind要做的,是把深藏于专家直觉里的“隐性知识”,转化为AGI进化的燃料。
要抓住这些“只可意会”的专家直觉,唯一的办法就是把掌控权交还给人。
所以,MorphMind的底层逻辑是——充分尊重人的直觉和创造性,让人主导AI,从而在协作中精准地把事情做对。
失控的效率,与被找回的主导权
在传统对话式AI的交互模式中,用户输入提示词,模型输出答案。检索、分析、判断、写作……这些步骤往往被压缩在一次生成之中。
表面上看效率很高,但整个过程几乎是一个黑箱。用户既不知道模型是如何得出结论的,也很难判断问题究竟出在哪一步。
于是,一种有些奇怪的工作方式逐渐形成:AI先生成,人再返工。
很多人已经习惯了这种工作流,让模型输出结果,人再逐句核查、补充信息、修正逻辑,必要时甚至从头重写。
这与MorphMind公司的CEO丁杰观察到的用户痛点高度一致。
丁杰是清华大学2008级校友、哈佛大学博士(师从美国工程院院士Vahid Tarokh教授),美国国家科学基金会杰出青年职业奖(NSF CAREER)获得者,目前是明尼苏达大学统计学终身教授,同时兼任电子工程与计算机科学研究生导师,长期研究聚焦生成式AI、AI for Science以及人机协作系统
![]()
在加入明尼苏达大学之前,他还曾担任Amazon Scholar,与Amazon Alexa及AGI团队合作开展过数据隐私和基础模型研究。
在他看来,一方面,人们很难判断什么时候可以信任AI,因此每一次输出几乎都要从头检查;另一方面,即使已经纠正过一次错误,下一次再遇到类似任务,AI仍然可能像一个“失忆的实习生”,需要重新教一遍。
类似的情况,也出现在MorphMind团队的科研计算场景里。
有一次,团队成员让AI生成一段slurm脚本,并明确说明先生成脚本,自己检查后再提交。结果AI直接执行了提交命令,占用了8张A100开始跑实验。
当时实验配置还没有确认,GPU资源又属于实验室共享集群。等到发现时,算力已经消耗了好几个小时,其他同学的任务也因此被迫排队等待。
这些经历让团队逐渐意识到,现阶段问题并不在于模型写得好不好,而是当前大多数AI系统,本质上更像一台每次重新运行的机器。
它很难被逐步引导,也很难像真实合作者那样按步骤协作。
用户无法冻结已经完成的部分,也无法逐步调整系统行为。AI越强,这种失控感反而越明显。
正是在这样的背景下,MorphMind开始逐渐成形。
团队最早的尝试其实发生在实验室内部。
2024年初,他们已经开发过多个AI Agent,用来自动化科研流程中的不同环节,例如实验管理、数据分析和文档整理等。
![]()
那段时间的体验很直接:AI已经可以替他们完成大量任务,但真正的瓶颈很快就暴露出来。
他们发现,其实很多拥有深厚专业判断的人,并不缺问题,也不缺应用场景,他们缺少的只是一个能力——把自己的想法快速变成一个可以工作的AI系统
如果每一次尝试都必须依赖开发者、复杂配置和长周期工程协作,那么很多本来可以快速验证的想法,最终还是会被卡在执行环节。
于是MorphMind团队逐渐意识到,比起继续开发几个内部使用的Agent,更重要的事情,是把这套能力做成一种平台,让更多人可以直接使用
在这个过程中,他们用一个词来描述自己想要实现的方向:Mutualistic AI,希望达到人与AI和谐共生的关系——
AI负责承担那些高频、耗时、可扩展的感知、认知和执行任务,而人始终保留对目标、边界和关键判断的主导权。
这样一来,AI能够随着人的反馈持续学习、持续贴近并放大专家能力的系统。
![]()
从行业角度看,MorphMind的产品形态,也正好踩在了一个关键节点上。
过去三年,AI产品形态大致经历了几次明显的变化:聊天机器人、工具型AI、单智能体,再到如今正在兴起的Agent系统
在Agent系统这一最新阶段里,AI开始承担完整流程,而不仅仅是完成单个任务,AI正在从工具逐渐演化为一种新的组织结构。
人类的角色也正在从使用工具的人,逐渐变成管理AI系统的人。
不同公司也正沿着不同方向探索这一变化:有些团队专注于单个Agent能力的提升,有些则致力于构建更复杂的自动化流程。
而MorphMind选择的路径,是构建一个人与AI团队协作的系统,除了替人执行简单的任务,也能够随着人的反馈不断调整和成长
![]()
在MorphMind的设想中,他们希望能够构建一种新的基础设施,一种可以让人的思考能力被持续放大、沉淀并协作起来的基础设施
过去很多复杂工作必须依赖一个完整团队才能完成,而在AI参与之后,一个人就可以是一支队伍,把这些事情真正推进下去。
让每一个有想法的人,不再被执行和工具门槛困住,而能够带着AI把事情真正做出来。
未来AI的组织方式会发生变化,一个以Agent为核心的世界正在逐渐成形。
如果这种形态逐渐成为现实,AI带来的变化将不只是效率提升,而是一种更深层的转变:工作的基本单位,不再以团队的形式呈现,而是一个人和Ta管理的一群Agent
MorphMind想做的,就是让这样的协作方式不再停留在想象之中,而是成为现在就可以被真实体验的一种工作模式。
![]()
△图片为AI生成
这种协作范式的改变,在用户真实场景中已初现端倪:
无论是在二级市场投研中,将原本耗时大半天的资料复盘缩短至半小时的结构化产出;还是在强化学习科研中,将“实验、异常、解释”的复杂闭环固化为可复用的研究流;抑或是独立开发者们将脑中灵感拆解为可交付的项目进程……
如果你第一次打开MorphMind,最直观的感受或许会很简单:
原来不需要懂复杂的AI技术,也不用反复迁就模型的行为,就已经可以开始带着一支AI专家团队做事了。
而这,或许正是Agent时代最真实最鲜活的一种开端。
MorphMind官网:
https://morphmind.ai
立即免费试用:
https://agentlab.morphmind.ai





京公网安备 11011402013531号