当前位置: 首页 » 资讯 » 新科技 » 正文

吃够了全自动的龙虾,我决定把AI的方向盘抢回来

IP属地 中国·北京 量子位 时间:2026-03-13 18:21:58

邓思邈 发自 凹非寺
量子位 | 公众号 QbitAI

龙虾确实很火,但很多人用着用着,突然开始怀念一件东西:

控制感

就像个没戴紧箍咒的孙悟空一样,你让它改A,它反手把你写好的B给删了;你求它别动B,它转头趁你不注意把C改得面目全非。

更别提甚至没打招呼就清空你的手机,或者自作主张帮你去相亲这种极端案例了……

于是,一支来自清华、哈佛的团队坐不住了。他们觉得:AI越强,理应越可控,而不是越难伺候。

他们搞出了全球首个可操控AI平台MorphMind,直接把AI从一个黑箱对话框,改造成了一套可以被人随时干预的工作系统。

比起简单快速拿到一个答案,在这里你直接稳拿顶级霸总剧本,运筹帷幄,操盘整支AI专家团,与他们并肩作战。

每位成员职责和分工明确,主打工作过程全透明。

下属们分别都在想什么、干什么,你一眼看穿。逻辑跑偏了?当场打断;细节存疑?反手就是一个追问和质询。

你可以亲自调教这帮顶级大脑,让它们越用越顺手,越用越懂你;嗯……至于那些逻辑混乱、爱摸鱼的?直接一键打入冷宫。


△我手把手培养的团队

这种把AI彻底“拿捏”住、所有输出都尽在掌控的感觉,真还挺过瘾的。

所以话不多说,一手实测这就奉上咯。

一手实测MorphMind

打开主页面,是这个样子的,界面比较简单直观:



跟一般的对话式AI不一样,它没有设置“深度思考”类似的选项按钮,而是在右侧安放了两个开关:

Review each step(监督每步)Auto-complete(自动完成)

一上来系统默认的是打开前者。

我这种喜欢把控全局和细节的人,当然要来趁机体验一下当老板的爽感,所以基本上选的都是“监督每步”

任务1:创业从0到1冷启动

先上开胃小菜。

prompt:我失业了,想去摆摊卖淀粉肠,帮我想个立刻就能从0开始执行的方案出来。

它想了一会儿,没有一股脑给我端上一个糊弄人的半成品方案来,而是先来征求我的想法和意见

真的是靠谱啊,把我压根没想到的问题前置性考虑到了。而且还提供了不同选项,我只要拍板做决策就行,游戏互动感极强。



在哪里摆摊卖呢?我一头雾水,所以希望它给我的方案包括选址的决策逻辑。但如果你很有主见,预先就想好了摆摊地点,就可以明确告诉它大方向。



紧接着,它就自动为我把这个项目拆解为四步,以思维导图的形式呈现在页面的右方,然后系统会自动给我的同事们派活儿:



于是,我之前在其他任务下培养过的同事们,像什么:

市场调研专家、预算精算师、供应链专家、财务顾问、文案与品牌大师、安全合规官……

他们就都冒泡了,甚至都不用我张嘴吩咐,然后就被分配到不同的任务底下。

由于创业刚刚起步,为了节省开支,它备货清单里列出来的有些东西我并不想要,它还冲出来劝阻我:



鉴于我也不是卖什么“法式街头慢烘脆皮植物蛋白凝萃配克什米尔风味迷踪辛香粉末”淀粉肠,所以我纠正了它要求我用牛皮纸袋打包的要求,毅然决然选择塑料袋。

几个员工这么一顿忙活下来,再加上我的及时纠偏和确认,直接整出来一个包含选址决策、启动成本清单、定价与盈亏模型、第一天SOP的完整创业手册。



甚至连跟路人打招呼揽客的话术、食品安全注意事项、每日记账模板都给我备好了,I人P人看了真是狂喜啊!!!



任务2:旅行规划

刚从普吉岛团建旅游回来,感觉玩得还不够尽兴,就让它为我下一次重返,安排一下行程吧。

这次我给的prompt比较详尽,直接告诉它我需要哪些人替我出谋划策:



乍一看,给我推荐的都是这次我没玩过的,而且满足我的要求,够小众、也不网红


△@量子位老板,下次能带我去这吗?

好家伙,原本以为我把普吉岛这地探索得已经够彻底了,没想到还别有洞天啊,当时在小某书上做攻略的时候咋没瞅见啊。

让我惊喜的一点是,我从未向它透露过我的内在倾向,但在制定行程时,它绕过了那些热门的传统骑象项目,优先给我安排了去这个象园,也是非常有人文温度了。



而且推荐的那些餐厅定睛一搜,评分竟然还不错:



想要点名表扬的还有我的“安全合规官”,它为我出具了一份七日行程里可能涉及的潜在风险:



去过那的人就知道这些风险的的确确真实存在,并不是那种车轱辘套话,让第一次出国的人感到暖暖的很安心~

真后悔没早点看到,这样就不会像当时一样那么着急忙慌,临出门还突然打起了退堂鼓。

任务3:中英文翻译

之前备考翻译资格证的时候,总是被汉译英折腾得不轻。

重点是有些文本翻译出来,网上也找不到原汁原味的范本来对照参考,我们试着考考它。

材料节选自钱穆先生的《国史新论》,理解起来有些复杂,所以我跟它说,我需要两名员工:一名母语级翻译大师,一名逻辑校审官



翻译得够不够信达雅咱先不说,至少看上去它是诚实的——逐段进行拆分,会把它为何选择这么翻译的思路,清晰展示出来:



有些它拿不准主意的,还会给你提供三种方案,我查了查资料、动用我为数不多的毕生所学,选择了分支B:



这种咀嚼和对比的过程,似乎也能提高我对语言的把控力。

校审官在审查上也非常严谨,比如我在翻译时经常犯的错误——术语统一问题、逻辑断层这类问题,它也细心指出来了。



我有哪里觉得不对劲的地方,还可以直接@校审官出来“挨打”,真是快哉:



看到这儿,我真觉得MorphMind就像是一个给我启发和灵感的语言学习搭子

因为我本身就喜欢探索同一意义的多种语言表达方式,包括回想起高中英语老师在教我们写作时,她也会跟我们讲,尽量多用那些不烂大街的——所谓高级表达词组和句式。

诶,说不定真的可以靠着MorphMind,有朝一日拿下CATTI二笔资格证呢,flag我先立在这里了。

任务4:续写文学作品

最近甜茶在北京四处晃悠,在地铁上那叫一个班味十足。

看到他那张脸,不禁又让我回味起了他那部经典作品。

原著改编的电影都翻来覆去看了十多遍了,不如咱搞个二创?

prompt:帮我续写《以你的名字呼唤我》这部文学作品

因为是突然心血来潮,我脑子里对细节残存的记忆也不多了,它竟然会主动问询我从哪个时间节点开始续写、续写的篇幅字数、续写时想要使用的语言。



紧接着系统自动将这个任务拆解成这么几步,包括风格研究、续写创作、润色校准,曾经在其他任务里调教过的AI专家们,又齐聚一堂了:



仔细看它写的初稿,我发现有一些不对劲的地方,例如某一处语言文风似乎有点偏离原著的语感,以及音乐描述的细节与那个场景下的气氛不太搭,稍显喧闹……

于是我当场就提出了质疑:



而且,进行到某一步我突然不知道该做什么了,这AI也会提醒我下一步可以干嘛,选就是了:



紧接着,上面翻译用到过的“校审官”不请自来,它对自身要求很高,直接给我摊开展示哪些地方续写得与原著吻合,哪些地方还要再进行校准:



我真的感觉这样一步步核查和确认后写出来的东西,融入了我的创意进去,是我能够放心署名交出去的作品:



实测了一圈下来,我开始思考一个问题:

为什么在别的AI那儿充其量我只是个“提问者”,而在MorphMind这里我可以安心做“主理人”

深挖下去才发现,MorphMind团队对AI的理解,原来是走了一条和主流AI产品截然不同的路。

“如果AI只学会了读书,它永远无法抵达AGI”

今天大多数AI产品真正的问题,是能力越来越强,人却越来越难掌控它。

问题的根源,在MorphMind团队看来,并不是单个模型参数,而是系统架构和工作方式本身。

复杂任务本来就不是“一问一答”,而是一个不断循环的过程:分工、检查、调整、继续。

但在一个对话框里同时完成检索、分析和写作,这些标准完全不同的工作往往被揉成一个答案。用户既看不到过程,也无法只修改其中某一步,只能整段重来。



MorphMind试图解决的正是这个结构性问题。

在设计上,它并没有选择继续给单个模型叠加更多工具或Skill,而是把AI重新组织成一个具有分工的专家团队系统

在这里,你可以针对不同任务开辟“工作室”,请不同专家坐镇。很妙的点是,这些专家能随时“串门”,在不同项目里合力帮你解决问题。



这专家你培养得足够优秀,还能挂这平台上出来给大家,甚至收到打赏,赚一点“睡后”收入(目前平台尚未上线该功能,可以期待一下)。

其实这么看下来,MorphMind有点“Agent领域的油管或者B站”那味儿。

把AI产品变成创作者社区,这听起来像是一个关于未来的宏大叙事。

但要真正实现“越用越聪明”且“永不退化”的体验,靠的不是虚无的情怀,而是对系统运行逻辑的推倒重来。

剥开MorphMind的交互外壳,会发现他们平台背后的核心,建立在三类底层能力之上。

第一是单调性(Monotonicity)

团队希望系统对用户的理解随着使用时间不断增强,而不是越用越混乱。

用户纠正过的错误、确认过的标准、否定过的方向,都会在后续任务中继续发挥约束作用。当用户与AI互动越多,系统对用户判断逻辑的理解也会稳定提升。

第二是共生式运行(Mutualistic Runtime)

正如上面你所看到的,在MorphMind的设计里,它会让用户在任务运行的过程中持续参与系统能力的塑形,而非在结果出来之后再让用户去试图检查和纠错。

AI会在合适的节点吸收用户反馈,并将这些反馈转化为可复用的能力,以便后续再遇到类似的任务,能够逐渐贴近用户的思路。

第三是即时学习(Just-in-Time Learning)

AI会在任务执行过程中识别知识缺口:

什么时候现有信息已经足够,可以继续推进;什么时候需要去外部搜索资料;什么时候问题仍然存在不确定性,需要回到用户处进一步确认。

在这三类能力之上,系统才会组织不同的AI专家角色。

值得注意的是,这些“专家”并不是同一个模型简单换个名字,而是在能力边界上的真正分工

不同专家角色调用的底层模型并不相同,它们各自可以访问不同信息、调用不同工具,并承担不同类型的任务。例如,有的专家负责文献检索,有的负责数据分析,有的负责写作表达。

每个专家也拥有各自独立的上下文和记忆路径。

用户纠正文献研究专家的内容,并不会直接影响写作专家的判断;不同角色也会在各自领域中逐渐形成独立的能力积累。

为了避免多Agent系统常见的混乱问题,MorphMind把任务组织成一个有方向的协作图



任务会被拆解成具有先后关系的节点:谁负责搜索、谁负责整理、谁负责校对,以及在哪些关键节点需要回到用户进行确认。

这样一来,AI团队的协作过程就更像是接力,而不是一场混战。

要真正做到“来源可查、逻辑可审”,MorphMind的做法并不是在答案最后附上一长串引用链接,而是让每一个关键结论都能回溯到它依赖的原始资料和中间步骤。



他们认为很重要的一点是,如果信息本身存在不确定性,系统也会明确标注出来,而不是替用户“糊弄过去”。

在使用体验上,这也带来了一个明显变化:

用户可以在任务进行过程中随时暂停、修改或回滚某一步,而不需要因为一个小问题就重新生成整个答案。

相比许多Agent系统追求的“自动跑完整个流程”,MorphMind的选择看起来有点叛逆。

它没有向用户兜售什么无所不能的超级Agent,而把精力瞄准在构建一套看起来不那么讨巧的协作结构

但好处是,人类可以持续性介入和引导,即这套框架下所有内容可检查、可编辑、可重跑

事实上,我们很多时候都希望能够在一个工作项目的关键节点参与判断、调整策略,并逐渐把经验沉淀为系统能力,而不只是当个最后的验收者草草了事。

在MorphMind联合创始人刘嘉心里,这也是AI真正走向AGI的重要一步。

刘嘉目前是哈佛大学工程与应用科学学院助理教授,在纳米电子学和生物电子学领域拥有超18年研究经验,长期深耕脑机接口前沿领域。



他本科就读于复旦大学化学系,师从赵东元院士;在哈佛大学师从Charles M. Lieber教授(美国国家科学院院士、国际纳米科技领军人物之一)完成博士深造,期间主要进行纳米电子器件应用于脑机接口的研究。

正因为长年研究如何让机器与生物系统实现无缝的“底层连接”,刘嘉对机器如何辅助人类智慧有着更本质的洞察:

如果AI只学会了读书,那它永远无法抵达AGI。真正的智慧,存在于人与世界的感知和交互之中。MorphMind要做的,是把深藏于专家直觉里的“隐性知识”,转化为AGI进化的燃料。

要抓住这些“只可意会”的专家直觉,唯一的办法就是把掌控权交还给人。

所以,MorphMind的底层逻辑是——充分尊重人的直觉和创造性,让人主导AI,从而在协作中精准地把事情做对。

失控的效率,与被找回的主导权

在传统对话式AI的交互模式中,用户输入提示词,模型输出答案。检索、分析、判断、写作……这些步骤往往被压缩在一次生成之中。

表面上看效率很高,但整个过程几乎是一个黑箱。用户既不知道模型是如何得出结论的,也很难判断问题究竟出在哪一步。

于是,一种有些奇怪的工作方式逐渐形成:AI先生成,人再返工。

很多人已经习惯了这种工作流,让模型输出结果,人再逐句核查、补充信息、修正逻辑,必要时甚至从头重写。

这与MorphMind公司的CEO丁杰观察到的用户痛点高度一致。

丁杰是清华大学2008级校友、哈佛大学博士(师从美国工程院院士Vahid Tarokh教授),美国国家科学基金会杰出青年职业奖(NSF CAREER)获得者,目前是明尼苏达大学统计学终身教授,同时兼任电子工程与计算机科学研究生导师,长期研究聚焦生成式AI、AI for Science以及人机协作系统



在加入明尼苏达大学之前,他还曾担任Amazon Scholar,与Amazon Alexa及AGI团队合作开展过数据隐私和基础模型研究。

在他看来,一方面,人们很难判断什么时候可以信任AI,因此每一次输出几乎都要从头检查;另一方面,即使已经纠正过一次错误,下一次再遇到类似任务,AI仍然可能像一个“失忆的实习生”,需要重新教一遍。

类似的情况,也出现在MorphMind团队的科研计算场景里。

有一次,团队成员让AI生成一段slurm脚本,并明确说明先生成脚本,自己检查后再提交。结果AI直接执行了提交命令,占用了8张A100开始跑实验。

当时实验配置还没有确认,GPU资源又属于实验室共享集群。等到发现时,算力已经消耗了好几个小时,其他同学的任务也因此被迫排队等待。

这些经历让团队逐渐意识到,现阶段问题并不在于模型写得好不好,而是当前大多数AI系统,本质上更像一台每次重新运行的机器。

它很难被逐步引导,也很难像真实合作者那样按步骤协作。

用户无法冻结已经完成的部分,也无法逐步调整系统行为。AI越强,这种失控感反而越明显。

正是在这样的背景下,MorphMind开始逐渐成形。

团队最早的尝试其实发生在实验室内部。

2024年初,他们已经开发过多个AI Agent,用来自动化科研流程中的不同环节,例如实验管理、数据分析和文档整理等。



那段时间的体验很直接:AI已经可以替他们完成大量任务,但真正的瓶颈很快就暴露出来。

他们发现,其实很多拥有深厚专业判断的人,并不缺问题,也不缺应用场景,他们缺少的只是一个能力——把自己的想法快速变成一个可以工作的AI系统

如果每一次尝试都必须依赖开发者、复杂配置和长周期工程协作,那么很多本来可以快速验证的想法,最终还是会被卡在执行环节。

于是MorphMind团队逐渐意识到,比起继续开发几个内部使用的Agent,更重要的事情,是把这套能力做成一种平台,让更多人可以直接使用

在这个过程中,他们用一个词来描述自己想要实现的方向:Mutualistic AI,希望达到人与AI和谐共生的关系——

AI负责承担那些高频、耗时、可扩展的感知、认知和执行任务,而人始终保留对目标、边界和关键判断的主导权。

这样一来,AI能够随着人的反馈持续学习、持续贴近并放大专家能力的系统。



从行业角度看,MorphMind的产品形态,也正好踩在了一个关键节点上。

过去三年,AI产品形态大致经历了几次明显的变化:聊天机器人、工具型AI、单智能体,再到如今正在兴起的Agent系统

在Agent系统这一最新阶段里,AI开始承担完整流程,而不仅仅是完成单个任务,AI正在从工具逐渐演化为一种新的组织结构。

人类的角色也正在从使用工具的人,逐渐变成管理AI系统的人。

不同公司也正沿着不同方向探索这一变化:有些团队专注于单个Agent能力的提升,有些则致力于构建更复杂的自动化流程。

而MorphMind选择的路径,是构建一个人与AI团队协作的系统,除了替人执行简单的任务,也能够随着人的反馈不断调整和成长



在MorphMind的设想中,他们希望能够构建一种新的基础设施,一种可以让人的思考能力被持续放大、沉淀并协作起来的基础设施

过去很多复杂工作必须依赖一个完整团队才能完成,而在AI参与之后,一个人就可以是一支队伍,把这些事情真正推进下去。

让每一个有想法的人,不再被执行和工具门槛困住,而能够带着AI把事情真正做出来。

未来AI的组织方式会发生变化,一个以Agent为核心的世界正在逐渐成形。

如果这种形态逐渐成为现实,AI带来的变化将不只是效率提升,而是一种更深层的转变:工作的基本单位,不再以团队的形式呈现,而是一个人和Ta管理的一群Agent

MorphMind想做的,就是让这样的协作方式不再停留在想象之中,而是成为现在就可以被真实体验的一种工作模式。


△图片为AI生成

这种协作范式的改变,在用户真实场景中已初现端倪:

无论是在二级市场投研中,将原本耗时大半天的资料复盘缩短至半小时的结构化产出;还是在强化学习科研中,将“实验、异常、解释”的复杂闭环固化为可复用的研究流;抑或是独立开发者们将脑中灵感拆解为可交付的项目进程……

如果你第一次打开MorphMind,最直观的感受或许会很简单:

原来不需要懂复杂的AI技术,也不用反复迁就模型的行为,就已经可以开始带着一支AI专家团队做事了。

而这,或许正是Agent时代最真实最鲜活的一种开端。

MorphMind官网:
https://morphmind.ai
立即免费试用:
https://agentlab.morphmind.ai

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。