当前位置: 首页 » 资讯 » 新科技 » 正文

为什么越用AI,越觉得自己不值钱了?

IP属地 中国·北京 编辑:赵磊 茶饮消息 时间:2026-01-19 14:11:53

前几天,刷到一条短视频,是国家传染病医学中心主任张文宏,1月10日在香港高山论坛上的一段讲话,他明确表示:“我拒绝把AI引入医院病历系统。”

因为,未经系统性训练的AI,会从根本上改变医生的培训路径,破坏或损害年轻医生需要通过传统训练才能掌握的独立诊断能力。

张文宏解释说,他自己当然用AI,让AI先过一遍病例。但关键是,以他三十多年的临床经验,他一眼就能看出AI哪里错了。

问题在于年轻医生。

如果一个医生从实习阶段就开始依赖AI给诊断结论,跳过了完整的临床思维训练,那他将永远丧失一项关键能力:鉴别AI对错的能力。

张文宏的这番话,从一个普通AI用户的角度,道破了一个被普遍误解的现实,关于AI时代的技能和杠杆。

过去一两年,我看到一种奇特的“群体性焦虑”。

有意思的是,这种焦虑不是来自那些不懂技术的人,恰恰相反,它更多来自那些已经熟练使用AI的精英群体:程序员、律师、分析师、自媒体人。

大家最初都兴奋地以为,AI会让自己成为超人。但短暂的效率狂欢之后,很多人陷入了一种更深的无力感:

当AI能以零成本完成80%的工作时,我剩下那20%的价值,到底能不能撑起我的职业尊严?

如果一个AI可以几分钟搞定我两周的代码;如果大模型能秒出一份完美的尽调报告;如果gemini或豆包能让毫无绘画基础的人产出大师级作品,如果gpt能够“准确”阅读体检报告或检查报告,那人类技能的护城河,究竟还在哪里?

之前,大西洋月刊曾经发表过一篇文章,说我们正在进入一个去技能化的时代;但硬币的另一面恰恰是:AI并没有让技能变得无用,它引发的是一场剧烈的“技能通胀”。只是技能要被重新定义。

在一个执行成本趋近于零的时代,AI就是一面照妖镜。它放大的不仅是你的效率,更是你认知的颗粒度或精度。

你感到“废了”,可能是因为AI无情地暴露了一个事实:过去你引以为傲的工作,大部分只是在“搬砖”,是执行,是“听话照做”,而不是在“思考”,更不是提出问题和解决问题。

21世纪的技能真相,不再关乎你手里有多少工具,而关乎你脑子里有多少原本的真实的杠杆。“宏观把控+微观验证”的综合能力,才是AI时代真正的铁饭碗。

一、张文宏悖论:0的10倍还是0

硅谷有一个广为流传的观点,但常常被误读。

人们说:“AI是生产力的10倍放大器。”

这句话的数学含义,比字面意思更冷酷。

如果你现在的能力是1,AI让你变成10;如果你是10,AI让你变成100。但如果你对某个领域的底层理解是0,那么,0乘以10,依然是0。

这正是张文宏担忧的核心:一个从实习阶段就依赖AI的年轻医生,他的临床判断力可能就是0。AI再强大,0乘以任何数,结果还是0。

更可怕的是,这个“0”自己还不知道自己是0。

张文宏说得很直白:“新手医生不能只会依靠AI看病。”为什么?因为即使AI准确率高达95%,那5%的错误也需要由专业医生来识别和纠正。

如果医生根本不具备独立诊断能力,他怎么发现AI的错误?怎么处理AI搞不定的疑难杂症?

这就是我说的“张文宏悖论”,某种层面上,它是个先有鸡还是先有蛋的问题。但另外一个层面上,它强调的是,是人在用工具,还是工具在用人。

它揭示了AI时代技能的第一层真相:

AI的本质是“概率的拟合”,而人类的价值在于“后果的承担”。

过去我们说的技能,往往指的是熟练的执行,熟记语法、背诵法条、掌握各种快捷键。但在AI时代,这些硬技能迅速贬值,变成了基础设施。

取而代之的,是一种更隐蔽、更稀缺的能力:判断力。而所谓判断力,就是知晓自己行为的长远后果。

试想一个场景:一位资深工程师和一位新手同时用AI写代码。

新手得到的只是代码块。他无法判断这段代码有没有架构隐患,无法预知它在极端并发下的表现,甚至不知道这是不是一个“死胡同”式的解决方案。

而资深工程师看到的不是代码,是路径。他知道该给AI什么任务,知道如何验收结果,更知道当AI犯错时该在哪个环节修正,而AI一定会犯错。

对于新手,AI是个黑盒,只能祈祷它输出正确答案。 对于专家,AI是个无限精力的实习生团队,指哪打哪。

于是,未来的专家与普通人的分野,在于你是否具备“验证AI输出”的能力。

张文宏能一眼看出AI的诊断错在哪里,靠的不是什么神秘直觉,而是三十多年临床经验积累出的“元能力”。这种能力,恰恰是被AI跳过训练的年轻医生最缺乏的。

所以,如果没有深厚的专业知识作为压舱石,AI带来的不是效率,而是昂贵的混乱。

二、为什么你的提示词总是“差点意思”?

为什么有的人能用AI解决复杂问题,有的人只能把它当聊天机器人?

问题不在于你不会写“咒语”,而在于你思维的熵值太高。

最近有一种很值得警惕的现象:人们开始把思考本身外包给AI。

遇到问题,不做拆解,直接把一团浆糊似的需求扔给模型,然后对着平庸的输出发火:“这AI根本就没用。”

其实,不是AI蠢,是你没想清楚。

AI模型再先进,本质上也是基于“上下文”的预测机器。它的输出质量,严格受限于你输入的上下文质量。这就是“Garbage In, Garbage Out”(垃圾进,垃圾出)的现代版。

21世纪的顶级技能,变成了“清晰的表达”和“结构化思维”。

真正的高手在打开对话框之前,脑子里已经完成了一场严密的推演:

1.定义问题:我到底要解决什么核心矛盾?

2.拆解逻辑:这个大问题由哪几个子任务构成?依赖关系是什么?

3.设定标准:什么样的结果才算合格?

比如,在让AI协助开发一个功能前,你是否已经厘清了数据流向?在让AI写一篇文章前,你是否已经构建了独特的观点框架?

别指望AI替你完成“从0到1”的思考。

AI擅长的,其实是填充血肉(从1到100),但那个“1”,那个核心的洞察、逻辑的骨架,必须由你提供。

如果你无法清晰地向人类同事阐述你的想法,你也绝不可能从AI那里得到满意的结果。

清晰的写作就是清晰的思考。

未来,用自然语言编程将是通用技能。但这不意味着编程变简单了,而是意味着语言和逻辑的精度成为了新的代码。

如果你的思维是混乱的,AI只会高效率地放大这种混乱。

三、走出信息茧房:比99%的人更接近本质

既然AI是基于人类已有的海量数据训练出来的,它天生就带有一个巨大的缺陷:平庸的共识,即向均值回归。

你问AI关于健康、理财或历史的观点,它大概率给你一个“教科书式”的回答。这些回答安全、正确,但往往极其平庸,因为它们只是重复了互联网上出现频率最高的信息。

这就引出了第三个维度:去伪存真的洞察力。

知识(Knowledge)和理解(Understanding)是两码事。

知识是你知道“应该这样做”;

理解是你明白“为什么要这样做,以及什么时候不该这样做”。

这正是张文宏和年轻医生之间的根本差距。

年轻医生通过AI可以瞬间获得“知识”,如诊断结果、用药建议、治疗方案。但张文宏拥有的是“理解”:他知道这些知识的边界在哪里,什么情况下要打破常规,什么时候AI给的“标准答案”是错的。

在这个信息过载的时代,如果你只是通过填鸭式教育和算法推荐获取信息,你本质上只是在一个巨大的“回声室”里机械复述。你并不真正理解事物的运作机制。

要比AI更聪明,我们需要比99%的人更接近事物的本质(第一性原理)。

想理解商业?不要只看畅销书和公众号,去研究现金流、杠杆、供需关系和人性的贪婪。

想理解健康?不要只信所谓的权威指南,去研究代谢、激素、炎症反应的生物学机制。

当AI给你一个“标准化建议”时,只有那些真正理解底层系统运作的人,才能敏锐地发现其中的漏洞,或者在特殊情境下果断推翻AI的建议。

就像张文宏说的:会不会被AI误导,取决于你自身的能力有没有强过AI。而你没办法和AI比知识,只能比理解。

未来的竞争优势,属于那些敢于质疑“训练数据”的人。你需要建立自己的认知体系,这套体系不是抄来的,而是你通过实践、通过痛苦的反馈循环、通过独立思考亲自验证过的。

AI是全人类知识的平均值。如果你想超越平均值,你就不能只依赖AI,你必须拥有AI无法通过统计概率得出的独到见解。

四、执行价值归零之后:从干活的到验收的

把视线拉长,历史虽然不会重复,但总是押韵。

1980年代,电脑的普及曾让当时的会计和律师恐慌不已。在此之前,律师为了寻找一个判例,需要在堆积如山的卷宗中翻找数日。电子检索技术的出现,让这项工作瞬间变成了几秒钟。

律师失业了吗?没有。相反,法律行业变得更庞大、更复杂了。

因为检索变得容易,客户对律师的期望也随之提高。人们不再为“找到判例”付费,而是为“基于复杂判例构建独特的辩护策略”付费。

同理,当AI接管了代码编写、文案生成、基础诊断之后,人类的角色正在发生本质的跃迁:

我们正在从“手艺人”进化为“指挥官”;从“干活的”升级到“验收的”。

过去,一个优秀的工程师可能需要50%的时间写代码,50%的时间思考架构。现在,他可以用90%的时间去思考架构、理解业务、优化体验,而把代码工作交给AI(并由他来审核)。

这意味着,工作的复杂度上限被打开了。

独立开发者现在可以一个人运行一家原本需要十人团队的公司;一个懂行的自媒体人可以一天产出过去一周的内容量;一个资深医生(如张文宏)可以在AI的辅助下处理过去根本不可能的病例量。

这就是AI时代“技能”的新定义:

它不再是单一维度的“专精”,而是一种跨维度的整合能力。

你不需要亲自砌每一块砖,但你必须知道大楼的力学结构,必须有审美能力来决定大楼的外观,必须有商业头脑来决定大楼建在哪里最值钱。

这种“宏观把控+微观验证”的综合能力,才是AI时代真正的铁饭碗。

张文宏强调的两大关键能力,本质上就是这个意思:

1.判断AI诊断的准确性(微观验证)

2.诊治AI无法应对的疑难杂症(宏观把控)

没有这两项能力的医生,只能算是“AI的操作员”。

结语:只有升维,才能享受降维打击的快感

回到开头谈到的那个现象:为什么越用AI,越觉得自己废了?

因为AI剥夺了你通过“苦力”获得成就感的权利。

以前,你花三天时间整理出一份精美的报告,会觉得自己很有价值;现在,AI三秒钟就能做出来,这种虚幻的价值感瞬间崩塌。

这确实让人痛苦,但更是一种觉醒。

AI逼迫我们直面那个最难的问题:除了机械的执行,我真正的思想价值在哪里?

对于那些不愿意思考的人,这是一个最坏的时代。他们将彻底沦为算法的附庸,甚至无法察觉自己正在被平庸的信息茧房吞噬。

但对于那些充满好奇心、拥有独立思考能力、渴望探究事物本质的人,这是人类历史上最好的时代:

所有的门槛都降低了。

所有的天花板都消失了。

你拥有了人类历史上最强大的智囊团和执行队,24小时待命。

张文宏不是反对AI,他反对的是跳过底层能力建设直接使用AI,把思考和元认知外包给AI。

他自己用AI用得飞起,因为他有三十年的内功作为地基。AI对他来说是如虎添翼;而对于没有内功的年轻医生,AI可能是拔苗助长,饮鸩止渴。

在21世纪,技能不会消失,但它会经历一次残酷的提纯。

不要试图和AI比赛“做题”,要去和AI比赛“出题”。

当你不再把AI当作一个帮你偷懒的工具,而是把它当作一个需要你用极高智商去驾驭、去指引、去纠错的超级杠杆时,

你通过AI看到的,就不再是平庸的自己,而是一个被无限放大的、强悍的超级个体。

标签: 张文宏 能力 技能 医生 时代 人类 律师 代码 无法 本质 问题 资深 杠杆 世纪 大楼 逻辑 团队 架构 工程师 结果 价值 论坛 历史 打破常规 专家 事实 信息 程序员 意思 关键 工具 概率

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。