当前位置: 首页 » 资讯 » 新科技 » 正文

Netflix、Meta和IBM专家:AI让任何人成为10倍程序员

IP属地 中国·北京 编辑:冯璃月 至顶AI实验室 时间:2026-04-08 01:08:33

AI很容易使用,但并不像对着Alexa说"给我做个电商网站"那样简单。而且,在指令循环中添加"不要产生幻觉"也于事无补。

更重要的是,根据在北卡罗来纳州达勒姆举行的全AI大会上来自IBM、meta和Netflix等公司演讲者的观点,最佳的AI效果需要充分准备的智能体。

他们建议,你越想让AI为你服务,就需要做越多的准备工作。

许多演讲都提到了杰文斯悖论,即资源越高效,使用得越多。这个悖论常被用来解释为什么AI不会抢走所有人的工作。相反,论点是它将创造更多工作机会。

目前,AI确实为用户创造了更多工作,需要时间准备上下文和检查结果。Claude能让任何人成为10倍程序员,但他们需要清理10倍的结果。

或者用最末日的说法,在奇点能够像《黑客帝国》中那样将人类奴役为能量舱之前,它需要我们这些血肉之躯的一些协助。

魔法师的学徒

AI是如何让Netflix的员工忙碌起来的?在一次演讲中,Netflix UI架构师Ben Ilegbodu解释说,一旦你创建一个智能体来自动化某项任务,你就需要第二个智能体来评估完成的工作。

Ilegbodu有时甚至将工作分解为多个专门负责代码审查不同部分的智能体。他称这种方法为"对抗性代码审查"。

他说,你还需要第三个智能体来协调前两个智能体之间的行动。

Ilegbodu的工作日是杰文斯悖论的化身。一旦他启动一个智能体来实现某个新功能,他就会让另一个智能体为他心中的下一个任务做前期工作。实际上,他是在"并行化自己,让工作始终在进行"。

AI让Ilegbodu能够用他还不知道的语言编程,比如Python、Bash和Groovy。

但他承认,这种上下文切换会让人疲惫。"一天结束时,我实际上有点累,因为我实际上花了一整天时间和某个东西对话。"

贪婪的实习生

许多程序员把AI看作团队中一个热情但天真的初级开发人员。但与初级开发人员不同,AI不会"不知所措",meta开发者倡导者Justin Jeffress在演讲中说。

你可以不断向AI提供更多信息,它会全盘接受(只要你能承担得起那么多Token)。

这种无底洞般的饥渴导致了Jeffress所说的"上下文腐败"。

他说:"随着时间推移,当你与AI智能体互动时,它需要计算的东西越多来提供答案,争夺其注意力的东西就越多,做正确事情的可能性就越小。"

他告诉观众,模糊的指令会导致分散的结果。清楚地思考你给智能体提供什么信息是上下文工程的工作,在智能体AI的短暂时间里,这已经成为一种艺术形式,即使还不是一门正规学科。

在上下文工程中,"你正在构建一套规则、工具、技能和其他东西,AI智能体在需要时可以参考这些来解决问题",他说。他甚至建议更进一步使用"提示链",或逐步列出它需要执行的具体任务。开始时做更多工作意味着运行时担心更少,让开发人员可以抽身去喝一杯。

开玩笑的。这给了他们时间通过并行运行多个智能体来进一步完善流程。成为你自己智能体乐团的指挥,Jeffress说。还要确保创建一个markdown文件来跟踪进度,帮助智能体不忘记其使命。

Jeffress注意到AI通常可以完成给定工作的80%,剩下的20%需要人类完成。当Jeffress处理剩余20%的工作时,他发现其中80%的工作可以由机器人完成。如此循环,就像某种永无止境清理任务的分形帕累托原理。

一厢情愿的提示

AI没有完全按照你的要求做并不是AI的问题。这是你缺乏"分解"技能的问题,IBM语言和多模态技术总监Luis Lastras在演讲中提出。

一厢情愿的提示就是输入"我必须坚持,不要产生幻觉。我的职业生涯取决于此,拜托,拜托,拜托。"这就像施法并希望它能奏效,他说。

相反,开发人员应该思考如何将工作分解为更小、更易消化的部分供智能体处理。

他说,这种"分解"实际上是工程学101。它是"将一个非常复杂的系统分解、识别关键组成部分、模块化它们,然后设计这些东西,甚至指派专家来设计这些部分的艺术。"

当你构建智能体时,不要只是随机向大语言模型抛出信息,而要定义具体的函数来帮助智能体执行任务。IBM最近发布的mellea.ai是Lastras所说关键模式的开源库——给大语言模型具体Python编码指令的函数。它们可用于向大语言模型调用添加要求、检测有害输出、在架构中结构化输出等。

蓝色巨人还在开发智能体为专门任务切换大语言模型或"切换大脑"的能力,Lastras说。在其研究中,IBM发现给予更多推理时间的较小领域特定模型将超越更大的模型。

支付准备税

"隐含假设是技术债务",Intuit高级开发人员Justin Chau进一步解释。对我们来说显而易见的事情对机器来说可能并不明显。"我们必须非常非常具体地说明我们想要什么结果。"

Chau的一个建议:给你的智能体约束,而不是指令。如果大语言模型找到它认为更好的完成任务的方法,它会忽视指令。约束是硬性拒绝,AI大脑更难忽视。如果你告诉智能体在任何情况下都不应该使用HTML,那么它会遵守这个要求。

但比约束更强的是缺乏权限。"如果我不给它访问GitHub的权限,我确信它永远不会碰GitHub,"Chau说。

《银河系漫游指南》的爱好者会记住"深度思考"的悖论,这是世界上最强大的计算机。像AI本身一样,深度思考被建造来提供生命、宇宙和一切的答案。但经过几个世纪的计算,它只给出了神秘的答案(42),然后人类需要一台更大的计算机来弄清楚真正的问题是什么。

也许,有了AI,我们发现自己身处亚当斯的世界。AI远未为我们完成所有工作,而是让我们走上了无尽准备的道路。

Q&A

Q1:什么是对抗性代码审查?

A:对抗性代码审查是Netflix UI架构师Ben Ilegbodu提出的方法,即将代码审查工作分解为多个专门负责不同部分的智能体,让它们相互配合完成代码审查任务,提高审查质量和效率。

Q2:什么是上下文腐败?如何避免?

A:上下文腐败是指随着与AI智能体互动时间延长,它需要处理的信息越来越多,导致注意力分散,做正确事情的可能性降低。可以通过上下文工程、明确指令、使用提示链等方法来避免。

Q3:mellea.ai是什么?有什么作用?

A:mellea.ai是IBM发布的开源库,包含给大语言模型具体Python编码指令的关键模式函数。它可以用于向大语言模型调用添加要求、检测有害输出、在架构中结构化输出等,帮助开发人员更好地构建和控制AI智能体。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。