企业在关键应用中部署AI智能体面临挑战时,一种更加务实的新模式正在兴起,该模式将人类重新置于控制地位,作为防范AI故障的战略保障。
Mixus平台就是这样一个例子,它采用"同事参与式"方法,使AI智能体在关键任务中变得可靠。
这种方法是对越来越多证据表明完全自主智能体是高风险赌博的回应。
不受控制的AI成本高昂
随着企业探索AI应用,AI幻觉问题已成为实实在在的风险。在最近的一起事件中,AI驱动的代码编辑器Cursor的支持机器人虚构了一项限制订阅的假政策,引发了公众客户取消订阅的浪潮。
同样,金融科技公司Klarna在承认用AI替代客服代理导致服务质量下降后,著名地逆转了这一决定。在一个更令人担忧的案例中,纽约市的AI商务聊天机器人建议企业家从事非法活动,凸显了无监督智能体带来的灾难性合规风险。
这些事件反映了更大的能力差距。根据2025年5月Salesforce的研究论文,当今领先的智能体在单步任务上成功率仅为58%,在多步任务上仅为35%,突显了"当前大语言模型能力与现实企业场景多元化需求之间的显著差距"。
同事参与式模式
为了弥合这一差距,新方法专注于结构化的人工监督。Mixus联合创始人Elliot Katz告诉VentureBeat:"AI智能体应该按照你的指示并代表你行动。但没有内置组织监督的完全自主智能体往往会制造更多问题而非解决问题。"
这一理念支撑着Mixus的同事参与式模式,该模式将人工验证直接嵌入自动化工作流程中。例如,大型零售商可能每周收到来自数千家门店包含关键运营数据的报告(如销售量、工时、生产率比率、总部薪酬申请)。人工分析师必须花费数小时手动审查数据并基于启发式方法做决策。使用Mixus,AI智能体自动化繁重工作,分析复杂模式并标记异常情况,如异常高的薪资申请或生产率异常值。
对于支付授权或政策违规等高风险决策——用户定义为"高风险"的工作流程——智能体会暂停并要求人工批准后才能继续。AI与人类之间的分工已集成到智能体创建过程中。
"这种方法意味着人类仅在其专业知识真正增加价值时才参与——通常是可能产生重大影响的关键5-10%的决策——而其余90-95%的常规任务自动流转,"Katz说。"你在标准操作中获得全自动化的速度,但当上下文、判断和责任最重要时,人工监督会精确介入。"
在Mixus团队向VentureBeat展示的演示中,创建智能体是一个可以用纯文本指令完成的直观过程。例如,为记者构建事实核查智能体时,联合创始人Shai Magzimof简单地用自然语言描述多步骤过程,并指示平台在特定阈值处嵌入人工验证步骤,如当声明为高风险且可能导致声誉损害或法律后果时。
该平台的核心优势之一是与Google Drive、电子邮件和Slack等工具的集成,允许企业用户将自己的数据源引入工作流程,并直接从他们选择的通信平台与智能体交互,无需切换上下文或学习新界面。
平台的集成能力进一步扩展以满足特定企业需求。Mixus支持模型上下文协议(MCP),使企业能够将智能体连接到他们的定制工具和API,避免为现有内部系统重新造轮子。结合与Jira和Salesforce等其他企业软件的集成,这允许智能体执行复杂的跨平台任务。
人工监督作为战略倍增器
随着企业从实验转向生产,企业AI领域目前正在经历现实检验。许多行业领导者的共识是,人机协作对于智能体可靠执行是实际必要的。
Mixus的协作模式改变了扩展AI的经济学。该公司预测,到2030年,智能体部署可能增长1000倍,每个人工监督员将变得更高效50倍,但对人工监督的总需求仍将增长。