当前位置: 首页 » 资讯 » 新科技 » 正文

大模型转行土木工程!首个「打灰人」评估基准:检验读、改工程图纸能力

IP属地 中国·北京 编辑:江紫萱 时间:2025-07-18 08:13:09

新智元报道

编辑:LRST

首个工程自动化任务评估基准DrafterBench,可用于测试大语言模型在土木工程图纸修改任务中的表现。通过模拟真实工程命令,全面考察模型的结构化数据理解、工具调用、指令跟随和批判性推理能力,研究结果发现当前主流大模型虽有一定能力,但整体水平仍不足以满足工程一线需求。

在AI竞速的今天,大语言模型(LLM)早已不满足只在象牙塔里「背书解题」。

当GPT-4o刷题通过物理奥赛、DeepSeek熟练搭建网站之后,LLM必须直面一个更现实的问题:

这些号称「专家级」的大模型,能不能真的下工地?能不能帮工程打工人减负?在钢筋水泥的图纸世界里,它们是得力助手,还是纸上谈兵?

答案尚未揭晓,但DrafterBench迈出了评估的第一步。

来自加拿大麦吉尔大学AIS实验室的研究团队与加州大学圣芭芭拉分校(UCSB)合作,正式推出面向工程自动化任务的大模型评估基准——DrafterBench

这是首个针对「一线工程图纸修改任务」设计的大规模评测套件,旨在验证和揭示现有LLMs能否胜任土木工程等领域中真实的「打工任务」。

论文链接:https://arxiv.org/abs/2507.11527

代码链接:https://github.com/Eason-Li-AIS/DrafterBench

数据链接:https://huggingface.co/datasets/Eason666/DrafterBench

为什么需要DrafterBench?

工程图纸修改,是土木工程、建筑设计等领域最耗时间、最高频的任务之一,也是自动化改造迫切程度极高的一环。

每天成千上万的一线工程师、制图员在重复地处理「改一根梁的位置」「把这根管道直径加粗一点」「为这个构件增加标注」这类十分琐碎但又关系重大的任务。

这类工作往往工作量大、标准高、容错低,但技术门槛不高,对工作者在「任务理解、细节处理、任务链配合」方面的综合执行力要求极强。

于是研究团队提出问题:

如果大模型能读懂图纸指令,调用工具链,精确修改图元,它就不只是「写PPT的高手」,更是「工程打工人福音」

DrafterBench怎么做的?

DrafterBench以图纸修改为核心任务,在20个真实项目中收集并设计了1920个高质量任务,涵盖12类指令类型,模拟了各种难度、不同风格的真实工程命令

DrafterBench不仅让模型「按部就班」,而是全面考察以下四大任务能力维度。

结构化数据理解能力:模型是否能从不同风格语句中准确提取出关键细节;

工具调用能力:模型能否组合多个工具形成有效的操作链,并正确调用顺序与参数;

指令跟随能力:面对一条包含多个修改目标的长指令,是否能做到任务不漏项、执行不断链;

这不是纸面作文,是工程实战。

DrafterBench如何评估模型?

在DrafterBench中,模型要以「代码调用工具」的方式完成任务。

这些工具涵盖图元编辑、标注调整、绘图逻辑等,彼此之间还有输入输出依赖,形成一个「工程任务链」。

但问题来了:

工具调用是否正确?是否合理组合?

中间步骤是否成功传递?是否使用了冗余或错误命令?

直接看图纸输出无法判断。因此DrafterBench设计了一整套对偶工具系统(Dual function system)。

所有工具都有一份「替身」,不实际修改图纸,但记录调用顺序、参数值、变量状态,并以结构化JSON形式输出,清晰还原模型「行动路径」。

DrafterBench不只看模型有没有答对,而是看它「为什么答错,哪一步出错,错在哪里」。

模型表现如何? 喜忧参半!

DrafterBench评测了主流SOTA大语言模型,分别为:OpenAI GPT-4o / o1系列、Claude 3.5 Sonnet、Deepseek-V3-685B、Qwen2.5-72B-Instruct、以及LLaMA3-70B-Instruct。

综合来看,这些模型表现都达到一定水准,得分普遍超过65分

其中,OpenAI o1以79.9的综合分领跑,Claude3.5 Sonnet和Deepseek-V3-685B表现也非常接近,分别为73.79和73.09。

这说明当前主流大模型具备一定的工程任务处理能力,尤其在简单指令执行上表现稳定。

但与此同时,模型整体水平仍远未达到工业一线对执行精度、流程完整性的实际要求。

更重要的是,不同模型在四大能力维度上呈现出显著差异。

比如,在结构化数据理解任务中,模型整体表现稳定,对语言风格的鲁棒性较强。

但在工具调用方面,准确率波动明显,平均可达9个百分点。对于指令跟随能力,部分模型表现出较强的任务承载能力,如OpenAI o1和Claude3.5 Sonnet抗噪声能力较好,能保持基本的任务完整性。

而在批判性推理任务中,模型间能力分化尤为显著。

其余模型则在这两个维度中存在大幅度波动,表现不一。

研究团队进一步使用自动化错误分析工具,对每一个任务的失败原因进行结构化溯源。

结果表明,模型常见错误类型包括参数定义不清、变量传递失败、函数调用结构错乱、工具选择偏差以及多工具组合逻辑混乱。

更关键的是,即便多个步骤执行正确,只要某一关键环节出现偏差,就会导致最终图纸修改失败。

这也解释了为何多数模型的单项能力准确率维持在60%左右,但整体目标修改完成度却显著偏低,仅在40%左右。

结论与展望

这些评估结果说明,尽管当前的大模型已有一定能力拆解复杂任务结构、调用工程工具,但它们仍难以稳健掌握完整任务链的所有细节,对实际场景的适应能力尚不足以支撑工程一线需求。

如果说过去的大模型评测多数还停留在「会不会」,那么DrafterBench的贡献在于首次让模型接受了「干不干得好」的落地考核。

工程现场需要的是高容错、强判断、懂规则、能执行的助手,而DrafterBench正是在为这一目标提供数据支持与路径验证。

接下来,研究团队还将扩展任务类型至图纸校审、规范检测、施工日志智能生成等更多工程应用场景,持续拓展模型能力边界。

你有模型,DrafterBench有任务。

看看你的模型,能不能真在图纸上动真格。

参考资料:

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。