当前位置: 首页 » 资讯 » 新科技 » 正文

看完最新国产AI写的公众号文章,我慌了!

IP属地 中国·北京 量子位 时间:2025-12-08 22:14:28

金磊 发自 凹非寺

量子位 | 公众号 QbitAI

这一次,AI真的是快要砸掉我的饭碗了。

因为如果你现在想根据NeurIPS 2025的最佳论文写一篇公众号文章,只需要把它丢给AI并且附上一句话:

帮我解读这篇论文,并写一个图文并茂的微信公众号推送来介绍这篇文章。



只需静候几分钟,AI就水灵灵地把完整的微信公众号科普文章给呈现了出来,来感受一下这个feel(上下滑动浏览):



不得不说啊,这个AI从标题开始就真的把最最最重要的关键信息“NeurIPS 2025最佳论文”精准抓了出来。

并且“Gates一下”,更是把名词动词化,是有点语言编辑功底在身上的。

回头细看这个AI处理的过程。

首先,它会根据这篇论文的内容,先处理文字的部分,将文章分为了引言、核心问题、破局之道、实验结果、深入分析、结论与展望这六大部分,是符合一篇论文解读文章的逻辑。

然后AI会把论文中要引用的图片和表格进行适当的裁剪和标注,并插进文章里面,还会在图片下方附上图注:



一气呵成,真的是“文字+图片+排版”一气呵成。

那么这到底是何许AI是也?

不卖关子,它就是智谱最新升级的新一代视觉推理模型——GLM-4.6V



在深度体验一波之后,我们发现写图文并茂的公众号推文,还只是GLM-4.6V能力的一隅。

接下来,老规矩,一波实测,走起~

学生党看论文,更方便了

首先来到智谱的官网(https://chat.z.ai/),在左上方模型下拉菜单中选择GLM-4.6V。



然后根据任务的需求,我们可以在输入框下方快速选择任务类型,也可以在工具选项中勾选图像识别、图像处理、图像搜索或购物搜索等工具。

像刚才我们写公众号文章时,就选择了“文档智读”功能(会默认勾选“图像处理”工具)。



研究论文、报告,更方便了

同样是在“文档智读”功能下,看论文这件事已经变得太便捷了。

例如我们上传Transformer和Mamba两篇论文,然后附上一句prompt:

结合这两篇论文的图表,对比一下Transformer和Mamba模型的异同,并帮我思考一下大模型架构下一步该如何发展?



同样是几分钟后,一份图文并茂的对比分析就诞生了(上下滑动浏览):



可以看到,GLM-4.6V先是对Transformer和Mamba架构分别做了核心特点的介绍;然后以表格和图文的形式对二者进行了关键维度上的对比;最后也是对大模型架构的未来发展方向做出了总结。

如此功能之下,不仅仅是对比看论文,像是研究、分析报告这类任务也会派上大用场。

这一次,我直接“喂”给GLM-4.6V四份财报(苹果、谷歌、亚马逊和meta):

帮我对比这四家公司Q3财报,图表形式做分析。



GLM-4.6V的思考过程同样是调取了各个财报中的关键图表和数据,然后先是汇总成了一份对比表格,再对关键指标做了逐一的解析,最终给出了关键性结论。

甚至你可以不用提供任何资料,只需要一句话就能生成报告:

搜索一下最近新出“豆包AI手机”,并生成图文并茂的报告。



由此可见,在GLM-4.6V的加持之下,解读论文、报告,统统都变成了一句话的事儿。

一张图复刻B站网页版

GLM-4.6V还有一个特别有意思的功能,它只需要看一眼网站,就能高度复刻出来!

我们先截取B站首页的截图:



然后开启“图片识别”和“图片处理”两个工具,并简单一句话下达指令:

复刻这个网站,网站里包含的图片也要复刻出来。

然后GLM-4.6V就开始唰唰唰地“敲代码”:



同样是几分钟的时间,一个高度还原B站首页的完整HTML和CSS代码就搞定了:



我们还可以对初始结果做进一步的优化,例如来上一句:

把主题变成深色模式。



再细如页面里的排版布局,统统都可以通过自然语言的方式来做调整。

不得不说,这种玩法可以给前端程序员省了不少的工作量;而且还有个福利哦——价格更便宜了

GLM-4.6V系列相较于GLM-4.5V降价50%,API 调用价格低至输入 1 元/百万tokens输出 3 元/百万 tokens



而且据说GLM-4.6V已经进入到智谱的Coding Plan套餐里喽~

长视频也是能hold住

在文档、图片之后,另一种多模态——视频,GLM-4.6V也能处理。

我们以Ilya在多伦多大学的一段演讲为例:



视频地址:https://mp.weixin.qq.com/s/Lboi50dy3SZoODxAJUheBQ

这一次,我们点击输入框下面的“视频理解”功能,然后让GLM-4.6V来对视频内容做总结:



10分钟时长的视频内容,GLM-4.6V只需要几十秒的时间就能将其总结到位:



进一步的,你还可以要求GLM-4.6V来翻译视频中Ilya演讲的所有内容:



以后看AI大佬英文演讲的视频,真的是方便太多了。

万物皆可GLM-4.6V

除了我们上面提到的案例之外,还有好多好多真实场景都能用的上GLM-4.6V.

例如想解一下一道考研数学真题的解法,咱们就把题目截图丢给它:

帮我解答这道题。



GLM-4.6V会很快分析解题的详细过程并给出正确答案:C。



再如你看到一张可视化的图表,想要把它转换成数据



同样的操作,同样一句话,就可以完成了:



值得一提的是,哪怕是手机拍照拍下来的图片、表格等,也都是可以一键OCR的哦~

包括古文手稿



GLM-4.6V知道需要按照从右到左、从上到下的顺序来阅读:



还有视觉任务中经常用的目标检测,在GLM-4.6V这里也是可以搞定的。

例如我们给一张猫咪们的合影,然后prompt如下:

识别图中所有猫的品种。请以合法的JSON格式返回结果,结果是一个list,每一个list元素对应一个目标检测结果dict,dict的key由label、bbox_2d组成,值分别为检测到的猫的品种和结果坐标框。例如:[
{‘label’: ‘金渐层-1’, ‘bbox_2d’: [1,2,3,4]}, {‘label’: ‘金渐层-2’, ‘bbox_2d’: [4,5,6,7]}]



不一会儿的功夫,GLM-4.6V就会框出所有猫咪:

{“label”: “虎斑猫-1”, “bbox_2d”: [95,152,192,825]},{“label”: “虎斑猫-2”, “bbox_2d”: [185,332,310,852]},{“label”: “暹罗猫-1”, “bbox_2d”: [295,352,428,902]},{“label”: “美短-1”, “bbox_2d”: [415,520,508,922]},{“label”: “缅因猫-1”, “bbox_2d”: [498,262,603,852]},{“label”: “英短-1”, “bbox_2d”: [603,452,697,872]},{“label”: “挪威森林猫-1”, “bbox_2d”: [685,120,797,832]},{“label”: “虎斑猫-3”, “bbox_2d”: [802,482,882,832]}

再经过渲染,我们就得到了经典的目标检测效果:



已经是开源里的SOTA了

从整体实测过程和结果来看,GLM-4.6V在体感上是非常丝滑的。

而之所以如此,也离不开它背后自身实力的迭代升级。

这次智谱升级的GLM-4.6V分为了两个版本,分别是:

GLM-4.6V(106B-A12B):面向云端与高性能集群场景的基础版GLM-4.6V-Flash(9B):面向本地部署与低延迟应用的轻量版

智谱不仅将这个版本的视觉推理模型的上下文窗口大小提升到了128K tokens,在MMBench、MathVista、OCRBench等30多个主流多模态评测Benchmark中,也是取得了同级别SOTA的结果!



其中9B版本的GLM-4.6V-Flash整体表现超过Qwen3-VL-8B,106B参数12B激活的GLM-4.6V表现比肩2倍参数量的Qwen3-VL-235B。

除了评测榜单结果之外,智谱还将GLM-4.6V背后的技术细节也亮了出来——

首次在模型架构中将Function Call(工具调用)能力原生融入视觉模型,打通从“视觉感知”到“可执行行动”(Action)的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。

评测结果、技术实力固然重要,但到了AI发展的现阶段,到底实不实用、好不好用才是真正能让AI应用杀出自己一片天地的护城河。

从这次深度实测结果来看,GLM-4.6V,绝对是做到了这一点的那个AI。

最后,如果小伙伴对GLM-4.6V感兴趣,链接就放下面了,赶紧去体验吧~

GLM-4.6V地址:
https://chat.z.ai

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。