近日,InternLM 团队正式发布了其开源的轻量级多模态推理模型 ——Intern-S1-mini。该模型参数仅为8B,结合了先进的 Qwen3-8B 语言模型与0.3B 视觉编码器 InternViT,展现出强大的处理能力和灵活性。
Intern-S1-mini 经过了大规模的预训练,总共使用了超过5万亿的 token 数据。其中,令人瞩目的是,超2.5万亿 token 来自于化学、物理、生物和材料等多个科学领域。这使得 Intern-S1-mini 不仅能进行常规的文本和视觉输入处理,更能解析复杂的分子式、蛋白质序列,并有效规划合成路径,展示出其在科学研究领域的广泛应用潜力。
根据官方提供的基准测试结果,Intern-S1-mini 在多个领域的任务表现上均超过了同类模型。在 MMLU-Pro、MMMU、GPQA 以及 AIME2024/2025等任务上,该模型的表现令人惊叹,ChemBench 分数达到76.47,MatBench 分数为61.55,而 ProteinLMBench 则是58.47。这些成绩不仅证明了 Intern-S1-mini 的强大实力,更表明它在文本、图像和视频输入方面的兼容性。
有趣的是,Intern-S1-mini 默认开启了 “思考模式”,用户可以通过简单的开关命令(enable_thinking)来切换。这种设计让模型的交互性更强,为用户带来了更灵活的使用体验。
在科技飞速发展的今天,Intern-S1-mini 的发布无疑为研究人员和开发者们提供了一个新的工具,助力他们在多模态推理领域实现更多创新与突破。无论是在基础研究还是实际应用中,这一模型都将是一个值得关注的焦点。