环球网
7月8日消息,据外媒报道。苹果公司与哥伦比亚大学共同研发的AI原型系统SceneScout正式进入测试阶段。据悉,这一系统通过融合苹果地图(Apple Maps)API与基于GPT-4o内核的多模态大语言模型,为盲人及低视力群体(BLV)提供定制化街景导航辅助。
SceneScout的核心功能是查看街景图像,分析所见内容,并向观看者进行描述。,核心创新在于其双模式交互设计,突破了传统导航工具仅提供路线指引的局限。在哥伦比亚大学组织的测试中,10名具备科技行业背景的视障用户参与了场景化体验。参与者反馈,SceneScout的虚拟探索功能显著降低了独立出行的心理压力。一位测试者表示:“过去我需要依赖他人描述或记忆路线,现在系统能提前告诉我‘转角处有棵大树,右侧是铁栅栏’,这种细节让我对环境更有掌控感。”
研究团队特别指出,系统通过“行人视角模拟”解决了传统街景图像的局限性。例如,微软2018年推出的Soundscape应用虽能描述环境,但仅支持现场实时操作,而SceneScout允许用户提前规划,甚至通过骨传导耳机在行走中同步获取动态信息。(青山)