第一新声 智涵
当大多数AI公司仍在优化屏幕里的体验时,OpenAI 正在做一件反直觉的事:把屏幕拿走。
据多家外媒披露,OpenAI的新一代音频模型预计将在2026年第一季度发布。此前,OpenAI已在内部重组多个工程、产品和研究团队,把资源集中投向音频 AI;以65亿美元收购由前苹果首席设计官Jony Ive联合创立的io公司;并围绕一款始终在线、以语音为核心、完全无屏的消费级设备展开长期规划。
这并不是一次单点创新,而是一种新的假设:如果AI真正理解你所在的环境、你正在做的事,它是否还需要一个屏幕,来证明自己的存在?
在OpenAI的设想中,下一代设备不再要求你低头、滑动、确认,而是像一个环境中的存在,通过聆听和观察,在合适的时刻介入。Sam Altman直言,屏幕限制了AI的可能性;而Jony Ive则将这一项目视为一场新的设计运动。
实际上,这样的转向并非只有OpenAI一家公司在做。从谷歌的音频概览、meta的智能眼镜,到特斯拉车内的对话式AI,弱化屏幕、强化音频与环境感知,似乎正成为硅谷高度一致的方向选择。
那么,这场集体转向,究竟在押注什么?
01先改模型,再造设备:OpenAI的无屏布局
从动作层面看,OpenAI对音频方向的投入已经不再是功能优化,而是一次自上而下的战略重排。
报道称,相关工作由前Character.ai研究员Kundan Kumar牵头,产品研究主管Ben Newhouse与ChatGPT产品经理Jackie Shannon深度参与,几条研究、产品与工程线被统一拉到同一目标之下:为未来的无屏设备打造真正可用的音频操作系统。
据知情人士透露,这一团队已经研发出全新的音频模型架构,在语音自然度、情感表达和回答准确性上都有明显提升,并首次支持实时打断和双向对话模型甚至可以在用户还没说完时作出回应。OpenAI计划在2026年第一季度发布这一代音频模型,用以弥补当前语音模型在速度和可靠性上仍落后于文本模型的短板。
不同之处在于,OpenAI同时握有两张关键筹码:一是持续演进的大模型能力,二是Jony Ive对硬件形态与人机关系的长期思考。这无疑给了OpenAI尝试转向无屏的底气:大模型提供了智能与适应性,设计则提供了交互体验和行为规范。
然而,真正的考验并不在发布当天,而在第一周、第一月的日常使用中:
无屏AI是否真的比手机更快?
是否在大多数时候选择不打扰?
是否让人愿意把说话当成一种默认操作方式?
如果答案是肯定的,那么无屏并非退化,而是一种更深的嵌入。
如果不是,它只会再次证明:屏幕之所以存在,并非偶然。





京公网安备 11011402013531号