一句“千问同学,明天八点发布会,九点飞机,记得提醒我”,你面前的AI助理瞬间理解了复合指令,并开始同步安排行程。
搭载阿里千问AI助手的夸克AI眼镜,在2025年12月31日迎来了首次系统更新。这次OTA升级将系统推送至1.2.1版本。
其核心升级是打破了传统智能眼镜“一令一动”的桎梏,实现了 “多意图理解与执行” 。
01 复合指令
本次OTA升级的核心,是AI理解能力的跨越式进步。多数AI眼镜通常只能处理单一指令,而升级后的夸克AI眼镜已能准确理解并执行2至3个关联的复合任务。
例如,当你说出 “导航去公司,来点我喜欢的音乐” ,眼镜会同时调用地图和音乐服务。
或告知 “明天上午八点要去发布会、九点要赶飞机,记得提醒我”,它能自动在日历中创建两个提醒事项,并理解其紧急性。这背后依赖于大模型对自然语言深层语义和逻辑关联的精准解析。
02 超距收音
会议纪要功能迎来了实用性革命。基于自研的 Quark Audio语音增强模型,并结合设备上原有的5麦克风阵列与骨传导硬件,夸克AI眼镜实现了10米范围内的有效降噪收音。
在多人会议场景中,它能精准区分不同说话者的声音,将录音内容实时转写为文字,并利用AI提炼要点,甚至自动生成待办事项清单。这一功能目前已支持中、英、日、韩四种语言的实时转写与互译。
03 智能图文记忆
图文备忘录功能让信息记录变得直观。用户可通过语音或拍照方式创建备忘。例如,在停车场只需说一句 “千问同学,帮我记一下停车位” ,眼镜便会拍下当前位置照片并保存相关信息。
系统具备AI分类与语义理解能力。当用户事后询问 “最近一个月我想买的家具有哪些?” ,眼镜能自动检索历史记录中所有相关条目并进行汇总回复。这为用户构建了一个私人的、可交互的视觉记忆库。
04 场景延伸
蓝环支付功能的加入,意味着夸克AI眼镜更深地融入了阿里生态的支付场景。
随身翻译功能也得到大幅增强,支持的语言数量从此前的数量大幅扩展至89种。不仅覆盖英、日、韩、法、德等主流语种,还包含众多国家和地区的小众语言,旨在满足跨境商务、旅行等复杂场景需求。
此外,APP端同步上线了用户交流社区,用户可以在其中分享使用技巧,参与官方组织的活动。
05 战略布局
此次OTA更新,可以被视为阿里千问大模型在消费端硬件上的关键能力落地。夸克AI眼镜于2025年11月发布,是阿里千问C端事业群的重要业务方向。
其搭载的千问AI助手正以APP为核心,加速向眼镜、PC、汽车等多终端延伸。
分析普遍认为,AI眼镜赛道正在经历爆发式增长。随着芯片算力提升与端云协同深化,智能眼镜有望在未来成为继手机、手表之后的第三大个人智能终端。
智能眼镜正在悄然改变我们与数字世界交互的方式。一个年轻的创业者戴着它步入跨国会议室,耳边实时传来89种语言中任何一种的翻译。
当他在白板上勾勒想法时,10米开外每位同事的发言正被清晰记录并提炼成待办事项。
随着复合指令理解成为现实,未来或许我们只需一句话,身边的数字世界便能自动、协同地运转起来。