早在2012年,Google就曾推出过一款名为「Project Glass」的智能眼镜原型机,它具备录像功能、支持语音交互,并在镜片上一寸不到的LED屏幕上显示部分应用界面,宛如科幻电影中的场景走入现实。
然而,由于隐私争议和技术瓶颈,这款前卫产品最终未能走向大众,仅在市场上昙花一现,但它却为世人勾勒出一种全新智能设备形态的雏形。
时隔13年,到了2025年,智能眼镜已然成为硬件领域的新宠,而作为这个品类曾经的先行者,Google携Android XR系统与Gemini人工智能卷土重来,再次加入战局。
刚刚落幕的Android Show活动虽仅半小时,却干货满满,Google正式披露了其眼中四种XR设备的发展路线:
Android XR系统于去年年底首次正式亮相,顾名思义,它是专为XR设备量身打造的Android操作系统。
Google强调,为Android开发应用,就等同于为Android XR开发应用,后者可直接兼容Google PlayStore上的海量手机和平板应用,大大降低了开发者门槛。
与手机上的Android一脉相承,Android XR为行业厂商提供了一个相当完善且成熟的系统和生态平台,厂商可直接利用现有的Android应用生态,无缝调用Google服务与Gemini AI;同时,也为专攻XR应用的开发者提供了高效的分发渠道。
对于新兴的XR初创公司而言,Android XR无疑是他们翘首以盼的坚实平台,XREAL CEO徐驰向The Verge直言:
放眼全球,真正有能力构建生态系统的公司只有两家:苹果和Google。苹果向来封闭,不会与外部合作,因此Google成为我们唯一的选择。
The Verge提前体验了一款Android XR原型机,当编辑使用Uber打车时,眼镜显示屏会弹出Uber小部件,清晰显示预计接客时间、车牌号以及前往上车点的路线指引——这些信息均直接来自Uber原本的Android应用,无需额外适配。
相比Meta Horizon平台,Android XR拥有更强的号召力;相较于苹果,它又更加开放。这意味着未来将有更多第三方厂商投身Android XR设备开发,生态蛋糕越做越大,XR应用与内容生产者自然更愿意加入其中。
我们最熟悉的Android XR设备,当属十月底发布的三星Galaxy XR头显,爱范儿此前已做过详细报道。此次活动中,Google又带来三项重要更新:
在今年5月的I/O大会上,Google首次披露了与国内AR眼镜厂商XREAL合作的Project Aura产品,今日活动则进一步揭示了其体验与使用细节。
Project Aura定位为「有线XR眼镜」,核心理念简单直接:以眼镜般轻巧的形态,实现接近头显的双目XR效果,尤其适合外出场景。
当然,与传统眼镜相比,Aura稍显厚重,硬件形态与XREAL现有产品类似:一副AR投屏眼镜通过有线方式连接Android XR计算终端——该终端本身也可充当触控板。
不同之处在于,Aura支持头显级别的手势交互,并具备透视效果,用户可看到周围环境,应用界面则叠加其上。
Google选择与XREAL这家初创公司合作,大概率是看中了其在AR眼镜硬件领域的深厚积累:Aura实现了70°视场角,达到消费级AR的最大实用范围,让Gemini助手能更自然地与现实世界互动,同时提供沉浸式观影体验;性能上则采用与Galaxy XR同款的高通骁龙XR2 Plus Gen 2芯片组。
得益于Android XR系统,Aura可直接运行专为Galaxy XR头显开发的XR应用,只要开发者使用对应SDK,应用的功能与体验便能自动适配至眼镜形态。
相较于笨重的头显,Project Aura更适合「PC连接」功能:用户工作时可将Aura当作外接大屏,Windows应用以大窗口形式呈现,遇到操作难题甚至可随时让Gemini指导。
据多家外媒反馈,Project Aura的实际体验与Galaxy XR头显非常接近,但重量却大幅减轻,不过小巧体积与强大性能也带来了发热与续航方面的挑战。
值得注意的是,Project Aura在此次活动中仍未正式发布,Google承诺将于明年推出。
另外两款眼镜则完全无线,更适合日常佩戴,因此时尚属性至关重要。除三星外,Google还宣布将与Warby Parker、Gentle Monster两大传统眼镜潮牌展开合作。
第一款是类似Ray-Ban Meta的基础形态,我们称之为「AI眼镜」——无显示屏,用户可通过Gemini语音交互、拍照、听歌。这类产品虽不算严格意义上的XR眼镜,却是大众接受度最高的品类。
Google更看重的是第二款:在第一款基础上增加单目AR显示屏,用于显示简单卡片和组件,类似Meta Ray-Ban Display,这也是今年I/O大会上演示过的类型。
▲ 活动中亮相的原型机
这款XR眼镜的操控方式有两种:一是通过镜腿上的触控板,二是通过Gemini语音输入。Gemini Live能基于当前视觉环境上下文与用户自然语音,完成多步骤、复杂任务。
此次演示与I/O大会类似,展示了智能眼镜在语音指令识别、物品识别、记忆、导航、实时翻译等方面的能力。
关键在于,Google单目XR眼镜本质上是一款「手机配件」,大部分计算依托手机完成,并直接调用Android手机上的应用——反观Meta,仅能使用自家几个社交媒体应用。Aura的界面简洁清爽,无应用列表,只推送最重要的信息,来自手机App的实时通知,体验上更像智能手表。
▲ 图源:Android Authority
尽管智能眼镜正迎来井喷式发展,但未来十年,智能手机仍将是每个人的标配。Google深知这一点,因此其目标并非取代手机,而是通过单目XR智能眼镜,逐步减少用户掏出手机的次数。与Meta的同类型产品相比,Google的眼镜也更加小巧。
此外,Google向The Verge透露,为让更多人用上眼镜的多模态能力,明年Android XR眼镜还将支持iOS。
针对当年导致Google Glass折戟的隐私问题,Google也做出专门说明:所有Android XR眼镜在录制时都会发出明亮的脉冲光,并以红绿光区分录制与Gemini摄像头使用状态。
与Project Aura相同,这两款AI眼镜产品也计划于明年推出,目前Google正与三星、Warby Parker、Gentle Monster等合作伙伴紧锣密鼓地调优产品。
▲ 通过语音指令让Gemini拍摄、调用Nano Banana进行创作
作为曾领先时代的先行者,面对近两年智能眼镜的浪潮,Google的步调显得格外审慎,甚至比擅长「后发制人」的苹果还要迟缓。
Android XR于去年年底官宣后,Google积极寻求多方合作:既有老搭档三星、高通,也有新朋友XREAL,还有跨界伙伴Warby Parker和Gentle Monster。
▲ Android XR由Google、三星、高通联合开发
目前亮相的四种产品形态,其实都带有不同程度的妥协,显然并非终极答案。但Google在向Android Authority「剧透」时透露了一款未在活动中公开的新品:无线双目XR眼镜,视野开阔,画质更优,集前四款产品优点于一身。
不过Google表示,这款无线双目XR眼镜短期内不会面向市场发售,最早也要等到2027年。
显然,这款略带彩蛋性质的神秘产品,才是Google心目中「Google Glass」的真正升级版。但他们并未急于发布,甚至未在发布会上提及。
Google无需担心在这场新兴硬件竞赛中掉队——他们已从Google Glass的教训中汲取经验,手握Android XR与Gemini两大王牌,蓄势待发。
无论是当年的Google Glass,还是如今的XR眼镜,应用与内容生态的匮乏、杀手级场景的缺失,始终是难以突破的困局。
Android XR不仅能利用现有应用生态,其平台本身也能吸引大量设备厂商与开发者,极大降低了入场门槛,成长潜力值得期待。
更重要的是,作为目前最出色的人工智能之一,Gemini填补了杀手级应用的空缺。借助智能眼镜的摄像头、麦克风和XR显示屏,Gemini强大的上下文理解与多模态能力得以充分发挥,创造出智能手机和其他硬件难以企及的、专属于智能眼镜的独特场景。
对Google而言,接下来只需按部就班地将规划一一兑现,相较于当年激进实验性的Google Glass,如今显然更有章法。未来几年,我们将见证这些产品逐步迭代,逐渐趋近理想形态。
遗憾的是,此次发布会并未公布新品具体发售日期,它们能否成为一次成功的重新出发,尚待时间检验。
但至少,无论对Google还是整个智能眼镜行业而言,未来都值得满怀期待。
文|苏伟鸿
本文由主机测评网于2026-03-02发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260328076.html