
12月初,豆包手机助手正式推向市场。
它成功实现了自动收取蚂蚁森林能量;在B站完成答题领取会员,全程无需人工干预;甚至有用户发出指令“将昨日拍摄的照片通过微信发送给母亲”,任务也圆满完成。
然而,发布不到48小时,微信便对其进行了屏蔽。随后,支付宝、淘宝、美团等主流应用相继封锁了豆包手机助手对其App的访问。
争议未平,AI创业公司智谱紧接着登场。12月9日深夜,智谱开源了AutoGLM项目,并喊出响亮口号:“让每台手机都变身AI手机,AI手机不应被少数厂商垄断”,此举一度推高了AI手机概念股。
在《OpenAI与豆包面临同一困境》一文中我曾指出:未来你会目睹更多“手机助手”尝试接入你的微信、抖音和支付宝。没料到这一幕来得如此迅速。
豆包手机助手引发的兴奋已蔓延至海外,有开发者在X平台感慨:“这是我首次见识到真正可用的AI手机助手,不同于Siri那种仅限于设置闹钟的玩具功能,它能跨应用执行复杂任务链。”
这彰显了强大GUI Agent的真实潜能——
无需App开放API接口,Agent直接通过视觉理解屏幕界面;无需人为训练每个App的操作流程,Agent可自主学习,在不同应用间无缝切换,完成完整任务链。
难怪X上另有评论强调:“这是自iPhone诞生以来,手机交互方式最重大的革新”。
豆包手机助手验证了:GUI Agent作为一种产品形态是成立的,用户需求真实存在。搭载豆包助手的努比亚M153工程机在闲鱼平台热销,其市场反响超越了99%频繁亮相播客和演示日的AI创业项目。
而智谱AutoGLM的开源,在豆包完成市场教育并踩遍雷区后,以“开源英雄”姿态,收割了一波关注与行业认知。
它采用了更“高明”的策略:ADB结合视觉识别方案,在“云手机”虚拟环境中操作,方式更为隐蔽,无需获取高级系统权限,仅模拟人类手指点击屏幕的行为,使平台风控难以区分真人还是AI。
AutoGLM还借此享受了开源带来的声誉红利,却无需承担产品法律风险——用户如何部署后果自负。但问题在于:配置ADB、开启开发者模式、部署9B推理模型,对普通用户而言门槛过高。闲鱼上已出现“100元代部署AutoGLM服务”的买卖。
坦率而言,我认为智谱AutoGLM开源对推动智能手机AI化意义有限。
相较于豆包致力于让部分用户体验“AI原生”手机,AutoGLM更多是展示技术肌肉,吸引眼球,并提供一种看似能暂时绕开微信、支付宝和美团封禁的技术漏洞,但终究会被堵塞。已有开发者反馈:自行部署的AutoGLM遭微信封禁。
核心问题并未解决。Super Agent与Super App之间的关系,丝毫未理顺。
简言之,AI手机的推进需要产业广泛共识,亟待Super Agent与Super App达成一致。
中国移动生态极度成熟,互联网巨头围绕App构建的流量壁垒、护城河、生态和利益盘根错节,这已成为手机AI化的历史包袱——任何对现有格局的打破,都令巨头们倍感压力。
但趋势无可阻挡。
豆包助手揭示的矛盾:努比亚授权AI使用系统级权限,但App厂商不予承认。
缺失的关键环节:谁有权授权AI操作第三方App?
模拟用户的点击、滑动、输入行为,是豆包从努比亚获得的授权。从技术视角看,这是手机操作系统赋予的合法能力。但微信用户协议明确禁止“外挂软件”,任何模拟用户操作均属违规。
此时,为何不能构建一个“AI代理操作认证体系”?如同网站拥有SSL证书以验证身份与安全,AI Agent为何不能有一套“可信代理”认证体系?
至少,它能解决三大问题:第一,证明AI身份——归属于哪家机构,采用何种技术架构;第二,证明AI授权——用户指令范围,是否存在越权;第三,证明AI安全性——具备保障措施、操作日志、责任保险,确保行为可控。
回想支付宝诞生初期,银行也曾不满,认为其介入用户交互环节。但随着第三方支付牌照出现,问题得以化解。规则是:符合条件者方可从事第三方支付;反之则否。银行可选择对接或拒绝,但需有通行依据。
同理,AI Agent也需要这样一套“代理操作认证”体系,它不一定是一张牌照,而是一套通用技术标准。并非任何实体都能随意模拟用户操作,但只要符合标准、通过认证,平台便不应无理由拒绝。
争论无益。美国人擅长制定此类技术共识标准,若我们无法达成一致,最终仍将沿用OpenAI和Anthropic设立的标准。
聊天记录、支付记录、打车订单,其所有权、使用权、授权权究竟归属何方?
App方可能主张:用户数据存储于平台,属于自身资产。平台投入服务器、带宽、运维成本,提供免费服务,数据自然享有权益。且用户协议中写明,用户授权平台使用数据以优化产品、推送广告。
用户则认为:这是我的隐私,我的聊天内容,与朋友的对话,为何不能允许自己的AI查看?我授权AI帮忙整理聊天记录、提取关键信息、提醒未读消息,这是我的合法权利。
AI模型与Agent提供者主张:用户授权后,我便有权读取、分析、使用这些数据来提供服务。不会泄露给第三方,不会用于模型训练(除非用户同意),仅是代表用户行使其权利。
此刻,明确“数据所有权归用户”的至高原则至关重要,它构成了所有用户授权、AI代理及App安全机制的基石。
这意味着:用户在平台上产生的内容、行为数据,本质上属于用户本人,平台提供服云,但不拥有数据所有权。
数据使用权可进行授权,平台有权使用数据以提供服务(如推荐算法、个性化广告),这是用户协议约定的,但用户也有权授权第三方AI使用数据,两项授权不应冲突。
平台享有安全审查权,但不能无理由拒绝。若AI通过认证、证明安全,则不应轻易被阻断。
Super Agent势必触动Super Apps的蛋糕,这几乎无可避免。
因为用户的浏览行为被Agent取代,推荐算法依赖的注意力机制将面临颠覆。随之,广告收入、流量分发收益、乃至会员收入都可能受损。
但Super Agent自身呢?如果其存在仅仅削弱平台收入,而自身GPU算力、模型研发与优化等成本居高不下,长此以往,无人能从这场变革中获益,游戏将难以为继,导致双输或多输局面。
在此背景下,重新构想与创造商业模式显得尤为关键。
OpenAI与亚马逊关系紧张,但其与沃尔玛的合作提供了范例。目前沃尔玛36%的线上流量源自OpenAI,尽管尚无分成协议,但这难道不值得畅想吗?类似于搜索引擎的CPC(按点击付费)模式:每一位通过ChatGPT引导至沃尔玛的用户,沃尔玛向OpenAI支付费用。
再如Agent订阅制——如果Agent购物真能为用户每年节省2000元,每月收取20元订阅费并不过分吧?这部分收入,Super Agent理应分润一部分给Super Apps。就像爱奇艺会员付费跳过广告,YouTube从订阅费中分成给内容创作者。
此外,增值服务分层设计是否可行?基础功能免费但限制使用次数,仅适用于常规任务。如果用户强烈需要Super Agent操作微信自动回复、管理支付宝账单、处理滴滴会员卡等高级功能,则需付费——即执行复杂任务链、跨平台操作、处理敏感私有信息乃至企业定制等高级功能,都应收费,并与Super App分成。
这一问题若不解决,平台的抵制将持续,这也在情理之中。
误将“我爱你”发送给男上司而非女友;意图转账100元却误操作成10000元;Agent误删重要聊天联系人;清理垃圾文件时连带删除了关键工作文档……此类事件一旦发生,责任应由谁承担?
许多人忽视了一点:AI犯错的成本往往高于人类——因为AI操作速度极快,一秒钟能完成人类一分钟的任务,一旦出错便是大规模失误,挽回机会渺茫。
AI若遭黑客攻击怎么办?钓鱼邮件和诈骗电话能欺骗人类,就一定无法欺骗AI?AI的反诈意识一定强于老年人?AI在社交平台发布不当内容导致封号,责任归谁?AI自行发现刷单可获利,利用虚假账号注册领取红包,它是否会自学作弊?AI通过持续学习优化,若其目标是帮用户省钱,作弊可能是最有效途径,它真的不会作弊吗?
为规避这些风险,“沙盒”模式尤为重要。目前豆包助手采用先预览操作步骤,用户确认后再执行,并实时显示操作过程,这已具备沙盒思维,本质是一种确认机制。
另一种方式是:AI先在虚拟环境中“练习”,熟练后再应用于真机。敏感操作必须在沙盒中预演,系统模拟执行并生成预览结果,用户看清“执行后果”后,确认无误方在真实环境执行。无需人工亲自操作,但至少需一次确认。
在此基础上,建立分级确认机制也具可行性。并非所有操作都需要用户确认,那样过于繁琐,体验差。应根据风险等级设计流程:读取信息无需确认;发送消息等常规操作,弹窗简单确认;支付、转账、修改密码、保存与删除数据等,需多重验证。
此外,用户必须拥有随时中断AI的权限,一键停止所有正在执行的操作。如同电梯的紧急停止按钮。而AI发现异常也应自动停止——银行与自动驾驶领域已有实践,AI Agent服务提供者同样应当落实。
总之,让用户承担全部风险并不合理。
豆包手机助手此番掀起的浪潮,若说其真正价值,或许体现在两方面:
第一,它向世人证明:GUI Agent能够成为真正的Super Agent,确实引发了手机交互方式的一次变革,带来了兴奋、争议、喧哗与躁动。让人们意识到,AI真的可以协同操作你的手机。
第二,相较于众多智能手机厂商的Agent尝试,它首次直击核心,代理了一小批技术尝鲜用户,“操作”了他们的Super App,如微信、支付宝、美团与京东,使得如何建立AI Agent产业标准、如何思考App这一存在近20年的物种在AI时代的变革等问题,变得无法回避。
接下来,需要的是共识,以及为达成共识而持续的博弈。
本文由主机测评网于2026-02-09发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260224063.html