
本文整理自柏林赫尔蒂学院伦理与技术教授乔安娜·布赖森(Joanna Bryson)在腾讯研究院AI&Society海外专家面对面系列对话中的分享,主题聚焦于“AI仅是可控工具”的核心理念。
本文为腾讯研究院 AI&society 海外名家对话系列第三篇。
问:自ChatGPT发布以来,生成式AI技术发展迅猛。这些技术对社会、经济及科学研究带来了哪些主要影响?
Joanna Bryson: 就科学研究而言,AI在一定程度上推动了科研进程,但其本质上仍是一种工具。换言之,它与其他科研工具并无本质区别,无需过分强调其独特性。
在社会维度,经济与政治是两个关键领域。从经济学视角看,自动化的引入可能产生两种效应:一是替代效应,即降低对劳动力的需求;二是增强效应,即通过提升生产率创造更多就业机会。我认为詹姆斯·贝森(James Bessen)的论文对此主题分析最为透彻。牛津大学的研究表明,英国目前并未显现明显的替代效应,反而在高生产率领域观察到更多就业机会。然而,考虑到训练大型语言模型的高昂成本,其经济效益是否足以覆盖投入仍存疑。
在政治层面,经济衰退及其引发的焦虑可能导致政治极化,尤其在社交媒体和AI的推波助澜下,定向信息传播成为可能。经济安全感的丧失,特别是意外经济下行(如失业、负债),常诱发个体身份认同危机,进而催生群体认同需求,甚至可能滑向极端行为。在经济动荡时期,这种易受操控的心理易通过社交媒体被放大。
问:您如何看待通用人工智能(AGI)?您认为大模型是否会加速AGI的发展,抑或当前AI热潮存在泡沫风险?
Joanna Bryson: 我认为通用人工智能(AGI)这一概念在将政府和公司视为某种形式的人工智能时具有意义。政府和公司都是极其复杂的组织,任何个体都无法完全洞悉其所有运作和决策,它们通过技术和协作放大了人类智能。从这个角度出发,AGI是我们必须应对的课题。人工智能的透明度与政府的透明度高度相似,AI的真正挑战在于如何管理和监管这些系统,确保其透明度和可问责性。然而,我注意到某些科技公司对员工的激励机制基于AI成果,而非对AI系统的理解,它们声称不可能知晓AI的运作方式。倘若我们只关注AI的产出,而忽略其运作机制或如何维持对技术的控制,将十分危险。因此,AGI叙事实际上是在将责任推给一个无法被问责的实体,而非让人类或组织承担责任。
此外,AGI与权力和市场竞争紧密相连。一些科技公司为争夺行业“第一”,正在削弱可能阻止市场集中的因素。借用电影《高地人》(Highlander)的比喻,这些公司不愿让游戏结束,唯恐自己不是最终的赢家。这种推动AGI叙事的举动,或许正是市场过热的信号。因此,需要警惕潜在的市场垄断问题。同时,AI泡沫也值得关注,唯有通过良好的投资监管,才能避免泡沫破裂。
对于AGI的加速发展,我认为我们更应聚焦于可控AI与不可控AI的差异。这是一个设计选择问题。透明度和问责制是AI发展的基石,而欧盟的《人工智能法案》恰好回应了这一点,它明确要求所有使用和部署AI的机构对技术负责,并确保这些技术能被有效控制。总之,我们需要确保AI产品不仅功能正常,还要有清晰的责任链条,确保产品背后有明确的控制者。
问:人工智能的发展对就业影响显著,您如何看待AI对人类工作的影响?它会取代更多基础性工作,还是会创造更多新岗位?为应对这些变化,教育、社保等社会系统需做哪些调整?
Joanna Bryson: 人们讨论AI可能导致失业时,常存在误解,认为工作是人与人之间的简单关系。但工作的本质在于权力集中。随着自动化普及,尽管一些工作会被替代,但工作本身代表着生产力、资源和权力控制。企业通过自动化能用更少人力完成更多任务,但与此同时,它们也在集中权力,试图通过雇佣更多高生产率员工来增强控制力。
此外,经济转型过程中,技能的重新估值是一个重大问题。一些人可能花费数十年学习某项技能,但随着技术进步,这些技能的价值可能大幅缩水。同时,新技术也会催生新岗位,这往往要求掌握新技能,我们需要帮助能适应新技术的人获得更好支持。
因此,教育体系和社会保障体系需进行改革,以应对AI带来的变革。尤其在技术快速迭代的时代,我们必须帮助人们找到新的职业方向,并协助他们获取新技能。一些北欧国家已成功实施此类政策,政府选择未来产业方向,并通过劳动力再培训帮助人们适应新环境。针对失业问题,社保体系应提供更多支持,确保不让因失业而极度不安的人走向极端化或暴力,失去身份认同对个体而言是毁灭性的,因此我们需要帮助每个人在经济转型中找到自身定位。
问:如果未来大部分工作由人工智能完成,人类应如何重新定义工作的意义,并在这样的时代找到生存价值?
Joanna Bryson: 什么是工作?这是一个非常有趣的问题。事实上,疫情期间,许多人因封锁无法工作,但生活仍能正常运转。因此,如果我们设想一个未来,许多工作消失,仅有相对少数人提供必要的社会保障和系统支持,维持社会可持续性,那么工作本身的定义可能会演变。
届时,工作将不仅关乎经济利益,更多是为了社会联系、个人认同和自我价值实现。例如,餐饮、美容美发、艺术创作等行业不仅为生存提供支持,还为人们提供情感交流和自我表达的空间。比如,听音乐对许多人来说不仅是娱乐,还帮助他们找到志同道合者,分享兴趣和想法,形成身份认同。尽管科技进步可能改变一些传统岗位,但人与人之间的联系和对彼此福祉的关怀将是未来工作的核心。
此外,某些工作涉及社会生存的核心功能,如保卫国家边界、应对气候危机、处理自然灾害等,这些是任何社会都无法回避的责任。
问:当前,AI风险备受关注,包括AI产生自主意识、AI失控等风险,您如何看待这些问题?您认为AI会像人类一样具有自主意识吗?
Joanna Bryson: 我认为当前AI不会具备“意识”。许多人误将“意识”简单理解为自主记忆的能力,这一点AI已能轻易做到,但实际上,“意识”更多涉及道德主体(Moral Agency)或道德受体(Moral Patient)的问题。在我的文章《Do We Collaborate With What We Design》中,我观察到“协作”和“同事”等词汇常被用于描述人机互动,但这种拟人化隐喻是不恰当的,机器与人类之间存在异质性关系,即AI在实现目标的手段上可能具有一定独立性,但目标本身始终由人类选择。真正的协作涉及互补领域的专业知识、共同规划、决策和行动,以及共同创造原始框架。尽管AI能为人类提供帮助,但其与人类的互动缺乏真正的共同规划和决策。
因此,AGI永远不会是完全自主决策的系统,它始终是由人类设计和控制的工具,即使AGI可能超越人类能力。我们现在已通过计算器等工具实现了超越人类计算能力,但这并不意味着计算器拥有决策权,而是背后的人或机构在做决策。又如,当国王抛硬币决定问题时,虽然硬币决定了结果,但决策责任仍在国王。同样,AI做出的决策也始终由人类设定和控制。换句话说,AGI的本质仍是工具,决策权始终在人类手中。我们真正要担心的是AI系统能否保持透明和可控。如果一个系统没有明确的控制和责任,那它就不符合道德和法律要求,我们不能允许这样的系统进入市场。因此必须确保AI系统可追溯和监管。
问:您如何看待人工智能的责任问题?AI治理的重点是什么?
Joanna Bryson: 人工智能的产品责任链条是一个非常关键的问题。正如欧盟AI法案所指出的,必须明确谁对AI产品负有责任。我们需要确保,一旦发生问题,能清楚知晓责任所在。责任模糊化现象与美国的诉讼文化相关,一些科技公司可能通过避免明确责任链条来减少被追责的风险。但对开发者而言,只有充分理解和掌控技术,才能维护和改进系统。而如果一个AI系统没有清晰的责任链条,它不仅难以维护和持续改进,还可能演变成类似空壳公司的灾难,无人能阻止其出错,这种情况显然不可接受。尽管可以想象某些系统可能失控,但没有责任追溯的AGI系统是无法被接受的。因此,对于AI产品,需要确保在欧盟市场销售的AI产品能清晰追溯其运作,特别是涉及数据使用和商业盈利时。
AI和相关技术完全可以用来提高透明度。就像人类通过语言和大脑理解世界一样,我们可以利用AI提高系统的可理解性,使其更加透明和可控。这并不是要求完美理解。就像你不会要求银行告诉你某个员工脑海里的想法,你应该要求银行提供谁在什么时间访问了某个账户的信息。同样,我们需要了解的是AI系统的开发者是谁,谁对某个AI产品的发布签字确认,尤其当出现问题时,我们需要知道AI产品背后的责任人,而不是去理解神经网络中某个神经元或权重的运作,这样我们才能发现问题并加以修复。在AI治理中,监管不仅关乎如何让AI系统自身变得透明,更多的是关于如何创建一个监管框架,确保产品开发者能对其技术负责,并对其可能带来的后果有清晰理解。
我认为如果前沿AI实验室真的开发出AGI,政府确实有可能通过类似“防火墙”的措施进行监管,以控制技术的过度集中和滥用。更紧迫的问题在于美国是否开始对其国内拥有过多权力的公司施加有效监管。如果美国无法做到,其他国家能做些什么?这也是欧盟的数字市场法案提出的重要问题,实际操作中可能需要更多国家间的合作。
问:您如何看待“全民基本收入(UBI)”的理念?这是AI时代的可行方案吗?
Joanna Bryson: 我曾是全民基本收入(UBI)的支持者,但我开始对这个概念持保留态度。在美国,许多提倡UBI的人持有自由主义立场,他们认为福利国家支出过高,不如直接将钱发给每个人。
我认为某种形式的收入再分配很重要。实际上,许多实验表明,当人们获得足够资金时,他们确实会偿还债务,许多人的经济状况得到改善,但也有一些仍面临种种问题。社会中总会有一些人陷入困境,尤其是在社会变革时,这种困境可能加剧。但是,单纯给予每个人相同数量的金钱可能无法解决根本问题。我们确实看到疫情期间直接发放现金帮助人们解决了一些问题,这在短期内可行,但长期而言,解决问题的方式可能更需要结构性支持。
因此,我倾向于认为UBI只是一个过于简化的解决方案,我们需要更系统的措施来解决财富不平等问题。例如,公共教育可以平衡社会差距,减少家庭背景对个人发展的影响。除了直接的现金补助,我们还需要设立一些激励机制,确保人们有动力工作,并且不让社会经济变得过于平等,因为过度平等会导致经济衰退。根据经济学研究,最理想的社会经济结构是适度的基尼系数,通常在0.27左右,过多的贫富差距会导致社会不稳定,但也不能实现极端均等分配。适度的财富差距能激发社会活力,但当差距过大时,社会就会陷入暴力和混乱。
问:欧盟在AI治理方面走在前列,特别是欧盟的AI法案,您认为它对AI领域的影响如何?实施过程中可能遇到哪些挑战?
Joanna Bryson: 欧盟的AI法案对AI领域的影响深远且具有开创性。根据我的文章《Human Experience and AI Regulation: What European Union Law Brings to Digital Technology Ethics》,影响主要体现在以下方面:首先,明确AI作为产品的法律地位,这意味着企业需进行尽职调查,避免不良实践,并采用最佳实践。对于“高风险”AI系统,例如可能用于教育、医疗或金融服务决策的系统,需严格记录保存。其次,AI法案明确禁止某些与欧盟隐私和基本权利不兼容的AI服务,例如禁止建立记录每个人位置的数据库或“社会信用评分”系统。最后,明确了所有AI系统必须清晰标识其AI性质,防止用户误以为与人类交互。
我认为AI法案的主要挑战在于执行,尤其是在当前全球政治环境下。AI法案本身很强大,尤其是考虑到它对AI技术透明度和问责制的强调。尽管如此,执行和监管仍面临许多挑战,尤其是在跨国监管和全球统一标准方面。
问:您认为未来AI发展的核心原则和价值观应是什么?
Joanna Bryson: AI发展的核心原则应包括产品责任、透明度以及持续改进的能力。我们需要认识到,AI作为一个产品,必须遵循责任链条,开发者必须对其设计和部署负责。此外,AI的透明度至关重要,以便其能被监督和改善。
另一个关键问题是如何有效监管大型AI平台,特别是在市场集中度问题上。我们需要确保AI像全球定位系统(GPS)那样得到合理监管,避免技术过度集中,以保持公平竞争。
问:除了上述问题,您认为AI领域还有哪些被忽视的重要话题或潜在风险值得更深入探讨?
Joanna Bryson: 我认为目前被忽视的重要问题之一是跨国科技公司的跨国监管。美国作为反垄断法的发源地,如今却放松了对本国科技巨头的监管。与此同时,欧盟通过跨国合作和共同的监管框架,成功推动了对科技巨头的监管。我认为,这种合作的动力部分源于它们是邻国,没有人希望法国和德国再次发生战争。这种避免冲突、通过谈判解决经济和权力再分配问题的机制,正是我们需要在全球范围内推广的。
此外,跨国公司在全球范围内的影响力需要更多关注,尤其是在数据使用和广告行业中。比如,谷歌不再是一个简单的搜索公司,它更像是一家全球广告公司,主导了全球广告市场。这不仅对新闻业等传统公共利益领域造成冲击,也对社会的透明度和问责制构成威胁。我们需要重新思考广告作为一种公用事业的角色,确保它能支持公共利益,而不是仅为少数公司带来巨额利润。如何将这些科技巨头纳入合适的监管框架,是我们当前面临的重大问题。
最后,人工智能的监管不应被视为一种自然现象,而应像核技术一样,被视为一种可控的工程产品。我们需要明确的监督机制和再分配视角,确保人工智能的发展能真正符合人类利益!
本文由主机测评网于2026-03-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260329054.html