当前位置:首页 > 科技资讯 > 正文

人工智能作为可控工具:乔安娜·布赖森教授深度对话与洞见

人工智能作为可控工具:乔安娜·布赖森教授深度对话与洞见 AI治理 通用人工智能 就业影响 AI责任 第1张

本文基于柏林赫尔蒂学院伦理与技术教授乔安娜·布赖森(Joanna Bryson)在腾讯研究院AI&Society海外专家系列对话中的分享整理,核心主题聚焦于“人工智能仅是可控工具”。

本文系腾讯研究院 AI&society 海外名家对话 系列的第三篇内容

01

问:自ChatGPT问世以来,生成式AI技术快速演进。这些技术对社会、经济及科学研究的关键影响体现在哪些方面?

Joanna Bryson: 在科学研究领域,人工智能在一定程度上加速了进程,但本质上它只是一个工具。换言之,它与其他工作工具并无根本差异,无需过度强调其特殊性。 

从社会层面看,经济和政治是两大关键维度。经济学角度上,自动化可能带来双重效应:一是替代效应,即减少劳动力需求;二是增强效应,即通过提升生产力创造更多就业。我认为詹姆斯·贝森(James Bessen)的相关论文最具参考价值。牛津研究显示,英国目前未出现明显替代效应,反而在高生产力领域就业机会增加。然而,鉴于大型语言模型的高昂成本,其经济效益能否覆盖投入仍存疑。 

政治方面,经济衰退及其引发的安全感知缺失可能导致政治极化,尤其在社交媒体和AI助推下,针对性信息传播成为可能。经济安全感丧失,如意外失业或负债,常引发个体身份认同危机,进而催生群体认同需求,甚至极端行为。经济不稳定时期,这种心理易受社交媒体放大。 

02

问:如何理解通用人工智能(AGI)?AGI发展会因大模型加速吗?当前AI热潮是否存在泡沫化风险?

Joanna Bryson: 我认为通用人工智能(AGI)概念在将政府和公司视为一种人工智能形式时有意义。它们是复杂组织,通过技术合作放大人类智能。从这个视角,AGI是一个需解决的问题。AI透明度与政府透明度相似,核心在于如何管理和监管这些系统,确保透明和可问责。然而,一些科技公司激励政策基于AI成果而非理解系统,声称无法知晓AI运作方式。若只关注结果而不探讨控制机制,将非常危险。AGI叙事实则将责任推给无法问责的存在,而非人类或组织。 

此外,AGI与权力和市场竞争紧密相连。一些科技公司为成为行业“第一”,正削弱阻止市场集中的因素。以电影《高地人》(Highlander)比喻,它们不想让旅程结束,唯恐自己非最终成功者。推动AGI叙事可能是市场过热信号。需关注潜在市场控制问题。AI泡沫也需警惕,只有通过良好投资监管才能避免。 

对于AGI加速发展,我认为更应讨论可控与不可控AI的差异。这是设计选择。透明度和问责制是关键,欧盟《人工智能法案》明确要求使用和部署AI的机构负责并确保技术可控。总之,需确保AI产品不仅正常运作,更有清晰责任链条和明确控制者。

03

问:AI发展深刻影响各领域就业。您如何看待AI对人类工作的影响?是会取代基础工作,还是创造新岗位?教育、社会保障等系统应如何调整以应对变化?

Joanna Bryson: 当讨论AI导致失业时,常误解工作是简单人际关系。实则工作本质关乎权力集中。自动化普及可能替代某些工作,但工作代表生产力、资源和权力控制。企业通过自动化以更少人完成更多工作,同时集中权力,通过雇佣高生产力员工提升控制力。 

此外,经济转型中技能重新估值是一大问题。一些人花费数十年学习的技能可能因技术进步贬值。同时,新技术创造新工作岗位,要求新技能,我们需帮助适应者获得更好支持。

因此,教育体系和社会保障体系需改革以应对AI变革。尤其在技术快速迭代时代,必须助人找到新工作方向并获取新技能。一些北欧国家已成功实施此类政策,政府选择未来产业方向并通过劳动力再培训助人适应。针对失业,社会保障体系应提供更多支持,避免失业者因不安走向极端或暴力,身份认同丧失对个体是毁灭性的,故需帮每个人在经济转型中找到合适位置。 

04

问:若未来大部分工作由AI完成,人类应如何重新定义工作意义?在这样的时代如何找到生存价值?

Joanna Bryson: 什么是工作?这是一个有趣问题。COVID期间,许多人因疫情无法工作,但生活仍正常运转。因此,设想一个未来,许多工作消失,仅少数人提供必要社会保障和支持以维持社会可持续性,工作定义可能改变。 

届时,工作将不仅为经济利益,更关乎社会联系、个人认同和自我价值实现。例如,餐饮、美容理发、艺术创作等行业不仅支持生存,更为人们提供情感交流和自我表达空间。听音乐对许多人不仅是娱乐,还帮助找到志同道合者,分享兴趣想法,形成身份认同。尽管科技进步可能改变传统工作岗位,但人际联系和对彼此福祉的关心将是未来工作核心。

此外,某些工作涉及社会生存核心功能,如保卫国家边界、应对气候危机、处理自然灾害等,这是任何社会无法回避的责任。 

05

问:当前AI风险备受关注,包括AI自主意识风险、失控风险等。如何看待这些问题?您认为AI会像人类一样具有自主意识吗?

Joanna Bryson: 我认为当前AI不会具备“意识”。许多人误将“意识”仅理解为自主记忆能力,AI已能做到,但讨论“意识”时更多关乎道德主体(Moral Agency)或道德受体(Moral Patient)。在我的文章《Do We Collaborate With What We Design》中,我观察到“协作”和“同事”等词汇常描述人机互动,但这种拟人化隐喻不恰当,机器与人类存在异质性关系,即AI在实现目标手段上可能具一定独立性,但目标始终由人类主体选择。真正协作涉及互补专业知识、共同规划、决策和行动及共同创造原始框架。尽管AI可助人类,但其与人类互动缺乏真正共同规划和决策。 

因此,AGI永远不会是完全自主决策系统,它始终是人类设计和控制的工具,即使AGI能力超越人类。我们已通过计算器等工具实现超人类计算能力,但这不意味计算器有决策权,决策权在背后人或机构。又如国王抛硬币决定问题,硬币决定结果,但责任仍在国王。同样,AI决策始终由人类设定和控制。换言之,AGI本质仍是工具,决策权在人类手中。真正需担心的是AI系统能否保持透明可控。若系统无明确控制和责任,则不符道德法律要求,不能允许其进入市场。故必须确保AI系统可追溯和监管。 

06

问:如何看待人工智能责任问题?AI治理的重点是什么?

Joanna Bryson: 人工智能产品责任链条是关键问题。正如欧盟AI法案指出,必须明确谁对AI产品负责。我们需确保一旦出问题,能清楚追责。责任模糊化现象与美国诉讼文化相关,一些技术公司可能通过避免明确责任链条减少被追责风险。但对开发者而言,只有充分理解和掌控技术,才能维护改进系统。若AI系统无清晰责任链条,不仅难维护改进,还可能变成类似空壳公司的灾难,无人能阻止其做错事,这不可接受。尽管可想象某些系统失控,但无责任追溯的AGI系统无法被接受。因此,对AI产品,需确保在欧盟市场销售的AI产品能清晰追溯运作,尤其涉及数据使用和商业盈利时。 

AI和相关技术完全可用来提高透明度。正如人类通过语言和大脑理解世界,我们可利用AI提高系统可理解性,使其更透明可控。这不要求完美理解。就像不会要求银行告知员工脑海所想,而应要求银行提供谁在何时访问了某账户的信息。同样,我们需了解AI系统开发者是谁,谁对某AI产品发布签字确认,尤其出问题时,需知AI产品背后责任人,而非理解神经网络中神经元或权重运作,这样才能发现问题并修复。在AI治理中,监管不仅关乎让AI系统自身透明,更关乎创建监管框架,确保产品开发者对其技术负责并清晰理解可能后果。 

我认为若前沿AI实验室真开发出AGI,政府可能通过类似“防火墙”措施监管,以控制技术过度集中和滥用。更紧迫问题在于美国是否开始对国内权力过大公司施加有效监管。若美国无法做到,其他国家能做些什么?这也是欧盟数字市场法案提出的重要问题,实际操作中可能需要更多国家合作。 

07

问:您如何看待“全民基本收入(UBI)”理念?这是AI时代的可行方案吗?

Joanna Bryson: 我曾支持全民基本收入(UBI),但现持保留态度。在美国,许多提倡UBI者持自由主义立场,认为福利国家支出过高,不如直接发钱给每个人。 

我认为某种形式收入再分配很重要。许多实验表明,当人们获得足够资金时,确实会偿还债务,经济状况改善,但一些人仍面临问题。社会中总有人面临困境,尤其社会变化时可能加剧。但单纯给每个人相同金钱可能不解决根本问题。COVID期间直接发钱帮助解决问题,短期可行,但长期需更结构性支持。 

因此,我倾向于认为UBI只是过于简化的解决方案,我们需更系统措施解决财富不平等问题。例如,公共教育可平衡社会差距,减少家庭背景对个人发展的影响。除直接现金补助,还需设立激励机制,确保人们有动力工作,且不让社会经济变得过度平等,因过度平等会导致经济衰退。经济学研究显示,最理想社会经济结构是适度基尼系数,约0.27,过多贫富差距会导致社会不稳定,但也不能实现极端均等分配。适度财富差距能激发社会活力,但当差距过大时,社会会陷入暴力和混乱。 

08

问:欧盟在AI治理方面走在前列,特别是AI法案。您认为它对AI领域影响如何?实施中可能遇到哪些挑战?

Joanna Bryson: 欧盟AI法案对AI领域影响深远且具开创性。根据我的文章《Human Experience and AI Regulation: What European Union Law Brings to Digital Technology Ethics》,影响主要体现在:首先,明确AI作为产品法律地位,这意味着企业需进行尽职调查,避免不良实践并采用最佳实践。对“高风险”AI系统,如用于教育、医疗或金融服务决策的系统,需严格记录保存。其次,AI法案明确禁止某些与欧盟隐私和基本权利不兼容的AI服务,如禁止建立记录每个人位置的数据库或“社会信用评分”系统。最后,明确所有AI系统必须清晰标识其AI性质,防止用户误以为与人类交互。 

我认为AI法案主要挑战是执行,尤其在全球政治环境下。AI法案本身强大,尤其强调AI技术透明度和问责制。尽管如此,执行和监管仍面临许多挑战,尤其在跨国监管和全球统一标准方面。 

09

问:您认为未来AI发展的核心原则和价值观应该是什么?

Joanna Bryson: AI发展的核心原则应包括产品责任、透明度以及持续改进能力。我们需认识到AI作为产品必须遵循责任链条,开发者必须对其设计和部署负责。此外,AI透明度至关重要,以便于监督和改善。 

另一关键问题是如何有效监管大型AI平台,尤其在市场集中度问题上。我们需确保AI像全球定位系统(GPS)那样得到合理监管,避免技术过度集中,以保持公平竞争。 

10

问:除了上述问题,您认为AI领域还有哪些被忽视的重要话题或潜在风险值得更深入探讨?

Joanna Bryson: 我认为目前被忽视的重要问题之一是跨国科技公司的跨国监管。美国作为反垄断法发源地,现却放松对本国科技巨头监管。与此同时,欧盟通过跨国合作和共同监管框架,成功推动对科技巨头监管。我认为这种合作动力部分源于它们是邻国,无人希望法德再次战争。这种避免冲突、通过谈判解决经济和权力再分配问题的机制,正是我们需要全球推广的。 

此外,跨国公司在全球范围内的影响力需更多关注,尤其在数据使用和广告行业。例如,谷歌不再简单是搜索公司,它更像全球广告公司,主导全球广告市场。这不仅对新闻业等传统公共利益领域造成冲击,也对社会透明度和问责制造成威胁。我们需重新思考广告作为公用事业的角色,确保它能支持公共利益,而非仅为少数公司带来巨额利润。如何将这些科技巨头纳入合适监管框架,是我们当前面临的重大问题。 

最后,人工智能监管不应被视为自然现象,而应像核技术一样被视为可控工程产品。我们需明确的监督机制和再分配视角,确保AI发展真正符合人类利益!