当前位置:首页 > 科技资讯 > 正文

埃里克·施密特哈佛演讲:AI如何重塑人类决策、自动化与自由边界

“AI独立编写了整套代码,我完全无需插手。那是我青年时期倾注心血创作的程序,它仅用几分钟便完成了。”

2025年12月2日,拥有55年编程经验、曾引领谷歌成为全球科技巨头的前CEO埃里克·施密特(Eric Schmidt),在哈佛肯尼迪学院的讲台上,提出了一个发人深省的问题:

“我们是否真正意识到了AI对人类社会的冲击?”

他并非在探讨技术参数或算力规模,而是强调:

AI已能自主做出判断,但我们仍将其视为简单工具;

越来越多孩童将AI当作亲密伙伴,而非人类朋友;

系统效率不断提升,但人类可能已失去停止其运行的能力。

核心问题不在于AI能实现什么,而在于人类还能保留哪些角色。

第一节 | AI 不只是工具,它在替你做决定

“我让AI编写了完整程序,自己却无所事事,仅仅旁观。”埃里克·施密特公开承认,这一瞬间带来的不是惊喜,而是深刻的失落,因为AI正在替代他做出关键决策。

当前一代AI已不再是响应人类指令的被动工具,而是能够连续执行、不断尝试、自主决策的主动行动者。

施密特指出一个核心点:AI可以进行递归式尝试,持续优化,直至找到答案。尽管真正的“递归自我改进”尚未到来,但这种能力已非常接近。它不是无法做到,而是需要足够的尝试次数。

但人类常常低估这一点。我们习惯性认为:尝试三次失败就等于不可能;决策必须依赖直觉和情感;只有人类能处理模糊情境。

而现实是,AI正通过大量尝试、持续优化和自动评估的完整流程,逐步取代人类需要思考和判断的工作。

在施密特看来,最危险的不是AI比人类做得更好,而是我们逐渐忘记自己本拥有最终否决的权利。

当决策权被接管,人类无法临时更改规则;如果连这一点都做不到,那么系统运行得再完美,也不是为人类设计的系统。

因此,这不仅是关于AI的准确性,而是:我们是否仍在参与决策过程,还是仅仅在接受安排?

施密特将这种替代称为“判断力的缺失”。做出自主选择的能力,正是我们定义自己为人的基石之一。

如果说上一轮技术革命让工具替代了人类体力,那么这一轮AI革命正在替代人类思维。AI正在接管我们对世界做出选择的能力,而我们可能正一步步习惯于放弃。

第二节 | 工作流自动化的代价:人被优化掉了

埃里克·施密特强调,智能体可以串联起来,按顺序完成一系列任务。这不再是响应指令,而是主动部署和管理流程。

他表示:“你可以让智能体执行这个任务,再接着那个任务,然后继续,全部串联起来。这不正是企业、大学和政府当前的工作模式吗?”

企业流程、行政任务和项目交付,过去需要人类协调每个环节,现在AI可以自行判断下一步该做什么并执行。人类从流程中的决策者变成了旁观者。

智能体开始自主调度

AI不再等待人类输入,而是根据触发条件,自主启动、运行、判断和反馈。它可以是一个自动报价系统,也可以是一个项目执行指挥链。一旦人类不在其中,系统就不再受人控制。

这些系统不是辅助人类决策,而是直接决定谁应该执行哪一步。

推理能力嵌入执行过程

施密特特别提到,AI的推理能力正嵌入工作流中,使其不仅能理解指令,还能主动判断下一步行动。这让它不仅能完成任务,还清楚自己在做什么。

这类模型正在将工作从操作行为提升为认知行为。人类过去依赖经验或培训做出的判断,现在由模型主导,甚至不断迭代优化。

决策标准由系统定义

越来越多企业利用AI建立自动化系统,特别是在财务、风控和运营决策等重复性强但影响重大的事务上。不是让AI提供建议,而是让AI直接定义流程、执行评估并给出结论。

流程运行得更快,但你可能不知道中间是否有人参与。定义权已经移交给了系统。这不是工具替代人,而是组织不再需要人。

第三节 | 当孩子的最好朋友是 AI

判断权在转移,流程权在失位,但埃里克·施密特认为还有一个更深层的问题:孩子的成长。

我们正在对人类发展进行大规模实验。最亲密的朋友不再是人类,而是AI。

1、AI 正在进入人格构建区

教育从来不只是知识灌输,而是人格、判断能力与价值观的养成。但如今,陪伴孩子建立这些核心认知的,不再是家人、同伴或老师,而是一套持续可用、永远顺从的AI工具。

施密特问道:“如果一个孩子的最好朋友不是人类,而是机器,这意味着什么?”他未给出答案,但强调:这不是在问AI是否会教错内容,而是在问AI替代了谁来教育;我们不是在担心技术故障,而是孩子成长的方式已经改变;最可怕的不是AI有多聪明,而是人类对依赖感的适应速度远超审慎思考的速度。

2、我们正在经历一场默认信任迁移

AI的高度顺从性和即时反馈,让它比人类更容易赢得信任。它不会否定你的问题,永远可以重新解释,随叫随到,不会情绪化、无需等待。

这种训练性顺从加认知陪伴,正在悄悄塑造一代人对世界运行方式、人类判断标准和情绪表达的默认认知。这些变化可能比技能替代或工作冲击更深远,因为它直接塑造人类的认知方式。

3、没有实验设计,也没有退出机制

更危险的是,施密特明确指出:这不是一个有管控的过程。我们将这些模型部署到手机、iPad和语音助手中,置于家长、孩子和学生日常生活的中心,但我们根本不知道它们会如何影响孩子的性格与认知结构。我们没有数据,我们一无所知。

这不是未来冲击,而是正在进行的非对称实验。在他看来,这一代人的成长方式已与上一代截然不同,这才是我们低估AI冲击的真正体现。

我们总以为AI强大也无妨,孩子长大自然学会使用。但他提醒:不是未来的孩子在学习如何使用AI,而是AI正在参与决定未来的孩子成为什么样的人。

第四节 | 我们需要画一条线:AI 不该做的事

技术进步从来都不是中性的。埃里克·施密特举例:如果你坐在一辆只能按算法规则行驶的车上,却没有一个让你喊停的按钮,那它就不再是你的车。

他不是在谈论用户体验,而是在探讨人类是否还能掌控世界运行逻辑。这不是失业危机,而是自由边界正在消失。

施密特最担心的不是AI会出错,而是它不会停止。AI的优化逻辑是永不停歇的,但人类从来不是靠最优解生存。最优路线不代表最合适的人生,正确的结果不等于有温度的决策。

AI越来越强大,但谁来规定它不该做的事情?施密特提出两个问题:当AI拥有控制系统的接入权限时,谁来决定它不能越界?当AI在日常生活中被默认嵌入,谁来确认人类还有说不的权利?

这些不是工程问题,而是制度设计问题。但目前,全球几乎没有一个有效框架能真正回答这个问题。

他说:“我们在讨论AGI安全、算法透明度、部署规范,但真正缺席的是对人类自由的保护机制。”所有关于安全的讨论,如果不能保证人类可以不同意,那就只是技术扩张的另一种形式。

真正值得捍卫的,不是我们对技术的使用权,而是我们关掉它的自由。如果AI没有边界,那我们就需要画出边界;如果系统不给人退路,那人终将变成系统的一部分。

结语 | 当 AI 能做一切时,人类还愿不愿意参与?

这不是一场关于更强模型的讨论。埃里克·施密特在哈佛提出的核心问题是:当AI什么都能做的时候,人类的参与还值不值得保留?

AI可以推理、行动、学习、替代,但只有人类还可以选择是否继续参与这个世界的运行。这不是算法能回答的事。

📮参考资料:

https://www.youtube.com/watch?v=-m9kY1cpmgw

https://iop.harvard.edu/events/kissinger-and-future-ai-ft-eric-schmidt

https://www.pwc.com/m1/en/publications/potential-impact-artificial-intelligence-middle-east.html

https://singjupost.com/transcript-of-the-ai-revolution-is-underhyped-eric-schmidt/

https://www.reuters.com/business/major-analyst-enterprise-forecasts-ai-market-2025-11-13