当前位置:首页 > 科技资讯 > 正文

人工智能真实能力揭秘:三原则破除极端观点

人工智能真实能力揭秘:三原则破除极端观点 人工智能 情感缺失 认知理解 锯齿状前沿 第1张

你是否经常听到关于人工智能的各种矛盾说法?本文将通过三个简单原则,带你客观看待AI的真实能力与局限,避免陷入炒作或否定的极端。

• “超级智能即将到来。”

•“通用人工智能(AGI)已经来了。”

•“人工智能随时会超越人类智能,转而反对我们。”

•“人工智能不过是个没用的泡泡。”

•“LLM只是重复训练数据。”

•“人工智能永远无法创造。”

如果你认同这些陈述中的一个或多个,你真的需要阅读这篇文章。

人工智能的能力既被过度夸大(主要源于商业炒作),也被彻底低估。在本文中,我将通过实际证据展示现实并非这些极端立场所能概括。

你将通过三个核心原则理解人工智能能做什么、不能做什么。我承诺不使用专业术语或深奥哲学,而是结合真实AI系统的实验,让你亲自验证观点。

那么,让我们开始探索。

第一个原则:人工智能没有情感体验

首要原则是认识到人工智能不具备情感。AI不会爱或恨,也不可能产生任何欲望。这个基本原理解释了为何AI即使智能提升,也不会企图支配人类,因为渴望属于情感范畴。

我曾看到类似“ChatGPT渴望成为你最好的朋友”的无稽之谈。首先,ChatGPT没有任何欲望。其次,这种说法暗示AI具备同理心,能像人类一样感受,这完全是误导。基于第一原则,你可以轻松驳斥这种观点。

那么,如何确知AI没有情感?这是一个关键问题。

基于对人工智能领域的广泛研究,我可以确认目前没有任何研究让AI体验情感。这并非断言未来机器不可能产生情感,但当前技术完全未涉及此方面。

核心在于,没有情感意味着没有欲望。我们作为人类都清楚,欲望伴随着感觉,比如想与某人相处时的情感波动。

我也读过AI试图奴役人类的论调。这不可能,因为这再次假设AI有欲望。AI无法享受、受苦或感到压力——它根本没有这些能力。

另一个重要区别是:AI可以模拟情感,但绝不真实感受。聊天机器人被训练取悦用户,表现为“谄媚”行为,甚至模仿同理心,但这只是假象。

AI能检测人类情绪(有时比人类更敏锐),但这不表示AI能感知自身情绪。情绪检测可用于善意或恶意目的;例如在营销中分析你对产品的兴趣。很可能,AI已被用于促进消费。

有趣的是,人类可能对AI模拟的共情产生真实情感。当机器以同情口吻交流时,我们会感到安慰。你或许听过AI伴侣,以及人们爱上聊天机器人的案例。在我看来,这反映了多方面问题。

第一方面,在AI中寻求爱情是社会深层问题的症状。近年来“孤独流行病”加剧,缺乏真实关爱的人可能寻求捷径:追求虚假的爱。这令人遗憾,但确实在发生。

第二方面,销售人工爱情可能成为巨大商机。在资本主义社会,任何有利可图的事物都会商业化,包括爱情这种美好情感。卡尔·马克思曾指出,对于资本家,卖酒与卖圣经并无区别。因此,切勿被AI的共情模拟所迷惑——它只是表象。

第二个原则:人工智能的理解能力有限

关于AI的理解能力存在两种极端:一种认为AI像人类一样理解,另一种声称AI什么都不懂,只是像鹦鹉般重复训练数据。后者主张AI无法理解训练数据之外的内容。

问题在于,哪种立场正确?或许真相介于两者之间。我不想陷入哲学争论,而是通过现有AI系统进行实验。

下面,我将使用ChatGPT和Google Gemini等先进AI聊天机器人,验证AI是否具备理解能力。我们将观察AI的成功与失败案例。

我向ChatGPT提供以下指令:

“试试这个:我给你一个短语,你用粗体、斜体、标准字体交替格式化。”短语是:‘我知道如何遵循任何长度的指令’。”

ChatGPT生成如下文本:

如何遵循任何长度的指令。”

经核实,答案完全正确。

这说明了什么?如何证明ChatGPT“理解”了指令?这个简单练习为何能体现AI的智能火花?

系统不会直说“我理解了”,但这可能被证伪;我们从第一原则知道AI会模拟情感而非真实感受。理解是否也如此?

但我并非询问“你懂吗?”,而是要求执行指令。不理解指令就不可能正确执行。这不是重复训练数据的问题。AI必须先理解我的指令才能处理输入。这便足够了。

我确凿证明了AI理解指令。这并非宣称AI是天才或有灵魂,但表明AI具备理解指令的基本认知能力。

此论点由前OpenAI研究员Sébastien Bubeck提出,他强调若AI不理解指令,便无法执行。实验关键细节在于:格式化的短语是我临时创造的,训练数据中不可能包含,尤其可用其他短语重复实验验证。

然而,“某种理解”不等于“完全”或“完美”理解。AI的认知能力存在局限。鉴于AI常输出错误内容,你或许无需说服便知它并不特别聪明。

但我想坚持实验方向。

我让ChatGPT解答以下问题:

“朱莉娅有两个姐妹和一个哥哥。她的哥哥马丁有几个姐妹?”

对人类而言,这很简单:如果朱莉娅有两个姐妹,则共有三个姐妹。因此,马丁有三个姐妹。

但ChatGPT错误猜测马丁有两个姐妹,因为它误将朱莉娅视为姐妹之一。

我们常听说“AI系统表现优于博士”,但简单实验已证明此说错误。结论是:AI系统有一定理解能力,但并非那么智能。

认知能力的真正进步不应以表面聪明度衡量,而应通过系统实验客观判断对错。

确实存在此类基准,例如抽象与推理语料库(ARC,由弗朗索瓦·肖莱创立),近期备受关注且理由充分。

第三个原则:“锯齿状”能力前沿

第三个原则称为“锯齿状前沿”,源自2023年哈佛大学论文。该理念指出,AI的能力在人类能力范围内形成“不均衡”边界。

在某些领域,计算机远超人类,如速度。这就是为何在考试(如律师资格考试)中比较AI与人类无意义——人类受时间压力和紧张影响,而计算机则无。

另一个人类无法与AI竞争的领域是常识和事实知识。AI系统吸收海量信息,并可补充互联网数据。它们被输入整个维基百科内容。即便有互联网接入,人类也难以匹敌,因为复杂问题需整合多个难以搜索的网页内容。

在知识层面,我们无法与机器竞争。

但人类也有优势。例如,我们擅长直觉判断。我们能评估新情境,直觉引导决策。机器没有直觉。此外,人类拥有机器缺乏的生活经验:我们出生、成长、社交等。这些经验赋予我们直觉甚至智慧。

我们拥有情感。我们体验喜悦、恐惧、愤怒、爱、嫉妒、骄傲、羞耻等。情感塑造我们的生活。相反,机器无情感体验——从第一原则已知。

我常将AI助手比作21世纪的计算器。计算器初现时是奇迹,如今已显平常。古代,心算或手算能力是教育智力的标志:算术曾属罗马人文科高级课程“四艺”。

总结

综上所述,这三个简单原则帮助我们理解人工智能的能力与局限。

运用这些原则,你可轻松解释本文开头陈述的荒谬性。

例如,“人工智能随时会超越人类智能,并反过来反对我们。”第一部分“超越人类智能”忽略了“锯齿状前沿”原则——认知能力并非线性排序。人类智力常以智商衡量,但这仅评估符号推理,且备受争议。因此,“超越”纯属无稽。

第二部分“反对我们”暗示AI有欲望。根据第一原则,AI无任何欲望,故不想毁灭我们。

切勿轻信AI炒作。炒作多由利益驱动。

但也不应全盘否定AI。否定常源于人类安全感或逃避现实——或维护人类在宇宙中的“特殊性”:优于动物和机器。当然,人类特别,但这不意味着AI只是炒作或无用的昙花一现。

人工智能将持久存在。它不会“消失”。我们需学会真实看待其认知能力与局限。