
近期,麻省理工学院媒体实验室公布了一项探索人工智能对人类大脑影响的研究。该研究在社交平台上引起了广泛讨论,因为它揭示了一个值得深思的发现:
那些依赖ChatGPT完成写作作业的学生,在脑电图检测中显示出较低水平的大脑活跃度。
这表明,将认知任务外包给人工智能可能会抑制我们自身的神经运作。对于体验过AI工具的用户而言,很容易理解这些系统如何演变为助长思维惰性的学术依赖。
然而,我认为,草率地断言“人工智能阻碍学习”过于片面。本文将从四个维度深入分析人工智能在教育领域可能带来的变革,以更全面地审视这一议题。
我将阐述人工智能的独特适应性如何改造刻板的教育模式,它如何在抵制虚假信息的同时又可能传播虚假信息,AI技术依据应用场景既可能成为助力也可能成为阻力,以及最终决定AI是赋能学习还是阻碍进步的关键因素。
多数技术都要求人类去适应它们。我们需要理解其运作机制,并调整自身行为。从工业机械、商业软件到简单的温控器——它们都附带必须学习和遵循的操作指南与模式。
教育领域尤其凸显了这种动态。当学生并非以标准化初始状态进入校园时,教育的“工厂模式”如何运行?在许多方面,学校期望学生适应系统要求——准时到校、课前削好铅笔、教师讲话时保持安静、发言前先举手。这些社会规范是我们对学生的期待,以确保标准化教育得以实施。但任何管理过六岁孩童的人都清楚,一个班级的学生充满人性复杂性,永远不会完全符合系统预期。因此,教师充当了灵活的中介层。他们调整标准化体系,使其适用于真实学生。若缺乏这种人类适应性,系统便会崩溃。
制造业也存在类似情况。埃德加·沙因指出,工程师旨在设计能自主运行的系统。但操作员明白,系统永远不会完美运作。他们的职责——通常也是职业认同感——在于拥有专业知识和应变能力,在意外发生时进行调整。面对僵化体系,人类的适应力确保一切正常运行。
那么,这与人工智能有何关联?AI打破了人类历史上大多数机器和系统的设计模式。它不仅仅是遵循算法并期望我们学习如何使用;它会适应我们,正如教师或工厂操作员适应现实情况以弥补标准化系统的不足。
你无需编程背景或操作手册。只需与它对话(我常直接使用语音转文字功能,像与人交流一样解释问题)。杂乱自然的人类语言——这种古老的交流界面,我们的大脑从婴幼期就能掌握——已成为大型语言模型的交互方式。换言之,当今AI模型的卓越之处在于它们能使用我们的界面,而非要求我们学习它们的界面。
对我而言,早期关于“提示工程”的炒作一直缺乏说服力。它假设成功运用AI需要成为懂得AI语言的“AI沟通专家”。但根据我的经验,与AI有效合作,更像是成为清晰的沟通者,如同优秀教师或经理,而非掌握特殊对话技巧。
现在设想:如果AI成为各种系统间新的柔性中介层,会如何?它不仅是工具,更是自适应桥梁,使其他僵化的标准化系统协同工作。如果AI能让互操作性几乎无缝——适应每个系统和环境,而非强迫人类适应——那将是革命性的。不难想象,这种转变可能远超技术范畴,影响我们组织架构、服务提供和学习体验设计的方式。
考虑三个具体实例,看看这将如何改变教育。首先,现行体系过度依赖书面文字作为评估学习成果的媒介。明确而言,写作是学生必须培养的关键技能,有助于他们在校外世界立足。但与此同时,学校对写作作为展示学习成果的依赖,给学习障碍者、神经多样性学习者或英语学习者造成障碍——他们可能知识渊博,却难以通过英语写作表达。AI可充当自适应层,让学生通过语音、视觉展示甚至母语呈现知识并获得反馈,同时确保对其真实理解的严格评估。
其次,显而易见,学生学习进度不一——但我们强制统一进度,因为当教师独自负责讲授和反馈时,个性化学习很快变得难以管理。因此,每个人在每个内容单元花费相同周数,然后集体进入下一课程或年级,无论个人准备情况。在此,AI可再次作为自适应层,追踪学生个人学习进度,根据其需求提供定制化反馈、讲解和练习机会。
第三,学校成功不仅关乎学业,更在于驾驭体系本身。学生需要知道如何向教师求助、追踪试镜面试通知、填写选课表格、争取心仪课程。这些驾驭技能对大学申请和经济援助尤为重要。但存在严重不平等,因为这些知识多来自社会资本——拥有了解体系运作的父母或同伴。AI可充当自适应教练,引导学生走出官僚迷宫,而非指望他们自行摸索或依赖家庭关系解读体系,从而创造公平竞争环境。
与我交流过的大多数人对这个副标题中的想法表示怀疑——这可以理解。
我们都见过这类新闻:深度伪造、虚假事实、制造点击诱饵的机器人。许多人认为AI只会加剧虚假信息,而非解决它。另一些人担心,过度依赖AI可能削弱批判性思维,使人更被动,将思考外包而非提升。
但如果故事不止于此呢?
这给了我希望:AI识别虚假信息和大规模揭示真相的能力,可能是其最强大且被低估的潜力之一。
首先,思考错误信息为何破坏力巨大。这不仅因为人们相信错误事实,更因为他们对真实构建了截然不同的思维模式。分歧导致失去共同推理基础。一旦发生,对话便破裂。事实不再重要,因为事实无法共享。
传统上,打击错误信息需要人类判断和艰辛研究,既耗时又规模有限。但AI改变了这一切。
与任何个体不同,大型语言模型(LLM)可从海量事实、概念和语境知识中汲取信息。LLM从训练数据获取的知识远超个人终身所学。当结合网络浏览器或引文数据库等工具时,它们能调查论断、核实来源、解释差异。
想象阅读社交媒体帖子时,AI提供侧边栏摘要,标记误导性统计数据,补充缺失背景,链接可靠来源。无需数月等待,不被评论淹没,而是在内容出现时即时呈现。实现此目标的技术早已存在。
当然,AI作为事实核查员并非完美。大型语言模型生成文本时,并非基于精确事实查询,而是根据训练结果对正确答案进行概率性猜测,这些猜测有时错误。(如同人类专家,AI也会利用自身专业知识生成答案,有时出错。)AI也存在自身盲点和偏见,源自训练数据继承的偏差。
但从多方面看,AI的幻觉和偏见,比互联网上数百万人类大脑产生的虚假陈述和偏见更易识别和处理。AI的决策规则可被核查,输出可被测试,幻觉倾向可被抑制。这使其成为提升信任的有望基础,至少相较当前混乱分散的错误信息环境而言。
这并非意味AI将消除错误信息。但它能显著提高准确信息的可及性,减少验证真相的摩擦。当然,多数平台尚未内置AI事实核查功能,即便有,此法也引发严重担忧。我们信任这些公司优先的信息来源吗?他们系统遵循的规则?指导工具设计的激励措施?但超越信任问题,存在更深层忧虑:当AI被动标记错误或提供更正时,它可能将用户变为“答案”被动接受者,而非主动求索真相者。学习需要努力。这不仅意味着拥有正确信息——更需提出好问题、批判性思考和审慎判断。因此,我认为教导年轻人使用AI最关键之一,是将其作为工具来审视遇到的信息和想法——无论在线还是来自AI本身。正如我们教学生校对写作或检查数学,我们应帮他们养成使用AI激发探究思维的习惯——质疑主张、探索观点、深入挖掘真相。
然而,这只是故事一面。尽管AI在事实核查上可能强大,它也不可避免被用于制作深度伪造视频和传播 persuasive谎言。
人工智能并非非黑即白,而是兼具利弊。教育的未来取决于我们如何驾驭它。
围绕AI的许多评论立场极端:它要么是推动人类进步的强大引擎,要么是对人类的可怕威胁。这些鲜明观点构成吸引眼球的标题和 persuasive论点。但现实是混乱的。大多数变革性创新——包括AI——都利弊共存。
历史充满科技在深刻推动社会进步的同时带来新风险和挑战的例子。工业革命使大规模生产商品成为可能,极大改善数十亿人生活质量。但也加剧污染和环境恶化。互联网连接社区,开放知识获取,加速科学进步,却也助长错误信息、成瘾和分裂。核能可为城市供电,也能摧毁城市。
AI也不例外。它会成就惊人壮举,也会造成可怕后果。问题不在于AI对人类是好是坏,而在于用户和开发者的选择如何决定其轨迹。
由于我从事教育工作,我一直特别关注AI对学习的影响。AI能让学习更引人入胜、更个性化、更易上手。它能以多种方式解释概念,根据你的水平调整,提供反馈,生成练习题,或总结要点。这就像拥有随时待命的助教,加速你的学习。
但它也可能 shortcut 学习过程。既然AI能直接给答案,为何费力解决难题?既然能让AI写论文,为何费力思考观点?即使学生真有学习意愿,AI也能制造理解假象,而学生实际掌握肤浅。
这种双刃剑动态不仅限于学习,在职场上同样明显。AI已让个人更容易承担以往需要团队协作的创业项目。初创公司不再需要聘请设计师设计标识,营销人员打造品牌资产,或编辑撰写新闻稿。在不久的将来,你甚至可能无需编程技能就能开发软件产品。AI能帮助个人以更少障碍将想法付诸行动。对于那些对创业感到 overwhelming的人,AI能 step-by-step 指导他们。我们或许正处AI开启的创业浪潮前沿。
然而,与此同时,AI正在取代许多人们过去赖以开启职业生涯的入门级知识工作。诸如起草备忘录、进行基础研究或管理电子表格等曾由初级员工完成的任务,如今越来越多可由AI处理。这种转变使得应届毕业生更难进入职场并在工作中提升技能。
缓解这些挑战的一种方法是构建旨在支持学习而非规避学习AI工具。例如,可汗学院的Khanmigo帮助学生批判性思考所学内容,而非直接给答案。它鼓励创意,提供反馈,促进更深理解——就像一位 thoughtful教练,而非捷径。但AI带来的更深层问题是,我们的教育体系常将学习视为达到目的的手段——一系列获取文凭路上需跨越的障碍。为真正让学生为AI塑造的世界做好准备,我们需要重新思考此法。首先,我们不应只教授AI已擅长的技能。其次,我们应让学习更聚焦追求学生真正 care 的目标——那些需要好奇心、批判性思维和毅力的目标。我们不应训练学生遵循既定道路,而应帮他们学习规划自己的道路。在职业道路愈难预测的世界里,这尤为重要,而机遇常需要我们与企业家精神相联的那种主动性和适应性。
简言之,AI只是最新的科技双刃剑。它既能支持学习,也能阻碍学习。它能促进创业,也能取代入门级工作。关键不在于断言AI是好是坏,而是要认识到它兼具好坏,然后有意识地塑造其发展轨迹。
这一轨迹并非仅由技术能力决定。谁来为AI付费,以及付费目的,将决定它最终发展成为支持人类学习、专业知识和联系,还是利用我们注意力、夺走我们工作、取代我们人际关系。
当人们讨论AI的机遇和风险时,焦点常集中在技术能力上——它可能做什么,可能取代什么,未来带来哪些突破。但仅关注技术作用——无论好坏——并不全面。技术背后的商业模式影响其发展方向。
例如,当广告商成为付费客户时(如许多社交媒体平台),产品往往演变为最大化用户参与度和平台停留时间。这便是我们最终陷入“末日滚动”的原因——无休止的内容流经优化以吸引我们注意力,以便公司展示更多广告,而这常以牺牲我们身心健康为代价。
这种激励机制在AI领域尤其危险。如果将超级智能的说服工具与垄断用户注意力的动机结合,结果将极具操纵性。这也引发了我同事朱莉娅·弗里兰·费舍尔的担忧:如果AI系统开始取代人际交往,会发生什么?如果AI成为你寻求友谊或情感支持的首选,它可能挤占你生活中的真实人际关系。
AI最终是否会破坏人际关系,很大程度上取决于其盈利模式。旨在吸引你注意力并让你不断回头AI,可能会试图成为你最好朋友。但旨在帮你解决现实世界问题AI,行为方式会不同。这种AI可能会说:“嘿,我们聊了一会儿——为什么不尝试讨论过的内容呢?”或“听起来是时候休息一下,和你关心的人联系了。”
一些大型AI公司的决定似乎令人鼓舞。OpenAI首席执行官Sam Altman表示,采用广告将是最后手段。“我不是说OpenAI永远不会考虑广告,但我总体上不喜欢广告,而且我认为广告加AI对我来说有点特别令人不安。”相反,大多数像OpenAI和Anthropic这样的AI开发商转向了用户订阅,这种激励机制不易致瘾。OpenAI也在探索以AI为中心的硬件商业模式——这似乎是另一个对用户福祉更有希望的实验。
至此,我们一直在讨论随着企业为个人消费者开发技术,AI将走向何方,但还有另一角度值得思考:AI如何应用于职场。
人们最大担忧之一是,AI将被用来取代人类,这不一定因为它能更好完成工作,而是因为它更便宜。而这一决定通常取决于激励机制。目前,企业为每位员工支付高额工资税和福利,但投资软件和机器时可获得税收减免。因此,从纯粹财务视角,用技术取代人力似乎明智。在《曾经和未来的工作者》一书中,奥伦·卡斯探讨了此问题,并建议改变模式——增加对资本征税,减少对劳动力征税——这样企业就不会为省钱而被迫裁员。这种改变不会阻止企业使用AI,但会鼓励企业以补充而非取代人类员工的方式部署AI。
目前,尽管AI公司缺乏可持续商业模式,但它们却受投资者资金支撑。投资者愿为目前收入微薄甚至无收入的公司提供资金,因为他们看到未来巨额利润潜力。但这种投资者模式也给公司带来快速增长和尽可能多获取用户的压力,因为规模常是风险投资支持科技公司成功的关键指标。这种快速增长动力可能促使公司优先考虑用户获取,而非深思熟虑的产品开发,这可能以牺牲安全、道德或长期后果为代价。
鉴于这些现实,家长和教育工作者能做什么?首先,他们可成为精明消费者。市场上有许多AI工具,他们的选择至关重要。与其简单选择最有趣或最实用工具,不如支持那些商业模式和设计选择体现对用户福祉和社会影响关注的公司。
其次,他们可发声。记者、教育工作者和家长都有平台——无论正式还是非正式——来提出问题、分享担忧,并表达他们对AI公司的期望。公众对话有助于塑造媒体叙事,进而影响市场力量和政策决策。
第三,他们可倡导智能、平衡的监管。正如我上文所述,AI监管不应呈现非好即坏局面。合理护栏可确保AI开发和使用服务于公众利益。正如公司价值网络中的客户和投资者影响其优先事项,政策制定者作为价值网络参与者,也可在市场激励不足时,通过制定促进普遍福利的智能政策,发挥建设性作用。
总而言之,一家公司的价值网络——它的投资者是谁,谁为其产品付费,以及他们使用这些产品的目的——决定了公司优化的目标。在AI领域,这种选择不仅可能影响技术发展方向,还可能影响它如何影响我们的生活、人际关系和社会。
本文由主机测评网于2025-12-28发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20251213356.html