
在2015年,IBM将其顶尖超级计算机系统Watson部署到医疗领域,期望它成为医生的智能助手。
Watson掌握了乳腺癌、肺癌、直肠癌等13种癌症的大量诊疗知识,能在数秒内读取患者完整病历,经过多轮分析后,输出内容详实、高质量的治疗方案。这听起来很美好,但几年后,众多医疗合作伙伴退出了项目,Watson Health也被IBM出售。
问题根源并非算法不够先进,而是它未能理解一个核心事实:医生不是来执行命令的。
类似场景不断重现。某便利店创始人坚信“人的参与会降低效率”,投入一年时间,用AI中央大脑接管了便利店从选址、订货、陈列到日常运营的所有决策。例如,学校旁的一家店,下午3点孩子即将放学,系统判定零食需放到最显眼位置。于是,店员收到指令,必须在3点05分前将零食摆到门口,否则扣钱。结果呢?许多员工感到缺乏成就感,认为自己只是工具,这种不快乐传递给消费者,让他们感受不到服务温度。不久后,便利店便流失了大量顾客。
技术的指数级飞跃,与人类认知的线性增长之间,存在一道巨大鸿沟。
这正是复旦大学管理学院卢向华教授在新书《AI革命:人机融合共生的五大法则》中探讨的核心议题:当AI日益强大,人类该如何应对?企业又该如何管理?为此,她提出了人机融合共生的五大法则。
人类天生不信任黑箱。
学术上有著名的“门卫问题”:夜店门卫可以用任何理由拒绝你,例如“你不该穿帆布鞋”,但真实原因可能是肤色。你无法验证,因为从门外看不到店内是否有人穿帆布鞋。
算法也是如此。它可以轻易隐藏真实决策依据,导致用户本能抗拒。
如何破解?三个关键词:拟人化、透明性、可靠性。
拟人化很好理解。当AI客服能识别你的情绪、用恰当语调回应,你会觉得它不再冰冷。研究显示,拟人化的AI更容易获得信任,甚至在服务失败时,用户也更愿意原谅。
但这里存在陷阱:恐怖谷效应。当AI太像人,用户反而会产生恐惧和不安。更麻烦的是,高度拟人化的AI会让用户产生不切实际的期望——你长得像人,那应该像人一样聪明吧?一旦期望落空,失望会加倍。
所以正确做法是:根据场景调整拟人化程度。处理简单查询的客服,低拟人化就够了;涉及复杂决策的金融顾问,需要高智能配合高拟人化;而涉及敏感信息的健康咨询,反而应该“智能但不拟人”——用户更愿意对明显是机器的对象袒露隐私,因为它不会嘲笑。
透明性同样重要,但也不是越透明越好。有研究发现,当企业向员工披露AI绩效评分的使用方式后,被AI打低分的员工反而更不愿意努力——他们把低分当成了锚点。
可靠性则是底线。所有的拟人化和透明性都是锦上添花,只有可靠性才能决定用户是否会长期使用。谷歌的AI搜索功能上线后,有用户问怎么把芝士粘在披萨上,AI建议“加点胶水”——因为它从Reddit上学到了一个11年前的玩笑。结果这个功能的使用意愿暴跌到7%。
用户对AI的态度,往往在两个极端之间摇摆。
一端是抗拒。一个有趣实验:研究者设计了两组客服场景,服务人员完全相同,但一组告诉用户“这是真人”,另一组说“这是数字人”。结果呢?被标为数字人的那组,满意度低了10—15个百分点。即使背后也是真人在服务,用户就是不喜欢。
这叫“物种歧视”。人类对AI天然存在偏见,哪怕它表现得更客观、更公平。
另一端是过度依赖。2018年3月,美国亚利桑那州一辆配有安全员的Uber自动驾驶汽车撞死了一位骑自行车的人。警方随后分析发现,如果安全员一直专注道路,本可以在受害者前方12.8米处停下来。但他没有,因为他觉得有AI在,不会出大问题,自己可以完全放松。
这种现象叫“AI惰化”。当机器越来越能干,人就越来越想偷懒。GPS让人丧失方向感,计算器让人忘记心算,ChatGPT正在让创意变得同质化。有研究发现,使用GPT的用户在前五天创意能力显著提升,但到第七天关闭GPT后,创意水平直接回落到原点——而且同质化的倾向还保留了下来。
企业需要主动管理这两种极端。对于抗拒,可以增加技术的社交属性,让AI不只是工具,而是“伙伴”;对于惰化,可以通过延迟展示AI建议、要求用户先提交自己的判断等方式,强制用户动脑。
有个医学影像诊断的实验很有意思:当医生被要求在看到AI建议之前先提交自己的初步判断时,他们与AI的盲从率显著下降,决策质量反而提高了。
回到开头那个便利店的故事。它的对立面是什么?
一家大药房。他们也用AI,但用法不同。药师输入病症后,AI推荐主药、辅药和关联用药,药师可以采纳,也可以自己搜索。最后统计发现:完全依赖AI的订单、完全靠药师自主搜索的订单、人机协作的订单,比例大约是20%、37%、43%。
哪组效果最好?人机协作组。推荐药品数最多,消费者接受度也最高。
这说明什么?AI的价值不会自动实现。它需要人来激活。
关键是分工。任务可计算性高的,让AI主导;任务主观性强、需要同理心的,让人主导;复杂任务则需要人机协同。比如电话营销,AI负责打电话、收集信息、筛选意向客户,人类销售负责深度沟通、促成交易。研究发现,这种分工能显著提升人类销售的创造力。
更进一步,人和AI还需要互相学习。AI通过机器学习不断提升,人通过与AI协作不断成长,形成螺旋上升的循环。清华大学的研究者提出了“AI力”的概念——个体在AI时代所需的能力框架。好消息是,这种能力是可以培训的。
AI不只改变个人,也在重塑组织。
世界经济论坛预测,五年内AI将使工作岗位净减少1400万个,但长期来看,会创造约12%的新增岗位。关键是:被取代的人,并不能轻易获得新岗位。
这意味着企业需要重新设计岗位、重新培训员工、重新分配责任。
尤其是责任。当AI参与决策,出了问题谁负责?目前法律不承认AI是责任主体,但企业不能因此逃避管理责任。有些平台直接在界面上写“该结果由AI自动生成,仅供参考”,这种做法短期规避了风险,长期却在摧毁用户对AI的信任。
更好的做法是:让AI展现“愿意负责”的姿态。卢老师自己的研究就发现,当AI医生主动指出用户的医疗常识错误时,用户反而觉得它更负责任、更愿意使用。这种“主人翁精神”的行为设计,比免责声明有效得多。
算法偏见无处不在。亚马逊的招聘算法会自动降低包含“女子”字样简历的权重;ImageNet数据库里,“失败者”“犯罪分子”这样的标签,反映的是标注者的偏见;大数据杀熟,则是算法在“合法”地歧视老用户。
问题出在哪?训练数据有偏差,算法设计有漏洞,优化目标有缺陷。
解决方案是多管齐下。比如,在技术上,改进数据采集、增强算法透明性、引入公平性约束;在企业层面,建立AI伦理准则、设立审查委员会;在社会层面,完善法律法规、加强行业自律。
这不仅是技术问题,更是价值观问题。
正如刘易斯·芒福德在《技术与文明》中所言:“所有伟大的物质发明背后,不仅是技术的演进,更有思想的转变。”
每一次技术革命,都伴随着人与技术的博弈。蒸汽机时代如此,互联网时代如此,AI时代也不例外。但博弈的终点,从来不是谁取代谁,而是如何共生。
这本书提供的五大法则——交互能力优化、用户行为管理、人机互补增强、组织策略适配、社会公平保障——不是让你对抗AI,而是让你学会如何与AI共舞。毕竟,AI的价值,最终要靠人来实现。
本文由主机测评网于2026-02-03发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260222680.html