当特朗普启动「创世纪」项目之际,全美上下正倾力投入一场名为「AI曼哈顿计划」的豪赌!
白宫正式将其命名为——美国创世纪计划(US Genesis Mission):旨在让人工智能直接介入科学假设的提出、实验设计以及数据分析,借助「AI科研人员」的力量,推动科研创新的步伐。
在创世纪计划公布的次日——
美国能源部科学事务副部长、同时兼任「创世纪计划」项目主任的Darío Gil,与斯坦福大学教授Kathryn A. Moler合作,在权威期刊《科学》(Science)上发表了社论,其核心观点凝练为一句话:
借助人工智能加速科学研究,理应成为整个科研界协同推进的一项运动。
他们着重指出两大要点:
卓越的科研工作,起源于充分的交流与高质量的提问;
人工智能的真正价值,远不止于撰写论文摘要,而在于产出可复现、可验证的研究成果。
继推出《AI行动计划》之后,创世纪计划成为美国祭出的又一重磅举措。
此次,美国的野心更为宏大——直接将其比肩二战期间的核武器研发工程——「曼哈顿计划」。
这场「AI曼哈顿计划」,将动员全美科研与工业体系的全部力量:
召集国家实验室的顶尖科研人才;
携手创新型企业和美国一流高校;
整合现有的科研基础设施、数据存储库及生产设施;
甚至动用国家安全体系中的计算资源与数据储备。
白宫设定的目标非常明确:
培育「科学基础模型」、构建科研智能体,
让人工智能深度融入科研全流程,检验新颖假设、实现研究步骤自动化,
以指数级的速度提升科学发现的成功率。
在《科学》社论中,项目负责人描绘了发展路线:若能将此类人工智能嵌入科研全流程——涵盖「提出假设 → 设计实验 → 采集数据 → 分析结果」——科研生产力将有望实现数量级的飞跃。
但他们同时发出警示:
倘若缺乏可解释性,人工智能可能加剧既有的偏见;
如果责任边界不清,所谓的「AI科学家」或许会沦为危险的「黑箱」。
在白宫的战略蓝图中,将人工智能深度嵌入科研工作流,被视为一个国家级生产力课题。
核心目标只有一项:
让每一位科研人员都能拥有一位能力超群的「AI伙伴」。
本周,白宫高调宣布启动「美国创世纪计划」(US Genesis Mission),立即引发了对如何实现这一愿景的深度讨论。
然而,科研的成功离不开正确的科学问题。
首先,需要精准锁定那些可能带来颠覆性突破的关键难题,以此推动AI方法的进化以及「人机协作」模式的革新,进而广泛加速科学研究的进程。
审视前沿领域的动态:
在核聚变能源领域,这代表着利用人工智能来「驾驭」比太阳核心温度更高的等离子体——通过精确预测其不稳定性,实现毫秒级别的实时调控;
在分子与材料科学领域,这意味着研发能够预测动力学和功能特性的模型,从而开辟全新的探索路径;
而在量子科技前沿,这要求加速算法开发,用以模拟自然界的奥秘,并攻克那些当前看似无解的难题。
换言之:先将最棘手的难题挑出,再让人工智能去攻克。
研究的成功,还依赖于为AI模型提供「燃料」的数据。
以蛋白质数据库(Protein Data Bank)为例,正是其提供的关键数据集,铸就了当前蛋白质结构预测的辉煌成就。
蛋白质数据银行(PDB)作为生物医学领域首个开放获取的数字数据资源,现已成为全球范围内支撑科学发现的核心实验数据平台。其中,美国的RCSB蛋白质数据库负责归档大型生物分子(蛋白质、DNA和RNA)的三维结构数据。这些数据是基础生物学、健康医疗、能源及生物技术等领域研究与教育的重要基础。
这一成就的背后,凝聚了数十年的持续投入与积累:既需要像先进光源这样的实验工具来生成数据,也需要开放获取的存储库来共享信息。
大型科学设施通过提供丰富且结构相对规范的数据,奠定了坚实的基础,例如
「薇拉·鲁宾天文台」(Vera C. Rubin Observatory)、
「先进光子源」(Advanced 、PhotonSource )、
「大型强子对撞机」(Large Hadron Collider)
然而问题在于——
真实的科研世界,远不止这些「纯净」的大科学装置数据。
在更广泛的研发体系中,数据往往呈现出如下特点:
散布于不同实验室、企业及部门之间;
格式多样,标准不统一;
元数据缺失,甚至难以追溯「这是什么」「如何得来」。
这便催生了一个个数据孤岛。对人工智能而言,这些数据几乎「不可用」。
要将这些孤立的数据孤岛转变为统一的创新引擎,需要科研人员、美国国家机构以及各利益相关方携手合作:
既要清洗整理现有的存量数据,使之能够为人工智能所利用;
更要建立统一标准,确保未来的数据从生成之初就具备「AI就绪」(AI ready)的特性,并易于访问。
未来的科研人员,亟需一种集成式的计算基础设施:
实现E级(Exascale)高性能计算、专用人工智能、量子超级计算机的互联互通;
融合安全网络、按需使用的云端算力以及海量数据存储;
更进一步,连接传感器、控制器等边缘设备,并嵌入专用人工智能算法,实现现场实验数据的实时采集与精准控制。
人工智能与科学的融合,远不止于通用大语言模型。
接下来更为关键的是一类混合模型——
将「神经网络的学习能力」与「传统物理模拟的精确预测」整合于同一系统中。
其核心在于「辅助」而非「替代」。
这些新型模型将成为经典科学模型的得力助手,并在流程中设置「检查点」,利用已知物理模型和真实数据,实时校验并修正人工智能生成的结果。
当这种混合模型与「科学智能体」(Scientific Agents)相结合时,奇迹便会出现:
科学发现的周期将显著缩短,每一次人工智能分析所产生的数据,都会融入一个自我进化的增强循环之中。
所谓科学智能体,是指在人类指令下,能够自动协调文献检索、假设生成、实验设计、数据分析等环节的人工智能系统。
要使人工智能真正成为科学家的「得力伙伴」,它必须能够产出经得起检验、可复现的成果。
所有数据、方法、代码及产出,都应当公开透明,接受公众监督。
这要求研究人员、科研机构、学术期刊乃至资助机构进行全行业动员,共同促进开源模型、标准化工具以及「即取即用」数据的普及。
与此相呼应,同日《自然》杂志发表的社论指出:
将大模型的统计学习与符号推理、规划模块相结合,或许正是迈向「接近人类水平智能」的关键途径之一。
数十年前,符号系统曾主导人工智能领域。
然而,到2010年代初,它们被更具灵活性的神经网络超越。这些人工智能模型擅长从海量数据中学习,构成了大语言模型(LLMs)以及ChatGPT等应用的基础。
但如今,计算机科学界正积极推动这种「新老技术」的更优化、更大胆的融合。
「神经符号AI」(Neurosymbolic AI)已成为当前业界最炙手可热的术语。
马里兰大学帕克分校(University of Maryland, College Park)的计算机科学家Brandon Colelough,追踪了这一概念在学术论文中的迅速崛起。
数据显示,人们对神经符号AI的兴趣在2021年前后急剧上升,且至今未见消退迹象。
许多研究者松了一口气:
这意味着,神经网络在人工智能研究中的「不健康垄断」正逐渐被打破。
这两种策略的深度融合,或许将通向通用人工智能(AGI):即像人类一样,人工智能能够进行推理,并将知识从一种情境迁移推广到另一种情境。
Colelough指出,这种技术对军事或医疗决策等高风险管理场景也可能大有裨益。他解释,由于符号人工智能具有透明性且易于人类理解,它避免了神经网络难以令人信任的「黑箱综合症」(Black box syndrome)。
神经符号AI已有若干成功案例,例如谷歌DeepMind的AlphaGeometry。
然而,如何找到将神经网络与符号AI融合为一个通用系统的最佳方法,仍然是一个待解的难题。
「你实际上是在打造某种双头怪兽,」同样来自马里兰大学的计算机科学家William Regli表示。
两大顶级期刊在同一时间窗口集中发声,相当于为「人工智能参与科学发现」的路线图正式背书,也为公众讨论「人类与人工智能在知识生产中的分工」提供了一个高热度的话题平台。
Darío Gil等人认为,人工智能加速科学的引擎,需要公共与私人资本共同注入动力——
当下正是探索新路径的最佳时机:联合投资计算基础设施、构建数据共享框架、针对可能催生人工智能新范式的难题开展协同攻关。
这一战略的价值,绝不仅限于科学界,它将辐射至整个经济体。
目前,研发投入占美国GDP的3.5%,这一强大的经济引擎所带来的回报远超投入成本。
通过赋能跨学科、跨机构的科研人员,人工智能将全面加速科学与工程的发展。它将显著提升科研的生产力与影响力,激发创新,驱动经济增长,最终造福人类生活。
这,便是美国在全新发现时代许下的终极承诺。
在同一时间窗口,《科学》和《自然》同时发表社论,共同盖下两个印章:
人工智能参与科学发现,已不再是边缘议题,而是被纳入国家级议程。
围绕人类与人工智能在知识生产中的分工,公共讨论的门槛被正式提升。
未来,我们将越来越频繁地听到人工智能与人类在科学发现中互动所引发的问题。
可以确信的是:
当白宫将「人工智能科学家」作为国家战略推进时,全球科研与产业的竞争也将随之加速。
参考资料:
https://www.science.org/doi/10.1126/science.aee0605
https://www.nature.com/articles/d41586-025-03856-1
本文由主机测评网于2026-02-21发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260226425.html