年仅23岁,Leopold Aschenbrenner遭遇职业生涯转折点——被OpenAI解雇,但他凭借对AI行业的内部洞察,创立了规模达15亿美元的对冲基金,今年该基金回报率惊人地超越华尔街700%。
如此充满戏剧性的人生历程,堪称一场刺激而传奇的冒险。
最近,这位名叫Leopold Aschenbrenner的年轻人因这段非凡经历在社交媒体上爆火。《华尔街日报》等媒体广泛报道了他迅速崛起的逆袭故事。
Aschenbrenner原是OpenAI知名“超级对齐”团队成员,被视为前首席科学家Ilya Sutskever的嫡系,后因涉嫌泄露公司内部信息而被OpenAI开除。
被解雇仅两个月后,他发布了一篇165页的深度分析文章《Situational Awareness: The Decade Ahead》,在硅谷引发广泛热议。
随后,他果断投身投资领域,创建了名为Situational Awareness的对冲基金。
尽管缺乏专业投资背景,但他的策略直接而有效:重仓押注可能受益于AI技术发展的行业,如半导体、基础设施和电力公司,以及Anthropic等新兴AI企业,同时做空可能被淘汰的行业以平衡收益。
这一策略使该基金迅速吸引大量资本,资金规模在短时间内突破15亿美元。
其背后获得众多大佬支持,包括支付公司Stripe的创始人Patrick和John Collison兄弟,Meta的AI团队领导Daniel Gross和Nat Friedman,以及著名投资者Graham Duncan。
此外,Aschenbrenner还聘用了曾在彼得・蒂尔宏观对冲基金工作的Carl Shulman,担任基金研究总监。
许多投资者对该基金表现出高度信任,愿意将资金锁定数年。
据《华尔街日报》报道,该基金在今年上半年实现47%的回报率,远超同期标普500指数6%和技术对冲基金指数7%的表现,成为市场中的一匹耀眼黑马。
Aschenbrenner去年在接受播客主持人Dwarkesh Patel采访时表示:“我们比纽约那些资金管理者拥有更强的情境意识,投资表现必将出色。”
Leopold Aschenbrenner是谁?
Aschenbrenner是一名00后,出生于德国,作为“天才少年”15岁进入哥伦比亚大学学习,19岁以优异成绩毕业,获得数学、统计学和经济学三个学位,成为该校杰出毕业生。
他的GPA极高,据称曾是年级第一。
毕业后,他在牛津大学全球优先事项研究所研究长期经济增长,并参与有效利他主义运动。他曾在FTX Future Fund工作,专注于AI安全和全球风险管理。
2023年,Aschenbrenner加入OpenAI,成为“超级对齐”团队成员,致力于确保未来超级智能AI与人类价值观对齐。他参与的工作包括广受关注的《Weak-to-Strong Generalization: Eliciting Strong Capabilities With Weak Supervision》。
在OpenAI工作期间,他发现公司可能存在将美国AI机密泄露给外国对手的安全漏洞。2024年4月,他将担忧写成备忘录分享给董事会,但正值OpenAI内部权力斗争,随后以泄密为由被解雇。
故事发展至此,或许只是OpenAI去年宫斗混乱的一角,但Leopold Aschenbrenner显然非同寻常。
《态势感知:未来十年》
被OpenAI赶走后,Leopold Aschenbrenner更加无所拘束,在一篇165页的论文《Situational Awareness: The Decade Ahead》中,深入阐述了对AI发展的见解,在硅谷被广泛传阅。
他的论点简洁而具革命性:“全世界正处于人类历史上最重大的变革之中,而我们却浑然不觉。目前,可能仅有几百人,大多集中在旧金山和AI实验室,真正理解AI领域的进展。”
文章链接:https://situational-awareness.ai/
在文章中,作者探讨了AI能力的指数级增长,尤其是从GPT-2到GPT-4的演进过程。Leopold Aschenbrenner强调,这是一个快速进步的时代,AI已从执行基础任务发展到拥有复杂、类人的理解和语言生成能力。
“数量级”(Orders of Magnitude,即OOM)的概念至关重要。Aschenbrenner使用OOM来评估AI能力、算力和数据消耗的进步,OOM指指标的十倍增长。在计算能力和数据可扩展性上,从GPT-2到GPT-4的跨越代表了多个OOM。
这些进步背后有三个主要因素——扩展定律、算法创新及海量数据集的使用,其增长接近指数级。扩展定律表明,当使用更大规模的数据和算力训练时,模型性能会可靠提升。
算法创新同样关键。训练方法、优化策略和底层架构的进步提升了AI模型的效能和效率,使模型能更好地利用持续增长的算力和数据。
Leopold Aschenbrenner强调了到2027年实现通用人工智能的可能路径。他认为,在业界持续投入算力、提升算法效率的前提下,AI系统或在众多领域媲美甚至超越人类智力。
通用人工智能的出现将产生深远影响。这类系统能独立解决复杂问题,以人类专家的方式创新和执行工作,赋予AI自我进化潜力。
AGI发展将变革各行各业,提升生产力和效率,但也带来失业、AI伦理等问题,需要强健的治理结构来控制自主系统风险。
Aschenbrenner在文中探讨了超级智能概念,以及从当前AI快速过渡到远超人类认知能力的系统的可能性。核心论点是,驱动AI进化的原理可能产生反馈回路,一旦达到人类水平,智力将爆发式增长。根据“智能爆炸”概念,AGI或自行开发算法和技能,比人类更快地自我完善,导致智力指数级增长。
他对影响这种快速升级的变量进行了全面分析。AGI系统凭借无与伦比的速度和处理海量数据的能力,能识别远超人类理解的模式和洞察。
此外,AGI强调研究并行化。与人类不同,AGI系统可同时进行多项测试,并行改进其设计和性能。
因此,这些系统将比任何人更强大,能开发新技术,解决复杂科技难题,甚至以当今难以想象的方式管理物理系统。超级智能可能带来材料科学、能源和健康等领域的进步,显著提升经济生产和人类福祉。同时,控制是核心问题,一旦系统超越人类智力,难确保其行为符合人类价值观。
构建AGI所需计算基础设施需大规模工业动员,不仅包括纯粹算力,还涉及设备效率、能源利用和信息处理能力的提升。
Aschenbrenner认为,随着AGI临近,国家安全机构将在这些技术的创造和管理中发挥更大作用。他将通用人工智能的战略意义与阿波罗计划、曼哈顿计划相提并论。
论文发布一年多来,AI技术飞速演进,许多预测正逐步验证。最直接的体现是科技巨头投入重金建设前所未有的大规模AI算力基础设施。
那么,AGI会如Aschenbrenner预测在2027年到来吗?或许通过他的基金收益,我们能间接窥见端倪。
参考链接:
https://www.wsj.com/finance/investing/billions-flow-to-new-hedge-funds-focused-on-ai-related-bets-48d97f41
https://situational-awareness.ai/
https://x.com/renckorzay/status/1961480306328019407
本文由主机测评网于2025-12-27发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20251213110.html