阅读视图

《麻省理工科技评论》年度AI洞察:10个关键词理解正在发生的AI趋势

(来源:麻省理工科技评论)

在嘈杂喧嚣的 AI 世界里,什么才是真正值得关注的?《麻省理工科技评论》的记者和编辑花了多年时间思考这个问题,追踪 AI 的进展,描绘下一步走向。现在,我们第一次把答案浓缩成了一份清单。

受我们每年评选的“十大突破性技术”启发,这是一份全新的盘点:那些正在推动进步或改变权力格局的 AI 大趋势、大方向和新突破——它们定义着今天,也将塑造明天的可能性。

人形机器人数据

Humanoid Data

就像我们说的话和写的字变成了大语言模型的训练数据一样,人类运动的视频如今也在被大规模收集,用来训练人形机器人。

这股风潮始于一个简单的类比:ChatGPT 靠海量文本学会了生成语言,那人形机器人能不能靠海量运动数据学会在真实世界里干活?问题在于,描述人类运动方式的数据集远不像互联网文本那样现成。虚拟仿真曾经是替代方案,但仿真永远无法完美还原真实世界的物理特性,训练出来的机器人一到现实中就容易摔跤。

于是企业决定走笨办法:直接收集真实世界的数据。世界各地出现了大型训练中心,工人穿着外骨骼一天擦几百次桌子;尼日利亚和印度的零工把手机绑在头上,在家拍自己做家务;美国的快递公司给员工装上传感器记录搬箱子的动作,一边研究工伤,一边为未来可能取代他们的机器人积累训练数据。

2025 年,仅人形机器人领域就吸引了 61 亿美元投资。但一段我打开微波炉的视频到底值多少钱?要多少个这样的片段才能教会一个机器人做晚饭?没有人知道这条路能不能走通。

更强大的大语言模型

LLMs+

ChatGPT 之后,下一个大事件是什么?答案可能让人意外:还是大语言模型——只不过更强、更高效、更能独立干活。

当前 LLM 的核心瓶颈在于:它们擅长回答一个问题,但让它们连续工作几天、独立攻克一个复杂的多步骤任务,就很容易跑偏或遗忘。要从“聊天助手”进化成“AI 劳动力”,LLM 需要在三个方向上突破。

第一是效率。混合专家模型(MoE)把一个大模型拆成多个小模块,每次只启动需要的那部分,大幅降低算力消耗。扩散模型和 DeepSeek 提出的“文本转图像编码”等实验性方案也在探索更便宜的计算路径。

第二是工作记忆。两年前 LLM 一次只能处理几十页文本,现在最新模型的上下文窗口已经扩展到了 100 万个 token,相当于一整摞书。但窗口越大,模型越容易在长任务中迷路。MIT CSAIL 提出的“递归 LLM”提供了一种新思路:把输入拆成小块分发给自己的多个副本,各自处理再汇总,在长任务上的可靠性远高于传统方案。

第三是成本。部署 LLM 的费用正在急速下降,一些模型的服务成本按年化计算已经降了几百倍。

LLM 没有过时,它正在脱胎换骨。

AI 诈骗

Supercharged Scams

ChatGPT 让所有人看到了生成式 AI 的威力,犯罪分子也不例外。自 2022 年以来,网络犯罪者迅速把 AI 工具整合进了自己的作业流程:用 LLM 写钓鱼邮件、用深伪技术制作以假乱真的视频、用 AI 自动扫描系统漏洞、让恶意软件变得更难检测……AI 没有从根本上改变黑客攻击的本质,但它大幅降低了入行门槛,让攻击变得更快、更便宜、更容易规模化。

这种趋势已经在全球显现。国际刑警组织警告说,东南亚的诈骗中心正在用廉价 AI 工具提速扩量;阿联酋声称挫败了一系列由 AI 辅助的攻击;Anthropic 则透露,其正在测试的模型 Mythos 在所有主流操作系统和浏览器中都发现了严重漏洞,公司因此推迟了模型发布,并联合多家科技公司成立了名为 Project Glasswing 的防御联盟。

攻击在变强,防御也在跟进。仅微软一家,每天就要用 AI 系统处理超过 100 万亿个可疑信号,一年内拦截了价值 40 亿美元的诈骗和欺诈交易。让攻击成为可能的同一种技术,也可能是未来防御的最大依仗。

眼下,基本的安全措施仍然能挡住大部分粗糙的 AI 辅助攻击。但随着公开可用的生成式 AI 能力不断增强,未来面对更精密的攻击时我们能否守住,还远没有答案。

世界模型

World Models

AI 在数字世界里已经很厉害了,但物理世界仍然是人类的地盘。写小说、写代码远比叠衣服、上街导航容易得多。许多研究者认为,要跨过这道坎,需要一种叫做“世界模型”的技术。

世界模型的核心理念是:让 AI 像人类一样在脑子里构建一个外部世界的模型,用它来预测行动的后果,再据此做决定。你知道把杯子推下桌子会摔碎,是因为你的大脑里有一个够用的物理模型。AI 目前还没有这个东西。LLM 看似能回答“杯子推下桌会怎样”,但研究表明这种“理解”很脆弱,稍微换个条件就彻底失灵。

这个方向最近突然热了起来。谷歌 DeepMind 和斯坦福教授李飞飞创办的 World Labs 都在积极推进,杨立昆从 Meta 离职创办了专注世界模型的初创公司,OpenAI 也把关闭 Sora 视频应用后释放的资源转投到了“长期世界模拟研究”上。

目前的应用还比较初级。谷歌 DeepMind 和 World Labs 在做的事情是根据文本、图像或视频生成可交互的 3D 虚拟环境,可以用在游戏设计和 VR 体验中。《宝可梦 Go》的开发商则在用玩家收集的数十亿张图片构建世界模型的雏形,目标是引导配送机器人。

真正的突破可能要等到世界模型被整合进灵活的智能体,既能理解环境,又能预判后果,还能自己做决定。到那一步,机器人才有可能真正走进物理世界。

战争中的 AI 指挥

The New War Room

把伊朗冲突称为第一场“AI 战争”并不准确。从阿富汗到乌克兰再到以色列,算法帮军方做分析、识别目标已经有好多年了。真正新的东西是:指挥官们开始向基于大语言模型的对话式 AI 寻求行动建议,而不只是让它帮忙分析情报。

过去十年,Maven 等 AI 系统干的是初级分析师的活,从海量监控画面和卫星图像中挑出有价值的信号。现在大语言模型让这些系统变得更具交互性:军方人员可以把一份潜在目标清单丢给聊天机器人,让它建议先打哪一个。Anthropic 的 Claude 已经深度嵌入美军作战流程,以至于五角大楼说要花六个月才能替换掉它。

问题是显而易见的。用过生成式 AI 的人都知道,同一个提示词每次跑出来的结果不一样,建议未必准确。正常情况下用户应该逐条核查,但在“五分钟内决定打哪个目标”的压力下,核查很可能被省略。军事专家还警告说,指挥官可能过度信赖 AI 把复杂战场压缩成一块整洁仪表盘后呈现的画面,而科技公司也可能借此对军方决策产生不当影响。

与此同时,五角大楼正计划让 AI 公司用机密军事数据训练新模型,这将带来全新的安全风险,也让硅谷与五角大楼的距离前所未有地近。

算法自动化军事中的苦差事已经有很长一段时间了,但现在生成式 AI 在作战室里有了自己的席位,指挥官们开始认真对待它的建议。它正在重塑军方共享情报、与大型科技公司合作以及做出致命决策的方式。

被武器化的“深度伪造”

Weaponized Deepfake

随着生成式 AI 的进步和工具的普及,伪造图像、视频与音频的门槛大幅降低,普通人也能制造高度逼真的虚假内容。这些内容已被广泛用于色情制作、诈骗和政治操控,不仅伤害个体,也在更深层次侵蚀社会信任。

其中,女性与边缘群体承受的影响尤为严重,大量深度伪造内容带有性剥削性质。与此同时,政治领域的滥用也在加剧,一些 AI 生成的图像和视频被用于影响公众认知,甚至误导选民。

尽管业界提出了技术防护、用户自我保护和立法监管等解决方案,但都存在明显局限:技术可以被绕过,行为难以改变,监管执行也充满不确定性。随着美国中期选举临近,而相关监管与研究力量却在削弱,深度伪造可能进一步加剧信息混乱。

当真假难辨成为常态,人们失去的或许不只是判断力,而是对现实本身的信任。

多智能体协作

Agent Orchestration

当前,生成式智能体(Generative Agent)正在摆脱只能“聊天”的功能边界,走向任务的自主执行。在此基础上,多智能体系统通过角色分工与动态调度,可协同完成编程、调研、流程管理等复杂任务,让个体工作者具备团队级产出能力。从代码协作到科研辅助,这类工具试图将知识工作模块化、流水线化,重构白领岗位的价值链条。

效率提升的背后是控制力的让渡。当智能体开始操作真实系统、调用敏感数据,模型幻觉、目标错位或提示词注入都可能引发难以追溯的连锁错误。而当前评估标准、审计机制与应急方案普遍缺位,技术落地跑在了安全基建前面。

更深层的拷问在于:当我们习惯将决策链条交给自主代理,人类是变得更高效,还是逐渐丧失对过程的理解与干预能力?信任不该是黑箱的副产品,而需建立在可解释、可回退、可问责的基础之上。

中国的开源押注

China’s Open-source Bet

中国 AI 实验室正以“开源”为杠杆,影响全球的开发者生态。不同于硅谷将核心模型封装收费,DeepSeek、阿里巴巴的千问、月之暗面的 Kimi 等机构选择直接释放模型权重,允许任何人下载、微调、本地部署。这一策略迅速赢得预算有限、追求灵活性的开发者青睐。去年中国开源模型下载量首次超越美国,阿里系模型的社区衍生版本数量已超过谷歌与 Meta 之和。

开源对于中国来说不仅是技术共享,更是地缘博弈下的务实路径:在高端芯片受限的背景下,借助全球开发者的反馈与贡献,反而能加速模型迭代。

当然,开放也伴随着压力。关于模型内容合规约束、能力蒸馏争议依然存在。但当越来越多产品建立在中国开源底座之上,AI 技术的权力结构已悄然重构:多极化不是预测,而是正在发生的现实。

人工智能科学家

Artificial Scientist

当“自主探索”成为可能,AI 在科研中的角色正悄然转变。如今的大模型已能检索文献、撰写论文、生成代码,而下一步的目标更加清晰:打造能独立提出假设、设计实验、解读结果的“人工智能科学家”。

2024 年,DeepMind 凭借 AlphaFold 斩获诺贝尔奖,点燃了新一轮竞争。随后,OpenAI 发布 GPT-Rosalind,Anthropic 深耕生物领域,谷歌推出多智能体协作工具——由不同角色分工配合,共同推进研究流程。

突破不止于代码。为弥补 AI“无法动手”的局限,研究者开始将其接入自动化实验室:OpenAI 与 Ginkgo Bioworks 合作,让 AI 自主迭代实验方案,成功将某种蛋白的合成成本降低 40%。

但效率提升的同时,隐忧也随之浮现。Nature 的一项研究提醒,当科研过度依赖 AI 分析既有数据,探索方向可能偏向“易建模、数据足”的领域,而那些冷门却关键的问题,反而容易被忽视。技术可以加速发现,但科学应有的广度与多元,终究需要人类主动守护。

人工智能抵制浪潮

Resistance

一股对人工智能的质疑浪潮,正在全球悄然蔓延。人们担忧的不再是遥远的科幻场景,而是眼前的现实:数据中心推高了电费,工作岗位被悄然替代,聊天机器人影响青少年心智,军事应用缺乏边界,创作成果被无偿调用。

抗议行动随之浮现。伦敦街头出现示威人群,美国不同立场的群体罕见联合,签署宣言呼吁“技术应服务于人”;部分用户因军方合作卸载常用工具,家长联名要求校园暂缓引入聊天机器人。民意调查显示,多数公众对 AI 的快速渗透持保留态度。

这些声音已开始影响政策走向:纽约、加州为陪伴型机器人设立规则,英国在艺术家反对下撤回版权豁免提案,多地社区成功延缓数据中心建设。技术演进的速度从未放慢,但越来越多的人希望,在塑造未来的过程中,普通人的关切也能被认真倾听。

原文链接:

https://www.technologyreview.com/2026/04/21/1135643/10-ai-artificial-intelligence-trends-technologies-research-2026/

  •  

创办AI公司来革自己的命,前OpenAI推理模型负责人自立门户

作者落花

4 月 22 日,一家名为 Core Automation 的新公司在 X 上发了第一条推文:“我们的目标:优化并自动化工作的系统,从研究本身开始。”CEO Jerry Tworek 是前 OpenAI 研究副总裁、o1 和 o3 推理模型的主导者,今年 1 月刚从 OpenAI 离开。

几小时内,Anthropic 研究员 Rohan Anil、Google DeepMind 的 Gemini 研究员 Anmol Gulati,以及前 OpenAI 产品经理、GPT-4o 之母 Joanne Jang 相继宣布加入。一家同时从三个前沿实验室挖人的新公司,以这种方式进入公众视野。

今年 1 月 5 日,Tworek 在 OpenAI 内部信里告知团队,要去尝试“在 OpenAI 里很难做的那种研究”。他在 OpenAI 待了近 7 年,2019 年加入时公司只有 30 来人,离开时是研发副总裁,主导过 o1 和 o3 两代推理模型,深度参与 GPT-4 的后训练与 2025 年 GPT-5 的部署,也是 Codex 研究的主要贡献者。

图丨Jerry Tworek(来源:Trend Force)

几周之后他上了 Ashlee Vance 的 Core Memory 播客,措辞还要更加直接。在谈到 Gemini 3 反超 OpenAI 时,他表示:“从个人角度,这不是 Google 的反弹,是 OpenAI 自己的失误。”他对 OpenAI 当下处境的判断是,所有头部公司都在同时承受三重压力,做出最强的模型、支付 GPU 账单、维持用户增长曲线,这样的环境里,对高风险研究的耐心会天然变薄,而这也是他创办 Core Automation 的直接前因。

在它的名字里,Core 对应它最核心的赌注,重新审视 AI 系统的底层;Automation 既是方法论也是产品主张。公司官网上写道:下一次 AI 的台阶不会来自把现有配方继续做大——更大的模型、更多的数据、不再学习的静态部署。

图丨Core Automation 官网(来源:Core Automation)

他们要找能取代大规模预训练和强化学习的新学习算法,要找可扩展性好过 transformer 的新架构,相信下一波前沿研究将由“配备强 agent 的小团队”做出来。

1 月底 The Information 披露了它的融资计划:刚成立几周就开始谈 5 亿到 10 亿美元融资,对应估值超 50 亿美元。按照泄露的融资材料,Tworek 的主要精力集中在一个叫 Ceres 的模型上,一个能够持续学习的单一模型。

他给出的预期是,训练数据量比目前头部模型少 100 倍,在生产环境里可以一边运行一边更新权重。梯度下降是过去几十年神经网络训练的默认底座,愿意把它列入可重做的范围,意味着他们可能不准备在现有框架内做渐进改良。

他们所走的这条路线在学界叫持续学习(continual learning),核心难题是让模型学新东西时不把旧东西忘掉,即灾难性遗忘。transformer + 预训练的主流管线没有解决这个问题,大厂的应对是每隔几个月重新训练一次再做一轮后训练,成本高、周期长,每次都要部分牺牲上次学到的东西。如果持续学习真走通,节省下来的训练成本和延迟会很可观,对机器人、工业自动化、企业内部工具这些需要模型长期适应具体环境的场景尤其明显。

至于远期愿景,其融资材料里甚至提到了“自复制工厂”、“生物机器”、“行星地貌改造”,不过这些还都太过遥远,回到眼前,Core Automation 要解决的是一个具体问题:在当下的算力和人才价格下,一家新公司怎样才能追上已经跑在前面的几家。他们的回答是:不按大厂的节奏扩编。公司官网上写道:先自动化自己的工作,腾出时间做更有野心的研究,从研究里再找下一个可以自动化的东西。这套反馈回路既是他们的产品逻辑也是组织逻辑。

Core Automation 目前公开的人数不过十几个,对比 OpenAI 和 Google DeepMind 数千人规模的研究团队差了两个数量级。要让这样的团队跟得上几家大厂的训练节奏,他们必须把研究流程自动化到一个此前没有机构实现过的程度,而 Core Automation 也的确把自己定位为“全球自动化程度最高的 AI 实验室”。此前学界有一些这方面的早期探索,比如用 agent 系统自动生成研究想法、写代码、跑实验、写论文、做同行评审,不过目前还只能处理玩具级别的 ML 问题,和真正的前沿训练相差很远。

而在 Core Automation 之前,同样走反主流范式路线的新实验室已经有好几家。Mira Murati 的 Thinking Machines Lab 侧重多模态智能体的可靠性,Ilya Sutskever 的 Safe Superintelligence 押注安全优先的超级智能,Yann LeCun 离开 Meta 后成立的 AMI Labs 押注世界模型,Core Automation 押的是持续学习加自动化研究。它们赌的东西不同,但都认定当前的 scaling 路线不够,都有一个明确的技术分叉作为立身之本。

且大多数都没有公开产品,却都在相对短的时间里拿到了大额融资。资本市场对“已经在前沿跑过的研究员独立创业”这件事,愿意按前沿实验室的估值给钱,代价是这些团队要在几年内拿出一个能跟 GPT、Gemini、Claude 对打的东西,或者一个足够独特、让前沿实验室买不起替代品的东西。Core Automation 的时间可能还要更紧一些,因为它涉及的方向也是几家巨头公开在做、只是还没有人做出可规模化结果的方向。

参考资料:

1.https://www.coreauto.com/

2.https://www.businessinsider.com/core-automation-ai-nerdsniped-anthropic-google-deepmind-researchers-2026-4

运营/排版:何晨龙

  •  

谷歌第八代TPU双舰齐发,终结AI推理延迟,让智能体真正实现随叫随到

作者胡巍巍

今天,谷歌在 Cloud Next '26 峰会上发布了其第八代 TPU 架构(TPU 8t 与 TPU 8i),TPU 8t 主攻训练,TPU 8i 主攻推理,将在 2026 年晚些时候上市。第八代 TPU 采用申请制,Google Cloud 用户如需使用,需要在官网提交登记需求。原生 PyTorch 对于 TPU 的支持等软件栈功能,目前也处于 Preview 阶段。眼下,谷歌是在小范围内开放给特定合作伙伴和早期客户进行测试,旨在管理早期算力资源的分配。

TPU 8t 凭借 SparseCore 核心与 Virgo 网络拓扑,将大规模预训练效能推向极致,以 2.7 倍的单位成本算力改写了模型训练版图。

TPU 8i 专为实时推理与复杂决策而生,其通过 CAE 加速引擎与新型 Boardfly 拓扑结构,在一定程度上击碎了长上下文推理的延迟瓶颈,让 AI 从单一的下一个词预测进化到场景模拟和深度逻辑推理,AI 回应将变得更及时、更连贯。在谷歌自研 Arm Axion 架构 CPU 的算力支持下,这套架构还实现了两倍的能效飞跃。

第八代 TPU 将开放给所有谷歌云客户使用。TPU 8t 和 TPU 8i 支持主流的 AI 框架比如 PyTorch 和 JAX。开发者不需要学习新的编程语言,使用自己熟悉的工具就能直接调用 TPU 算力。谷歌还提供了开源的参考模型代码,让用户可以快速上手。

(来源:谷歌)

我们可能都遇到过 AI 反应很慢的情况,要转好几圈才给出答案,很多时候问题不在于网速,其实是处理请求的芯片距离太远。我们的声音数据要跑到远处的数据中心,在那里排队、计算、再传回来,一来一回时间就过去了,此次第八代 TPU 正是为解决这个问题而来。

当前,AI 训练和 AI 推理对于芯片的要求越来越不一样。训练需要极致的算力,这要求芯片之间能够高效地协同工作。推理则需要极低的延迟,这要求芯片能够快速处理多个请求,并且还得尽可能地省电。于是,第八代 TPU 分成了 TPU 8t 和 TPU 8i。

TPU 8t:专为大规模 AI 训练设计

TPU 8t 主要负责训练,它被设计得可以成千上万个连在一起工作。谷歌用一个名为 3D Torus 的网络把其连接起来,组成了一个超级计算集群。一个单独的超级计算单元里就装了 9600 颗 TPU 8t 芯片,一起共享高达 2PB 的内存,总共能够提供高达 121 ExaFlops 的算力。

图 | TPU 8t ASIC 框图(来源:谷歌)

TPU 8t 还用到了 SparseCore 这一技术。现在的很多大模型用的是混合专家技术,每次计算只激活一小部分参数,混合专家技术虽然能效高,但是会产生大量不规则的内存访问,这让普通芯片招架不来。

而谷歌此次使用的 SparseCore 技术专门负责处理这种任务,比如它可以让负责核心数学运算的矩阵乘法单元专心做自己擅长的事情,通过这样互相配合的方式,芯片就不会闲置,始终保持满负荷运转的状态。

TPU 8t 还改进了数据传输方式,用上了谷歌自研的 Virgo 网络,把芯片之间的通信带宽翻了一倍,把连接到外部数据中心的带宽提升了四倍。TPU 的 Direct Storage 技术允许芯片直接从高速存储里读取数据,从而能够绕开 CPU 这个“中间人”。

这样一来,喂给芯片的数据流就不会断,训练速度能提升十倍。在能耗上,TPU 8t 相比上一代的每瓦性能提升了两倍。训练超大模型时,它的性价比提升了 2.7 倍。对于需要训练几百甚至上千亿参数模型的团队来说,这意味着能够节约大量的时间和电费。

图 | TPU 8t 机架级与 Virgo 光纤通道的连接(来源:谷歌)

TPU 8i:能快速响应需求和处理长上下文推理

相比之下,TPU 8i 主打一个反应极快,它专门为那些复杂的、需要多步推理的问题而生。当你和 AI 聊一个很长的上下文,比如讨论一个复杂的心理问题,那么 AI 需要记住之前所有的对话内容。

上述对话记忆被存放在一个叫 KV Cache 的地方,而 TPU 8i 配备了 288GB 的高带宽内存和 384MB 的超大片上 SRAM,后者比上一代多了三倍,因此它可以把整个对话的上下文都装进芯片内部,不用频繁地去外面拿数据,处理速度自然也就变快了。

图 | TPU 8i ASIC 框图(来源:谷歌)

TPU 8i 的另一项关键创新是集体通信加速引擎。当大模型进行推理的时候,尤其是在处理混合专家模型时,芯片之间需要频繁地同步数据和汇总结果,这个过程叫做集体通信。要是做得不好,芯片的大部分时间都在干等。

TPU 8i 的 CAE 专门负责加速这个环节,把延迟降低了五倍。它还把芯片之间的互联带宽翻了一番,达到了 19.2 Tb/s。

与此同时,谷歌还为 TPU 8i 设计了一种名为 Boardfly 的全新网络连接方式。传统的 3D Torus 网络在连接大量芯片时,数据包在芯片之间传输时需要经过很多跳。Boardfly 通过借鉴 Dragonfly 拓扑的思想,利用增加长距离直连链路的方式,把由 1024 颗芯片组成的系统里的最远的两个芯片之间的通信距离从 16 跳减少至 7 跳,降低了 56%,让任何两颗芯片之间都能更快地交换信息,助力更好地处理复杂的推理任务。

这些改进让 TPU 8i 在推理任务上的性价比比上一代提升了 80%。对于一家企业用户来说,将能用同样的成本服务将近两倍的客户。谷歌还为 TPU 8i 搭配了自研的 Axion ARM 架构 CPU,并做了针对性优化,让系统运行得更顺畅。

图 | TPU 8i 分层式 Boardfly 拓扑结构(来源:谷歌)

众所周知,谷歌这套 TPU 体系已经运行了很多年,谷歌的 Gemini 正是跑在 TPU 之上。如前所述,他们这次将第八代 TPU 开放给了所有云客户,旨在为全球开发者构建一座通往更高 AI 想象力的算力基石。总的来说,在智能体时代这种芯片设计上的精细化分工,将有利于打造一个随叫随到、反应灵敏的 AI 应用。

参考资料:

https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/eighth-generation-tpu-agentic-era/

https://cloud.google.com/blog/products/compute/tpu-8t-and-tpu-8i-technical-deep-dive/

https://www.bloomberg.com/news/articles/2026-04-22/google-cloud-releases-new-tpu-chip-lineup-in-bid-to-speed-up-ai

https://x.com/patrickmoorhead/status/2046928498292412771

排版:胡巍巍

  •  

外国科学家从汉字中找到了设计超强材料的灵感!“天”字形材料最坚固

折纸艺术曾启发工程师设计出可折叠的航天结构,伊斯兰几何图案曾为材料学家提供抗振骨架的灵感。凡是人类文化中出现过的几何形式,似乎都有可能成为新一代功能材料的结构源泉。但你是否想过,中华文明书写了数千年的文字,其形状也会成为高性能材料的设计蓝图?

4 月 21 日,爱丁堡大学(The University of Edinburgh)的研究人员在《应用物理学杂志》(Journal of Applied Physics)上发表了一篇颇为新颖的论文,他们将汉字“人”“大”“天”“夫”的字形转化为超材料的结构单元,并通过压缩实验探究其机械性能,最终发现,汉字中特有的弧线、横撇和方形框架中,蕴藏着可以为工程材料设计所用的力学规律。

(来源:Journal of Applied Physics)

机械超材料的底层逻辑:当“几何结构”决定物质命运

了解这项研究之前,我们有必要先知道“机械超材料”(Mechanical Metamaterials)这一概念。“超材料”一词源自希腊语,意指“超越物质本身”,它描述的是一类性能主要由其几何排列结构决定、而非单纯由化学组成决定的人工材料。

传统材料的力学特性,如强度、刚度、韧性,很大程度上取决于其原子组成和化学键合方式。超材料的设计逻辑则截然不同:通过在微观或介观尺度上对结构单元进行精心的几何设计并阵列化,工程师可以赋予材料自然界罕见的物理特性。例如,横向拉伸时不收缩反而膨胀的负泊松比(Auxetic)效应、超轻却拥有极高比强度的多孔结构等。

这种“结构即性能”的设计哲学,使得超材料的研究空间极为广阔。研究者们的核心任务之一便是寻找并探索新的几何形式,看看哪些形状和结构能带来工程师所需要的特殊力学行为。

藏在文化图腾里的力学密码

在这项爱丁堡大学的最新研究之前,从人类文化遗产中提取结构灵感的尝试已有先例。折纸艺术就是其中最广为人知的例子。日本折纸的几何折叠原理,尤其是“三浦折叠”(Miura-ori),因其特殊的机械双稳态效应,已被广泛应用于可重构超材料的设计,出现在航天展开结构、柔性电子器件以及软体机器人等场景中。

图 | 三浦折叠折痕图案和折叠形式。(来源:DOI:10.1109/OJAP.2021.3121102)

此外,来自伊朗卡拉甘双子陵塔(Kharraqan twin towers)的砖砌几何纹样,也曾被研究人员转化为双稳态辅助(auxetic)超材料的设计原型。事实上,早在工程师开始系统研究之前,古代工匠就已经将某些具有优良力学性质的几何排列应用于建筑装饰之中,让今天的人们依然能够从这些漫长实践智慧的积淀中寻找灵感。

为何选择汉字?论文的通讯作者、爱丁堡大学工程学院的帕尔维兹·阿拉姆(Parvez Alam)副教授解释道:“某些汉字具有强烈而独特的几何特征,从直觉上就‘感觉’到,它们有潜力展现出独特的力学性质和行为。”

从字形分析的角度来看,汉字具备几个在超材料设计中颇具价值的结构特质。

图 | 伊朗卡拉甘双子陵塔的几何纹样(来源:维基百科)

首先是曲线与弧度。 许多汉字的笔画含有弯曲成分,而曲线在力学结构中往往意味着特殊的柔韧性和能量分散路径。与直线笔画相比,曲线笔画会以不同方式响应外力,影响材料的整体刚度与变形模式。

其次,大量汉字还包含水平方向的笔画,这类结构在工程上相当于贯穿整体的“横梁”,可以有效地将集中载荷分散至周围结构。

图 | 帕尔维兹·阿拉姆(Parvez Alam)(来源:爱丁堡大学工程学院)

初学汉字时,我们需要在田字格、米字格中反复练习,这正是因为汉字是典型的方块字,笔画被约束在离散的方格内,这意味着它们天然适合被转化为周期性超材料的基础网格单元。每个字都能整齐地填充一个方格,再通过重复排列,形成具有规则周期性的结构阵列。

把汉字放进压缩机,“天”字结构为何脱颖而出?

为了便于系统性对比,研究团队挑选了四个笔画简单且在结构上具有演进关系的汉字:“人”“大”“天”“夫”。

其中,“人”字形如一个向下张开的倒置“V”形,两笔撇捺从顶端向下方向外延展,构成一个锥形发散结构;“大”字在“人”字的基础上增加一横,将两条发散的笔画从中部横向连接;“天”字则在“大”字的顶部再增加一横,形成顶部也有横向连接的三层结构。最后的“夫”字与“天”字类似,但顶部横画稍短,且整体布局略有偏移,不与上方完全平齐。

研究团队通过增材制造(3D 打印)技术,将这些字形的对称单元制作成阵列超材料,并通过施加重载压缩,以经典的六边形蜂窝结构作为参照,系统测试其力学性能。

结果显示,这些“汉字材料”展现出了截然不同的压缩与变形规律。其中,由“人”字构成的超材料在受压时最先发生变形。研究指出,构件的曲率和倾斜角度是控制材料刚度与柔性的关键变量。

细而发散的构件更容易发生弯曲主导的变形,赋予材料较高的柔韧性;而较粗或更加垂直取向的构件则更能抵抗压缩,倾向于拉伸主导变形,提供更高的初始刚度。因此,像“人”字这样撇捺细长、向外发散且带有弧度的构件,在受力时往往会最先弯曲。

实验还发现,含有水平笔画的字形在压缩时表现出更强的稳定性。“大”字和“天”字中的横起到了交叉横梁的作用,使其在压缩时表现出更强的荷载分散能力,力不仅沿竖向传导,还通过横画被横向分散至相邻的结构单元,从而增强材料的稳定性,延缓了材料结构的整体坍塌失效。

横梁系统是提升结构整体稳定性的常用手段,而在汉字超材料中,横画数量的增加与材料抵抗失效能力的提升与经典结构工程原理高度吻合。

图 | 汉字超材料阵列与蜂窝阵列的压缩破坏对比(来源:https://doi.org/10.1063/5.0304459)

这项研究中最重大的发现,是“天”字型超材料展现出了压倒性的性能优势。数据显示,“天”字结构的模量和强度显著高于其他汉字设计,也超越了传统的六边形对照组。它不仅拥有最高的比强度和比刚度,甚至达到了高性能金属或刚性塑料泡沫的水平。

更深层的力学机制在于变形模式的转变。论文指出,大多数汉字结构在受力时表现出“弯曲主导”的强度特征,即结构容易发生屈曲,较为柔韧。而“天”字结构却展现出了罕见的“拉伸/压缩主导”强度。研究者推断,这是因为“天”字特有的双层横向支柱产生了相互作用,极大地抵抗了受载后的结构侧向位移。

此外,“夫”字与“天”字虽然相似,但由于顶部横画较短且有偏移,其力学表现就大相径庭。这也证实,超材料的性能对对称性等几何细节极其敏感。只做微小的参数调整,就会显著改变材料的变形模式与整体力学表现。

用工程学的视野重审人类文明结晶

这项研究从汉字超材料本身出发,揭示了一个极具启发性的设计方法论:几乎任何具有几何规律性的人类文化符号,都可能成为有效的超材料结构单元候选。

在数千个常用汉字中,“人、大、天、夫”只是沧海一粟。帕尔维兹强调,这只是“从众多潜在字符中提取的一滴水”。未来,孟加拉语字母、阿拉伯书法、印度梵文等其他人类书写符号,甚至各类装饰艺术中的几何图形,都有可能成为力学超材料的灵感源泉。

文字符号不只是语言的载体,也是特定文化对几何形式长期审美与实践选择的结晶。它们在漫长的历史演变中,经受了书写效率、视觉平衡的筛选,这些经过漫长时间检验的形式,或许在某种意义上也经历了一种非显式的"结构优化"。

从汉字实验中提炼出的规律,未来可直接应用于航空航天(轻质高强可编程材料)、生物医学(可控柔性植入物)以及防撞能量吸收系统等前沿工程领域。

值得注意的是,这项研究目前选取的四个汉字字形简单且相互关联,这在研究设计上便于变量控制与系统比较,但也意味着研究尚处于探索性阶段。

但阿拉姆在接受采访时特别强调了这项研究的跨学科意义。他表示,符号形式的运用“不仅在工程设计中有其价值,还应当激发另一种类型的学习兴趣”,并希望借此推动工程学、材料科学与历史学、文化研究之间更深入的交叉合作。

一篇从汉字中提炼力学规律的论文,出现在严肃的物理学期刊《应用物理学杂志》上,本身就是一件颇具象征意味的事情。它提醒我们,科学与文化从来不是两个相互隔绝的世界:前者追求普遍规律,后者积淀人类经验。最具创造力的结构灵感,或许正来自对人类已有知识体系的重新审视。

参考资料:

https://publishing.aip.org/publications/latest-content/what-can-chinese-characters-tell-us-about-designing-strong-materials/https://pubs.aip.org/aip/jap/article/139/15/155102/3387398/Mechanical-metamaterials-built-from-Chinese

运营/排版:何晨龙

  •  

空壳AI公司骗走投资人4亿美元,还上市了

作者刘雅坤

一家打着 AI 旗号的公司,被指控涉及 4.2 亿美元商业诈骗,更引人关注的是,它还是一家在纳斯达克上市的公司,市值曾达 15 亿美元。

近日,美国布鲁克林联邦法院公布了一份起诉书,揭开了 iLearningEngines(简称 iLearning)公司精心编织数年的谎言:主要客户关系和 90% 年收入竟然都是伪造的。

该公司创始人兼 CEO Puthugramam Chidambaran 以及该公司 CFO Sayyed Farhan Ali Naqvi 被起诉多达 10 项罪名,包括经营持续性金融犯罪活动、串谋证券欺诈、证券欺诈、串谋电信欺诈和电信欺诈等。

(来源:https://www.justice.gov/usao-edny/media/1436506/dl?inline)

当地时间 4 月 17 日上午,Chidambaran 和 Naqvi 分别在马里兰州和加利福尼亚州被捕,他们将在纽约东区联邦地方法院出庭,面临最高终身监禁的判决。

诈骗“三部曲”:假合同、假客户关系和伪造真实交易

2010 年 Chidambaran 创立了 iLearning,总部位于马里兰州贝塞斯达。该公司声称是一家数字教育公司,基于云计算和人工智能驱动的“即插即用”AI 平台为客户提供自动化解决方案。据该公司描述,其客户涵盖医疗保健公司和学校,主要收入来源于直接或间接向客户销售教育和培训平台许可证。

(来源:iLearning 2023 年 11 月投资者简报)

随着业务发展,该公司收入也快速增长。虚假的财务报表显示,2023 年 iLearning 的收入高达 4.21 亿美元,拥有超过 1,000 个企业终端客户以及约 440 万许可用户。但实际上,这些信息均被严重夸大。

为配合上市交易,iLearning 从一家风险投资机构和两家银行共获得 1 亿美元贷款。2024 年 4 月,iLearning 在纳斯达克交易所上市,股票代码为 AILE,公司市值一度达到约 15 亿美元。

(来源:iLearning 2024 年第二季度投资者报告)

起诉书中提到,在 2019 年 1 月至 2025 年 4 月期间,为获得更多的融资,Chidambaran 和 Naqvi 持续通过虚报 iLearning 财务业绩、构建虚假的客户关系,欺骗公司的个人投资者和投资机构。

具体而言,二人通过与客户签订声称“每年价值数千万美元”的虚假合同,让 iLearning 的收入看起来虚高。实际上,这些合同的背后是由 iLearning 员工或其亲属、朋友冒充客户高管签署的。为获得投资者和贷款方的信任,iLearning 还为这些虚构的客户公司创建了网站。

图丨iLearning 在纳斯达克上市(来源:https://www.justice.gov/usao-edny/media/1436506/dl?inline)

建立了合同和客户关系,接下来 iLearning 要解决的就是公司收入的问题。为了使 iLearning 看上去从合同中获得了真实的收入,Chidambaran 和 Naqvi 实行了一套资金“循环交易”方案:首先 iLearning 从贷款机构和投资者获得贷款或融资,然后将这些资金转给虚假的客户,再由这些客户将资金转回给 iLearning。

实际上,这些所谓的客户是这样来的:在 Chidambaran 和 Naqvi 指示下,iLearning 公司内部员工在印度、阿拉伯联合酋长国和美国等地注册新公司,再以 iLearning 客户的名义开设银行账户,他们用这套“循环交易”方案将数百万美元从 iLearning 公司转入“自己人”控制的账户。随后将这些资金转入以其他实体名义控制的其他账户,最终再将资金转回给 iLearning 公司。数年来,这些循环交易的总金额逾 1.44 亿美元。

毕竟纸包不住火,一家投资研究公司最终还是发现了端倪。2024 年 8 月,在 iLearning 上市 4 个月后,投资研究公司指控 iLearning 公司严重虚报收入,包括将相当一部分报告收入归因于未披露的关联方交易。

报告发布后,iLearning 的股价在一天内暴跌超过 50%,市值也大幅缩水。2024 年 12 月,iLearning 在特拉华州地方法院申请破产法第 11 章的保护,该程序后来于 2025 年转为破产清算第 7 章,同时宣告该公司倒闭。彼时,该公司有数百名未获偿付的债权人以及超过 5,000 万美元的未偿负债。

对造假对应的是,Chidambaran 和 Naqvi 获得的巨额回报。在 2023 年至 2024 年期间,Chidambaran 从 iLearning 获得了超过 70 万美元的工资和奖金。在上市交易中,他还获得了价值 5 亿美元以上的 iLearning 普通股,以及价值约 1,250 万美元的 iLearning 限制性股票单位。Naqvi 也获得了价值约 1,120 万美元的 iLearning 普通股,而 iLearning 则支付了近 450 万美元现金来偿还税款。

名词红利与 FOMO:为何同样的故事一再重演?

类似的案例还有世通(WorldCom)。这家成立于 1983 年的公司,一度成为仅次于 AT&T 的美国第二大长途通讯公司。2002 年 6 月,在一次例行的资本支出检查中,公司内部审计部门发现了 38.52 亿美元数额的财务造假。

美国证券交易委员会在随后的调查中发现,1999 年到 2001 年的两年间,WorldCom 虚构的营收达 90 多亿美元。截至 2003 年底,该公司总资产被虚增约 110 亿美元,而这背后是为了弥补股价下跌带来的亏空和缓解贷款方面的资金压力,通过运营费用资本化等手段虚增利润,来掩盖公司真实的财务状况。

2003 年,该公司宣布破产,WorldCom 的 CEO Bernie Ebbers 被判处 25 年监禁。2005 年, Verizon 以 76 亿美元收购 WorldCom,并重组为 MCI 公司。

从互联网时代再到如今的 AI 浪潮,为什么每轮技术革命的案例总是相似?从 WorldCom 的利润造假到 iLearning 的业务造假中,我们不难发现,实际上他们所利用的正是“名词红利”,即当某个技术关键词成为资本市场的共识,公司只要贴上相关的标签便能更容易地获得估值溢价,AI 正是新一代的“互联网”。

另一方面,也离不开投资者和相关机构的 FOMO 心理状态:当整个时代都在参与某项技术投资的趋势下,难免会担心如不立即参与会因此错失“下一个独角兽”的机会。

这容易导致一个问题,即在缺失尽调、没有过多了解项目和公司的情况下,就盲目跟风投资。回到 iLearning 案例来看,正是利用了名词红利和 FOMO 放大了 AI 叙事,推动资本在短时间内涌入,甚至忽视风险,从而带来价值溢价。

iLearning 是当前 AI 热潮下商业诈骗案例的缩影之一。与此同时,它也留下了一个值得深思的问题:技术在进步,但资本市场对故事的偏好,为何看起来从未改变?或许,是时候回归理性判断了。

参考资料:

https://www.justice.gov/usao-edny/pr/former-chief-executive-officer-and-chief-financial-officer-nasdaq-listed-company

https://www.justice.gov/usao-edny/media/1436506/dl?inline

https://www.reuters.com/legal/government/ex-ceo-ex-cfo-bankrupt-ai-company-charged-with-fraud-2026-04-17

运营/排版:何晨龙

  •  

辛顿警告AI将取代人类工作,杨立昆反对:应该先听这5个人怎么说

作者张锦怡

过去半年,关于“AI 会不会抢走我们的工作”的讨论愈演愈烈。几乎每隔几周,就会有新的研究报告、行业预测或焦虑故事被推上舆论场。科技公司一边喊着“AI 将赋能每一个人”,一边悄悄收紧招聘甚至大规模裁员;白领群体中,“我的岗位还能撑几年”的担忧悄然蔓延…

最近,“AI 教父”杰弗里·辛顿(Geoffrey Hinton)在接受采访时也聊及这个话题。作为深度学习的奠基人之一、2024 年诺贝尔物理学奖得主,辛顿自离开谷歌后,便持续为 AI 潜在风险发出警示。

图 | 辛顿接受采访(来源:Youtube)

辛顿指出,回顾人类历史,每一次重大技术革命都遵循相似的节奏:淘汰一类劳动,同时开辟新的就业空间。农业机械化把劳动力从土地上解放出来,他们走进了工厂;工厂自动化之后,人们又转向办公室和知识型工作。经济体总能生长出新的需求层次,承接那些被旧技术挤出的劳动力。但 AI 不一样,它不是守在某一扇门后的自动化工具,而是出现在每一扇门的后面。

一个客服人员失业后转行学编程,发现 AI 也会写代码;再转向法律文书处理,AI 同样胜任;尝试内容创作,AI 依然在场。每一次转型还没站稳,就可能被迅速追上。辛顿将这一判断提升到了文明史的高度:人类一路走来,不断突破各种局限。食物匮乏靠农业解决,距离障碍靠交通工具解决,体力限制靠机械解决。每一次突破都催生了全新的人类活动空间。而 AI 正在突破的,是人类智力本身。当智力不再构成瓶颈,新的空间在哪里?

辛顿坦言,自己目前没有答案,也未见到任何人给出令人信服的解释。他还给出了具体的时间预判:2026 年,AI 将在呼叫中心大规模替代人类客服;数年之内,便可能具备独立运行、持续数月的软件工程项目能力。这番言论一经发出,便引发讨论。

但并非所有人都认同辛顿的观点。不久后,另一位“图灵奖得主”杨立昆(Lecun Yan)便公开回应。他措辞直接:“我敬重 Geoff(辛顿),但在技术革命对劳动力市场的影响这个问题上,他甚至不如达里奥·阿莫迪(Anthropic CEO)了解得多。”

(来源:X)

紧接着,他提出了一个更值得深思的观点:不要听 AI 科学家谈这个问题,无论他们多么杰出;更不要听 AI 公司 CEO 的判断,无论他们多么成功。劳动经济学的问题,应当交给研究劳动经济学的学者来回答。

随后,他点名 @ 了五位经济学家:菲利普·阿吉翁(Philippe Aghion)、达龙·阿西莫格鲁(Daron Acemoglu)、埃里克·布莱恩约弗森(Erik Brynjolfsson)、安德鲁·麦卡菲(Andrew McAfee)和大卫·奥托(David Autor)。

这条帖子的价值,不仅在于立场表态,更在于它揭示了当前公共舆论中一个明显的失衡。在“AI 会不会取代人类工作”这个议题上,声量最大的始终是两类人:AI 技术专家和科技公司管理者。前者对模型能力有深刻理解,但对经济系统如何消化技术冲击未必具备专业判断力;后者既有商业动机去渲染 AI 的变革性,也有动机去回避其社会成本。

而真正以劳动力市场为研究对象、积累了数十年方法论和实证数据的经济学家,在公共舆论中的存在感反而薄弱得多。那么,杨立昆点名的这五位学者,对于 AI 与人类共存的问题究竟持怎样的观点?我们不妨逐一了解。

达龙·阿西莫格鲁可能是五人中对 AI 经济影响最为审慎的一位。他任教于麻省理工学院(MIT)经济学系,2024 年因制度经济学方面的开创性贡献获得诺贝尔经济学奖。近年来,他将研究重心转向 AI 领域。2024 年,他发表论文《AI 的简单宏观经济学》,结论出人意料:据其模型估算,AI 在未来十年对美国全要素生产率(衡量经济体整体效率的核心指标)的提升幅度,大约只有 0.5% 至 0.9%。这一数字,与硅谷流行的“AI 将重塑全球经济”的宏大叙事之间,存在近乎一个数量级的落差。

图 | 达龙·阿西莫格鲁 (来源:Wikipedia)

但阿西莫格鲁并非认为 AI 毫无价值。他指出,目前 AI 能够自动化的,仅是企业全部任务中的一小部分;且许多被自动化的环节,并未被生产率更高的新任务所替代。他将这类技术定义为“平庸技术”(so-so technology):足以替换工人,却未能带来相称的效率提升。劳动者被排挤出局,经济整体并未因此显著受益。

但他并不担忧 AI 过于强大导致人类无事可做。恰恰相反,他认为问题可能在于 AI“还不够强大”:企业之所以有动力用其替换人力,唯一原因是它已经足够廉价,即便替换后的效率增益微乎其微。

2026 年 4 月,他在美国国家经济研究局(NBER)发布新研究,探讨当 AI 生成的内容反过来成为训练 AI 的语料时,不仅模型可能崩溃,人类的知识库也会发生系统性退化。因为 AI 倾向于输出“概率最高”的平庸内容,这会稀释人类文明中的极端案例和独创性思维,导致我们在依赖 AI 的过程中,逐渐丧失处理复杂、罕见问题的能力。

同样任教于 MIT 的大卫·奥托,是当今全球引用量最高的劳动经济学家之一。与阿西莫格鲁相比,奥托的视角中包含更多建设性的可能。他最具影响力的分析框架被称为“基于任务的分析”:不将一份工作视为整体来判断其存废,而是将其拆解为一项项具体任务,逐一考察哪些将被自动化、哪些反而会被增强。在这个框架下,绝大多数工作并非“消失或存续”的非此即彼,而是内部发生结构性漂移:部分环节交由机器处理,另一些环节则因机器的辅助而变得更加重要。

图 | 大卫·奥托 (来源:Wikipedia)

2024 年,奥托曾提出一个反直觉的观点:AI 对中产阶级可能是有利的。其推理逻辑如下:过去数十年间,专业技能的门槛不断提高,医生、律师、高级工程师凭借多年训练积累的判断力,构筑了中等技能劳动者难以逾越的壁垒。但如果 AI 被设计为辅助工具而非替代品,它有可能将部分“专家级判断力”向更广泛的群体开放:社区护士借助 AI 诊断辅助系统,可以承担以往仅由专科医生执行的初步筛查;小型企业主利用 AI 法律工具,能够处理以往需要委托律师的合同审核。

奥托将此概括为“专业知识的民主化”,不是消灭专家,而是降低成为“准专家”的准入门槛。当然,他也反复强调,这并非技术进步的自动结果,而取决于企业的部署方式和政策的引导方向。2026 年 2 月,他与阿西莫格鲁合作发表《构建支持工人的 AI》,系统性地界定了何种 AI 技术可被归为“亲工人型”,试图为技术开发提供明确的价值导向。

这类技术包括:能开辟全新劳动领域的“新任务创造技术”(如让农民转型为管理多维数据的“精准农业调度员”)、旨在降低准入门槛的“决策支持技术”(如辅助护士执行复杂临床诊断,实现医疗专长的下放),以及强调人类处于回路中心的“协作型人机交互”(如在精密制造中由 AI 负责误差补偿,工人负责核心工艺决策)等。

第三位埃里克·布莱恩约弗森是斯坦福大学数字经济实验室主任,同时也是斯坦福以人为本人工智能研究所(HAI)的高级研究员。早在 2014 年,他就与安德鲁·麦卡菲合著《第二个机器时代》,预判了数字技术对劳动力市场的深远冲击,该书至今仍被视为这一领域的重要参考文献。

图 | 埃里克·布莱恩约弗森 (来源:Wikipedia)

但他最具辨识度的理论贡献诞生于 2022 年的“图灵陷阱”。他指出,人工智能领域长期以来存在一种根深蒂固的设计倾向:追求让机器模仿人类、替代人类,将通过图灵测试视为终极目标。然而,这种设计哲学恰恰将技术推上了替代劳动力的轨道,而非增强劳动力的方向。当研发目标一味聚焦于让 AI“像人”,自动化便成为默认路径,“增强”(augmentation)反而被边缘化。布莱恩约弗森主张,应当有意识地将研发方向从“让机器做人做的事”,转向“让人能做以前做不到的事”。

2025 年,他与合作者发表论文《煤矿里的金丝雀》,以翔实的数据追踪了 AI 对就业的早期影响。研究发现,自由职业者和平台工作者首当其冲,这些缺乏组织保护的劳动者,最先承受了生成式 AI 带来的竞争压力。在翻译、文案、基础编程等领域,自由职业者的订单量和收入出现了可观测的下降。

但与此同时,企业端的整体就业数据并未出现崩盘式滑坡,表明 AI 的替代效应在组织内部是渐进式展开的。他目前正在推进“AI 经济仪表盘”项目,用大数据实时追踪全美国数千个职业内部的任务漂移。最新监测显示:2026 年,组织的变革速度终于开始跟上技术的步伐,企业正在经历从“试点 AI”到“重构流程”的惊险跃迁。

安德鲁·麦卡菲是布莱恩约弗森多年的学术搭档,在 MIT 斯隆管理学院担任首席研究科学家,同时也是 MIT 数字经济倡议(IDE)的联合创始人。相较于布莱恩约弗森更偏学术的研究风格,麦卡菲更擅长将复杂的经济学结论转化为企业管理者和政策制定者能够理解的语言,活跃于《哈佛商业评论》、TED 演讲和个人专栏等平台。

图 | 安德鲁·麦卡菲 (来源:Wikipedia)

他的核心立场可以概括为“技术乐观加制度焦虑”。一方面,他相信技术进步整体上扩大了经济总量,但另一方面,他对收益的分配极为警觉。在《第二个机器时代》之后,他与布莱恩约弗森合著《机器、平台、大众》,进一步论证了数字经济的一个显著特征:增长越来越集中于少数平台型企业和超级明星公司,而普通劳动者在增长中所分得的份额却持续缩小。这一“赢家通吃”的趋势在 AI 时代有被加速的可能。

麦卡菲因此并不简单地站在“AI 会创造更多工作”的立场上,他的关切更在于:如果不在制度和政策层面进行主动干预,AI 创造的价值将高度集中于资本所有者和少数高技能劳动者手中。

五人中最后一位是菲利普·阿吉翁。他任教于法兰西学院和伦敦政治经济学院(LSE),2025 年获得诺贝尔经济学奖,获奖理由是其在创新与经济增长理论方面的开创性贡献,尤其是他与彼得·霍维特共同构建的“熊彼特增长模型”。这套理论的核心概念是“创造性破坏”:新技术和新企业的涌现必然摧毁旧的产业结构和就业形态,而正是这种破坏本身驱动着经济的长期增长。值得注意的是,阿吉翁的命题不是“破坏之后经济会恢复增长”,而是“破坏本身即增长的引擎”,二者之间有重要的理论区别。

图 | 菲利普·阿吉翁 (来源:Wikipedia)

将这一框架应用于 AI 议题,阿吉翁的分析路径便十分清晰:AI 当然会摧毁大量现有岗位,但只要这种摧毁伴随着充分的创新活力和足够的制度弹性,它本身就能催生新的产业和新的就业。关键变量不在于技术有多强大,而在于制度环境能否承接这种破坏。市场竞争是否充分、教育体系能否及时调适、社会保障网络是否足够稳固。

阿吉翁最近还在利用大语言模型本身作为经济学研究工具,探索如何借助 LLM 进行大规模社会调查和文本分析。换言之,他不仅在研究 AI 对经济的影响,也在用 AI 重新定义经济学研究本身的方法。

将这五位学者的观点并置,可以看到他们并不构成一个统一阵营。阿西莫格鲁是冷静的怀疑者,认为 AI 的经济影响被严重高估;奥托是有条件的乐观派,认为 AI 有可能惠及中产阶级,但前提是开发方向正确;布莱恩约弗森是结构主义者,强调核心问题不在于 AI 本身,而在于人类选择用它来做什么;麦卡菲关注分配正义,忧虑价值被少数群体攫取;阿吉翁则是历史主义者,相信创造性破坏终将发挥作用,但需要制度层面的配合。

他们之间有交集也有分歧,但也拥有一个底层共识:技术变革对劳动力市场的影响,不仅是一个工程问题,更是一个经济学问题。它取决于制度设计、政策选择、市场结构和企业决策,而不仅仅取决于模型的能力上限。在众声喧哗的当下,我们确然需要更多元的声音。

参考链接:

1.http://www.nber.org/papers/w32487

2.https://www.nber.org/papers/w34854

3.https://www.nber.org/papers/w32140

4.https://www.lse.ac.uk/lse-player/creative-destruction-ai-and-the-european-recovery

运营/排版:何晨龙

  •