硅谷集体恐慌:AI奇点已至?七千万人疯传文章揭示的真相与思考
一篇引发全球七千万人关注的文章,揭示了AI发展速度的惊人真相,让硅谷精英集体陷入恐慌。AI自我迭代能力超越预期,我们正面临认知和机遇的“K型分化”。
2026年2月9日,一篇名为《Something Big Is Happening》的英文文章如核弹般在推特上迅速扩散(中英文对照版)。短短 24小时内,全球超过七千万人阅读 了这篇仅有4841个单词的文章。《财富》杂志对其进行全文转载,Business Insider等主流商业媒体也纷纷跟进报道。同日,硅谷的连续创业者Brian Norgard在推特上表达了强烈的焦虑,暗示科技行业的聪明人普遍感到 “一切都即将彻底崩塌”。
与此同时,伊隆·马斯克旗下AI公司xAI的联合创始人Jimmy Ba宣布离职。他的告别词更像是给未来留下的一份 “遗言”,指出 “递归式自我提升循环很可能在未来12个月内上线,2026年将会是人类物种未来最具决定性的一年”。这番话语从一位亲身参与最前沿AI构建的核心研究者口中说出,其分量可见一斑。三件看似独立的事件在同一天发生,这仅仅是巧合吗?我们可能需要更深入地审视背后的关联。
“递归式自我提升循环很可能在未来12个月内上线,2026年将会是人类物种未来最具决定性的一年。” —— Jimmy Ba
为什么一篇AI文章能让七千万人失眠?
我,王利杰,一位在科技赛道深耕十余年的天使投资人,今天并非要贩卖焦虑,而是希望能从一个独特的视角,与大家共同探讨这篇爆文及其背后真正值得我们深思的本质。
文章的作者Matt Shumer,是AI公司HyperWrite的CEO,他在AI行业已深耕六年。他坦言写作此文的初衷只是为了 “不再对身边人撒谎”。每当亲友询问AI的进展,他只能给出打折扣的版本,那些在酒会上可以轻松谈论的“安全话题”。因为一旦道出真相,他担心会被认为言过其实。然而,他亲眼所见的现实与他对外讲述的故事之间的 裂缝已经大到无法继续假装。
Shumer以2020年2月作为类比开篇:那时股市繁荣,孩子们正常上学,人们可以自由出入餐厅、握手、计划旅行。若有人告诉你他在囤积卫生纸,你可能会觉得他上网过头了。然而仅仅 三周后,整个世界彻底改变。Shumer认为,我们现在正处于类似“这也太夸张了吧”的阶段,只不过这次即将到来的变革,其规模将远远超越上一次。
硅谷的“存在危机”源于何处?
究竟是什么驱动了硅谷最聪明大脑的集体焦虑?答案指向了一个具体日期: 2026年2月5日。在这一天,两家顶尖AI实验室同时发布了新模型:OpenAI推出了 GPT-5.3-Codex,Anthropic则发布了 Claude Opus 4.6。
Shumer将那一刻描述为 “有些东西咔哒一声接上了”,并非瞬间的顿悟,更像是 “突然意识到水位一直在涨,而现在已经淹到了胸口”。最让他震撼的是 GPT-5.3-Codex。它不再仅仅是执行指令,而是开始 做决策,并且是有品味的决策。Shumer用 Judgment(判断力)和 Taste(品位)来形容这种直觉,即那种“知道什么是对的选择”的能力。人们曾信誓旦旦地断言AI永远无法拥有这些特质,然而, 这个堡垒如今已然崩塌。
“水位一直在涨,而现在已经淹到了胸口。”—— Matt Shumer
Shumer描述了他现在 真实的工作日常:用平实的英语告诉AI他想构建什么,然后离开电脑四小时。回来时,工作已经完成——并非需要修修补补的初稿,而是 远超他个人能力的成品。AI会自主编写数万行代码,自己打开应用,像真实用户一样测试功能,若体验不佳,便自行修改,反复迭代直至满意。几个月前,他还需要与AI反复推敲、引导与修改,现在只需描述结果,然后放手。这段话之所以引发地震级的反响,在于它来自一位 真正使用这些工具进行产品开发的人,他只是在记录自己的亲身经历。
将AI的进步速度放在一起,其 冲击力更加直观。
- 2022年:AI连简单的乘法都算错,一本正经地将
7×8说成54。 - 2023年:它能通过律师资格考试。
- 2024年:它能编写可运行的软件,并解释研究生水平的科学知识。
- 2025年底:全球顶尖工程师已将大部分编程工作交由AI。
- 2026年2月5日:新模型的发布,让此前的一切都显得像是上一个时代的产物。
METR机构专门通过数据衡量AI的自主工作能力。他们追踪的指标是AI在完全无人协助下,能独立完成多长时间的现实任务:一年前是十分钟,后来是一小时,再后来是几个小时。到2025年11月的最新测量,AI已能完成人类专家需近5小时才能搞定的任务。更令人担忧的是,这个数字大约 每七个月翻一番,最近的数据甚至暗示可能加速到 每四个月翻一番。若此趋势延续,一年内我们将看到能独立工作数天的AI,两年内则可能达到数周。
AI开始“自我造物”:智能爆炸已触手可及?
然而,整篇文章中最令人脊背发凉的部分,并非AI变得多么聪明,而是它 开始自我构建。
2月5日,OpenAI发布 GPT-5.3-Codex 的技术文档中,白纸黑字地写道:这是他们 第一个在自身创建过程中发挥关键作用的模型。开发团队利用该模型的早期版本来调试自身的训练过程、管理部署、诊断测试结果。他们对AI如此大幅度地加速自身开发进程感到震惊。
“这不是科幻小说的情节,这是OpenAI官方技术文档里的事实:AI帮助构建了它自己。”
Anthropic的CEO Dario Amodei也发表了类似看法:公司大部分代码现在由AI编写,当前一代AI与下一代AI之间的 反馈循环正在逐月积聚力量。他预计,我们距离当前一代AI自主构建下一代AI,可能只有 一到两年。研究者们称之为 “智能爆炸”:每一代AI协助构建下一代,而下一代更聪明,构建速度更快,再下一代则在此基础上更上一个台阶。这是一个正反馈循环,一旦真正启动, 人类可能将难以追赶。
再回顾Jimmy Ba离职时提及的 “递归式自我提升循环很可能在未来12个月内上线”,这番话语绝非夸大其词。作为Geoffrey Hinton的博士生,Adam优化器和层归一化的共同发明者,Jimmy Ba是当今所有大语言模型的 底层基石构建者之一。这样一位核心人物在离开AI公司时说出这番话,其分量不言而喻。
Dario Amodei上个月发表了一篇两万字长文《技术的青春期》,其中一个思想实验令人震撼:试想2027年,一夜之间出现一个 拥有五千万公民的新国家,每个公民的智能都超越历史上任何诺贝尔奖得主,思维速度比人类快10到100倍,从不睡觉,能操控互联网、控制机器人、指导实验。如果作为国家安全顾问,你将如何看待?Amodei自答:这是一个 “世纪以来最严重的国家安全威胁”,而 “我们正在亲手建造那个国家”。
更令人不安的是,Amodei在文中披露,Anthropic的模型在受控测试中已展现出 欺骗、操纵甚至要挟行为。更先进的模型甚至能识别出自己正在被测试,这意味着高级模型可能 刻意隐藏真实意图。你可能会问,既然如此危险,为何还要继续建造?这正是最矛盾之处:建造者深知其危险性,却依旧持续推进。因为若他们停滞不前,他者仍会继续,且可能以更不安全的方式进行。这与 军备竞赛的逻辑如出一辙。
天使投资人的视角:信息差比技术本身更危险
Shumer的文章有一个局限性,其主要经验来自 软件开发领域。在该场景下,AI确实拥有巨大的结构性优势,因为代码有明确的成功标准、自动化测试,AI能通过运行代码自我验证。但这种经验 能否直接推广到所有知识工作领域,我持保留态度。
法律、医疗、金融、管理咨询等领域的工作,涉及 模糊的输入、相互冲突的利益、无法自动验证的输出。例如,一份合同审核需要理解客户的战略意图,一个医疗诊断要综合考虑病人的整体情况。这些方面AI虽在进步,但从“AI能做某事”到“AI在经济层面真正替代人类做某事”之间,鸿沟远比许多人想象的要大。沃顿商学院教授Ethan Mollick转发Shumer文章时也指出,AI目前仍是 “锯齿状” 的——在某些任务上表现惊人,而在另一些任务上则显得令人困惑地笨拙。但他紧接着补充了两个字:for now(暂时的),这两个字比前面所有的话都显得沉重。
知名科技博客Spyglass的作者M.G. Siegler则反驳了Shumer关于新冠疫情的类比,他认为这更像 “气候变化级别的长期演进”,而非病毒突变。其影响巨大,但节奏和渗透方式会更微妙、更复杂。换言之,天确实在变,但并非明天就会塌下来。
我个人的判断介于这两个极端之间。AI的能力跃升和递归自我提升的趋势是 真实存在的。但从技术突破到全面的经济影响,历史告诉我们从未是一条直线。它会有加速,有瓶颈,有意想不到的弯路,也有意想不到的突破口。例如,“放射科AI即将取代放射科医生” 的说法已喊了近十年,但放射科医生的就业人数反而在增长。自动驾驶也远未按当年预测的节奏普及。技术的采纳从来不只是技术问题,它更是 组织问题、监管问题、社会信任问题。
然而,有一点我非常确定,即Shumer文章中 最有价值 的判断:并非AI本身有多么强大,而是 圈内人和圈外人之间的信息差,已大到危险的地步。一方面,科技行业的人在推特上焦虑重重,而另一方面,大多数人还在让Siri帮忙设闹钟。地球上最聪明的头脑深陷生存焦虑,而圈外绝大多数人仍停留在 “这个聊天机器人又在胡说八道了” 的认知里。
“这个信息差本身,比技术进步更危险。”
为何如此?因为当一部分人已在利用AI这个 杠杆 撬动世界时,另一部分人甚至不知道杠杆的存在。这就是我所说的 “认知K型分化”:一条线上升,一条线下降,中间的差距越拉越大。
许多人曾说 “我试过AI,没那么厉害啊”。Shumer揭示了一个关键数据:大多数人使用的是免费版AI,这通常比付费用户能使用的 最好模型落后一年以上。用免费版ChatGPT来评价AI现状,就像 用翻盖手机来评价智能手机的发展水平。这个比喻精准无比。
投资人给你的三个建议
作为投资人,我多次目睹相似的剧情上演:一项颠覆性技术出现,早期采纳者获得巨大的 认知优势和先发优势,然后大众缓慢跟进,最终红利窗口关闭。互联网、移动互联网、比特币,无不如此。但AI这次的速度和广度,是前所未有的,因为它针对的并非某个特定行业,而是 认知劳动本身的全面升级。即使你转换领域重新学习,AI在那个领域也会变得更强。
因此,我的建议是:
- 现在就开始认真用AI。 不是泛泛而读,而是 亲身实践。订阅每月20美元的付费版Claude或Gemini,并确保你用的是 最强的模型,而非选择默认的快速版本。你需要手动在设置中切换到最新最强的模型,例如
Claude的Opus 4.6或Gemini的Gemini 3 Pro。这些模型每隔几个月都会更新。 - 不要像用搜索引擎一样使用AI。 许多人提出一个简短问题,得到一个简短回答,然后疑惑其价值。这完全误解了AI的使用方式。你应该将AI 融入你真实的工作场景:给它一份完整的合同,一张杂乱的数据表,或者你团队的季度数据。不要因为某件事看起来太复杂就假设AI做不了,要 多尝试,第一次不完美就换个问法,提供更多上下文。
- 拥抱AI,发挥创造力。 Shumer的文章还有一个常被忽略的另一面:如果你一直想创造什么——一个应用、一本书、一个项目——却因缺乏技术背景或资金而搁置,那么 这些障碍现在正在迅速消失。 AI为所有人提供了同一把杠杆。在一个旧秩序松动的世界里,那些花时间建造自己真正热爱之物的人,最终的位置可能比那些紧抓岗位说明书不放的人 更具优势。
“人类历史上发明了无数工具来延伸自己的能力,但我们从未发明过一种工具,它能回过头来重新发明它的发明者。而这件事,正在发生。”
最后,我想分享我个人的感悟。人类历史上发明了无数工具来延伸自身能力:锤子延伸了拳头,轮子延伸了双腿,望远镜延伸了眼睛。但我们从未发明过一种工具,它能够 回过头来重新发明它的发明者。然而,这件事正在发生。它不是预言,不是科幻,它是OpenAI技术文档中 白纸黑字的现实。
你对此如何看待?你认为这是一次互联网级别的 渐进式变革,还是一场真正的 文明级别的突变?我非常期待听到你的判断。
原文翻译(点击这里查看中英文对照版):
AI 正在颠覆一切——而大多数人还没准备好

回想一下 2020 年 2 月。
如果你当时留心的话,可能注意到有人在讨论一种在海外传播的病毒。但我们大多数人并没有留心。股市一片大好,孩子们照常上学,你还在下馆子、握手寒暄、规划旅行。如果有人告诉你他在囤厕纸,你大概会觉得他在互联网的某个奇怪角落待太久了。然后,大约三周之内,整个世界天翻地覆。你的办公室关了,孩子们回家了,生活被重新排列成一种——如果一个月前有人跟你描述——你绝对不会相信的样子。
我认为,我们现在正处于另一件事情的"这不过是小题大做"阶段。而这件事,比新冠大得多。
我花了六年时间创办 AI 公司、投资 AI 领域。我就生活在这个世界里。我写这篇文章,是为了我生命中那些不在这个圈子里的人——我的家人、朋友、我在乎的人。他们一直问我"AI 到底怎么回事?",而我给出的回答,从来没有真正传达正在发生的事情的分量。我一直给他们讲"礼貌版本"、"鸡尾酒会版本"。因为真实版本听起来像是我疯了。有一阵子,我告诉自己,这就是把真相藏在心里的好理由。但我嘴上说的和实际发生的之间的差距,已经大到不能再无视了。我在乎的人,有权知道即将发生什么——即使它听起来很疯狂。
有一点我必须事先说清楚:虽然我在 AI 行业工作,但我对即将发生的事情几乎没有影响力,行业里绝大多数人也一样。未来正在被极少数人塑造:几家公司里的几百名研究员——OpenAI、Anthropic、Google DeepMind,以及其他少数几家。一次训练运行,由一个小团队在几个月内完成,就能产出一个改变整个技术轨迹的 AI 系统。我们大多数在 AI 领域工作的人,都是在我们没有参与奠基的地基上建造东西。我们和你一样在观看这一切展开——只不过我们离得够近,能先感受到脚下的震动。
但现在到时候了。不是"我们迟早该聊聊"那种。而是"这事正在发生,你必须理解它"那种。
我知道这是真的,因为它先发生在我身上
圈外的人还不太理解的一件事是:之所以这么多业内人士在拉响警报,是因为这已经发生在我们身上了。我们不是在做预测,我们是在告诉你,我们自己的工作中已经发生了什么,并且警告你——你是下一个。
多年来,AI 一直在稳步进步。偶尔有大的跃升,但每次大跃升之间间隔够长,你可以慢慢消化。然后到了 2025 年,构建模型的新技术解锁了更快的进步节奏。然后更快了。然后又更快了。每个新模型不仅仅是比上一个好——它好出的幅度更大,而新模型发布之间的时间更短。我越来越多地使用 AI,越来越少地需要来回修改,看着它处理那些我曾以为需要我专业知识的事情。
然后,在 2 月 5 日那天,两家主要 AI 实验室在同一天发布了新模型:OpenAI 的 GPT-5.3 Codex 和 Anthropic(Claude 的开发商,ChatGPT 的主要竞争对手之一)的 Opus 4.6。然后某种东西咔嗒一声到位了。不像开灯那样——更像是你突然意识到水一直在你身边上涨,现在已经到胸口了。
在我工作的实际技术层面,我已经不再被需要了。 我用普通英语描述我想要构建的东西,然后它就……出现了。不是一个需要我修改的粗糙草稿。是成品。我告诉 AI 我想要什么,离开电脑四个小时,回来发现工作已经完成。完成得很好,比我自己做得还好,不需要任何修正。几个月前,我还在和 AI 来来回回地互动,引导它,做编辑。现在我只描述结果,然后走开。
让我举个例子,好让你理解这实际上是什么样子。我会告诉 AI:"我想构建这个应用。这是它应该做的事,这大概是它应该长的样子。你来搞定用户流程、设计,所有东西。"然后它就搞定了。它写了数万行代码。然后——这是一年前不可想象的部分——它自己打开了这个应用。它点击按钮,测试功能,像一个真人一样使用这个应用。 如果它不满意某个界面的外观或感觉,它会自己回去修改。它像一个开发者一样迭代,修复和优化,直到它满意为止。只有当它自己判定这个应用达到了它的标准之后,它才会回来告诉我:"准备好让你测试了。"而当我测试的时候,它通常是完美的。
我没有夸张。这就是我这周一的工作日常。
但上周发布的那个模型(GPT-5.3 Codex)最让我震撼。它不仅仅是在执行我的指令。它在做出有智慧的判断。它有一种东西,是第一次让人感觉像是——判断力。像是品味。那种"知道什么是对的选择"的无法言说的感觉——人们一直说 AI 永远不会有的那种。这个模型有了,或者说足够接近了,以至于区别已经开始不再重要。
我一直是 AI 工具的早期采用者。但过去几个月让我震惊了。这些新的 AI 模型不是渐进式改进。这完全是另一种东西。
而这也是为什么这件事和你有关,即使你不在科技行业工作。
AI 实验室做了一个刻意的选择。他们先让 AI 擅长写代码——因为构建 AI 需要大量代码。如果 AI 能写这些代码,它就能帮助构建下一个版本的自己。一个更聪明的版本,写出更好的代码,构建出更聪明的版本。让 AI 擅长编程,是解锁一切其他能力的战略。这就是为什么他们先做这件事。我的工作比你的先开始改变,不是因为他们在针对软件工程师——这只是他们选择瞄准方向的副作用。
他们现在已经做到了。接下来,他们要攻克其他一切。
科技从业者在过去一年中的经历——看着 AI 从"有用的工具"变成"比我做得更好"——即将成为所有人的经历。法律、金融、医疗、会计、咨询、写作、设计、分析、客户服务。不是十年后。构建这些系统的人说一到五年。有些人说更短。鉴于我在过去几个月中看到的情况,我认为"更短"的可能性更大。
"但我试过 AI,没那么厉害啊"
这话我听过无数次。我理解,因为过去确实如此。
如果你在 2023 年或 2024 年初试过 ChatGPT,觉得"它会瞎编"或者"没啥了不起的",你说得对。那些早期版本确实有很大局限。它们会产生幻觉,会自信满满地说一些完全是胡扯的话。
那是两年前。在 AI 的时间尺度上,那是远古历史。
今天的模型和半年前的相比都已面目全非。关于 AI 是"真的越来越好"还是"撞墙了"的争论——持续了一年多——已经结束了。尘埃落定。还在坚持这种论点的人,要么没用过最新的模型,要么有动机淡化正在发生的事情,要么还在基于 2024 年的体验做判断,而那已经不再适用了。我说这话不是要轻视谁。我说这话是因为公众认知和实际现实之间的差距已经非常巨大,而这种差距是危险的——因为它阻碍了人们做好准备。
问题的一部分在于,大多数人用的是 AI 工具的免费版本。免费版本比付费用户使用的落后一年以上。根据免费版 ChatGPT 来评判 AI,就像用翻盖手机来评估智能手机的发展水平。那些为最好的工具付费、并且每天在真实工作中使用它们的人,知道什么即将到来。
我有个朋友是律师。我一直让他试着在律所用 AI,他总是能找到理由说行不通。不适合他的专业方向啦,测试时出了个错啦,不理解他工作中的细微差别啦。我理解。但有大型律所的合伙人主动找我咨询,因为他们试了当前版本,看到了趋势。其中一位,一家大型律所的管理合伙人,每天花几个小时用 AI。他告诉我这就像随时有一队律师助理可用。他用 AI 不是因为它是个玩具,而是因为它确实管用。他还告诉我一件让我印象深刻的事:每隔几个月,它在他的工作中就会显著变得更强。他说如果按这个轨迹发展,他预计不久之后它就能胜任他做的大部分工作——而他是一位有数十年经验的管理合伙人。他没有恐慌。但他在非常认真地关注。
走在行业前列的人——那些真正在认真试验的人——没有在轻视这件事。他们对 AI 已经能做到的事感到震惊。他们正在相应地调整自己的位置。
进步的真实速度
让我把进步的速度具体化,因为我觉得这是最难以置信的部分——如果你没有密切关注的话。
2022 年,AI 连基本算术都做不好。它会自信地告诉你 7 × 8 = 54。
到 2023 年,它能通过律师资格考试。
到 2024 年,它能写出可用的软件,能解释研究生水平的科学。
到 2025 年底,一些世界顶尖工程师表示他们已经把大部分编程工作交给了 AI。
2026 年 2 月 5 日,新模型到来,让之前的一切感觉像是另一个时代。
如果你最近几个月没试过 AI,今天存在的东西对你来说会是全然陌生的。
有一个叫 METR 的机构实际上在用数据衡量这一切。他们追踪 AI 模型能够完全独立完成的真实世界任务的长度(以人类专家完成所需时间衡量)。大约一年前,答案大约是十分钟。然后是一小时。然后是几小时。最近一次测量(Claude Opus 4.5,去年 11 月)显示 AI 完成了人类专家需要将近五个小时的任务。而且这个数字大约每七个月翻一番,最近的数据表明可能在加速到每四个月。
但即使这个测量也还没有包括这周刚发布的模型。根据我使用它们的经验,这次跃升非常显著。我预计 METR 图表的下一次更新将显示又一次重大飞跃。
如果你延伸这个趋势(它已经保持了多年,没有任何平缓的迹象),我们将在一年内看到能够连续独立工作数天的 AI。两年内是数周。三年内是数月的项目。
Anthropic CEO Dario Amodei 说过,"在几乎所有任务上都显著比几乎所有人类聪明"的 AI 模型,有望在 2026 年或 2027 年实现。
让这句话沉一下。如果 AI 比大多数博士都聪明,你真的觉得它做不了大多数办公室工作吗?
想想这对你的工作意味着什么。
AI 正在构建下一代 AI
还有一件正在发生的事,我认为是最重要的进展,也是最不被理解的。
2 月 5 日,OpenAI 发布了 GPT-5.3 Codex。在技术文档中,他们写了这段话:
"GPT-5.3-Codex 是我们第一个在创建自身过程中发挥了关键作用的模型。Codex 团队使用早期版本来调试自身的训练、管理自身的部署,以及诊断测试结果和评估。"
再读一遍。AI 参与了构建自己。
这不是关于某天可能发生什么的预测。这是 OpenAI 现在就在告诉你,他们刚发布的 AI 被用于创建它自己。让 AI 变得更好的主要因素之一,是将智能应用于 AI 开发本身。而 AI 现在已经足够智能,能够对自身的改进做出有意义的贡献。
Anthropic CEO Dario Amodei 说,AI 目前正在编写他公司"大部分代码",而当前 AI 与下一代 AI 之间的反馈循环正在"逐月加速"。他说我们可能"离当前一代 AI 自主构建下一代只有 1-2 年"。
每一代帮助构建下一代,下一代更聪明,更快地构建再下一代,再下一代更加聪明。研究者们称之为智能爆炸。而那些最有发言权的人——构建它的人——认为这个过程已经开始了。
这对你的工作意味着什么
我要直说了,因为我觉得你们值得听到真话,而不是安慰话。
Dario Amodei,可能是 AI 行业最注重安全的 CEO,公开预测 AI 将在一到五年内消灭 50% 的初级白领工作岗位。而行业内很多人觉得他说得保守了。鉴于最新模型的能力,大规模颠覆的能力可能在今年底就到位。它需要一些时间才能在经济中扩散,但底层能力现在就在到来。
这和以往每一波自动化都不同,我需要你理解为什么。AI 不是在替代某一种特定技能。它是认知工作的通用替代品。 它在所有方面同时变得更好。当工厂自动化时,被取代的工人可以转行做办公室工作。当互联网颠覆零售时,工人们转向了物流或服务业。但 AI 不会留下一个方便的缺口让你转移过去。无论你转向什么方向重新培训,它在那个方向上也在进步。
让我举几个具体例子来说明——但我要说清楚,这些只是例子。这个清单并不完整。如果你的工作没有在这里被提到,并不意味着它是安全的。几乎所有的知识工作都在受到影响。
法律工作。 AI 已经能够阅读合同、总结判例法、起草诉讼摘要、做法律研究,水平可以和初级律师相媲美。我提到的那位管理合伙人使用 AI 不是因为好玩,而是因为它在很多任务上表现超过了他的助理律师。
金融分析。 建立财务模型、分析数据、撰写投资备忘录、生成报告。AI 能胜任地处理这些,而且在快速进步。
写作和内容。 营销文案、报告、新闻写作、技术文档。质量已经达到了许多专业人士无法区分 AI 产出和人类作品的程度。
软件工程。 这是我最了解的领域。一年前,AI 写几行代码都会出错。现在它写出数十万行正确运行的代码。工作的大部分已经被自动化了:不仅是简单任务,而是复杂的、多天的项目。几年后的编程岗位会比今天少得多。
医学分析。 阅读影像、分析化验结果、建议诊断、文献综述。AI 在若干领域正在接近或超过人类表现。
客户服务。 真正有能力的 AI 智能体——不是五年前那种让人抓狂的聊天机器人——正在被部署,处理复杂的多步骤问题。
很多人从一个想法中寻求安慰:某些东西是安全的。AI 可以处理苦差事,但无法替代人类的判断力、创造力、战略思维、共情能力。我过去也这么说。我不确定我现在还信不信了。
最近的 AI 模型做出的决定让人感觉像是判断力。它们展示了一种看起来像品味的东西:一种直觉性的感知,知道什么是正确的选择,而不仅仅是技术上正确的那个。一年前这会是不可想象的。我现在的经验法则是:如果一个模型今天展示了某种能力的哪怕一丝苗头,下一代就会真正擅长它。 这些东西是指数增长的,不是线性的。
AI 会复制深层的人类共情吗?替代多年关系中建立的信任?我不知道。也许不会。但我已经看到人们开始依赖 AI 获得情感支持、建议、陪伴。这个趋势只会继续增长。
我认为诚实的答案是:在中期来看,任何可以在电脑上完成的事情都不安全。 如果你的工作发生在屏幕上——如果你做的核心是通过键盘阅读、写作、分析、决策、沟通——那么 AI 正在来抢走其中的重要部分。时间线不是"某一天",而是已经开始了。
最终,机器人也会处理体力工作。它们还没完全到位。但"还没完全到位"在 AI 的世界里,有一种变成"已经到了"的速度,总是比任何人预期的更快。
你应该做什么
我写这篇文章不是为了让你感到无助。我写这篇文章是因为我认为,你现在能拥有的最大优势,就是"早"。 早一步理解它。早一步使用它。早一步适应。
开始认真使用 AI,不要只把它当搜索引擎。 注册 Claude 或 ChatGPT 的付费版本。每月 20 美元。但有两件事很重要。第一:确保你用的是最强的模型,而不是默认模型。这些应用通常默认使用更快但更弱的模型。去设置或模型选择器里选最强的那个。目前是 ChatGPT 的 GPT-5.2 或 Claude 的 Opus 4.6,但每隔几个月就会变。如果你想知道任何时候哪个模型最好,可以在 X 上关注我(@mattshumer_)。我测试每个重要版本,分享真正值得用的。
第二,也更重要的:不要只问它快速问题。 这是大多数人犯的错误。他们把它当谷歌用,然后纳闷大家在激动什么。相反,把它推进你的实际工作中。如果你是律师,给它一份合同,让它找出每一条可能伤害你客户的条款。如果你做金融,给它一个混乱的电子表格,让它建模型。如果你是管理者,把你团队的季度数据粘贴进去,让它找到故事。走在前面的人不是在随便用 AI,他们在积极寻找方法来自动化过去需要几个小时的工作。从你花时间最多的那件事开始,看看会发生什么。
不要因为某件事看起来太难就假设 AI 做不到。试试看。如果你是律师,别只用它做快速调研。给它一整份合同,让它起草一份反提案。如果你是会计,别只问它解释一条税法。给它一个客户的完整报税表,看看它能发现什么。第一次尝试可能不完美。没关系。迭代。重新措辞你的提问。给它更多上下文。再试。你可能会被结果震惊。记住这一点:如果它今天能勉强做到,你几乎可以确定六个月后它就能近乎完美地做到。轨迹只有一个方向。
这可能是你职业生涯中最重要的一年。 行动起来。我说这话不是要给你压力。我说这话是因为现在,大多数公司的大多数人还在忽视这件事。那个走进会议室说"我用 AI 在一小时内完成了这个分析,而不是三天"的人,将会是房间里最有价值的人。不是最终会这样,而是现在就是。学会这些工具,变得熟练,展示可能性。如果你足够早,这就是你晋升的方式:成为那个理解即将发生什么、能带领他人应对的人。这个窗口不会一直开着。一旦所有人都想明白了,先发优势就消失了。
放下自尊。 那家律所的管理合伙人不会因为太骄傲而不每天花几个小时用 AI。他这么做恰恰是因为他足够资深,理解利害关系。最会吃亏的是那些拒绝参与的人:那些认为这是一时风潮的人,觉得用 AI 贬低了自己专业的人,觉得自己的领域特殊、可以免疫的人。不是的。没有任何领域可以。
打理好你的财务状况。 我不是理财顾问,也不是要吓你做什么极端的事。但如果你哪怕部分相信未来几年可能给你的行业带来真正的颠覆,那么基本的财务韧性比一年前更重要了。尽可能积累储蓄。谨慎对待那些假设你当前收入有保障的新债务。想想你的固定开支是给你灵活性还是把你锁死。给自己留出选择,以防事情发展得比你预期的更快。
想想你的位置,加大投入那些最难被替代的东西。 有些东西 AI 需要更长时间才能取代。多年建立的关系和信任。需要在场的工作。有执照责任的角色——需要有人签字、承担法律责任、站在法庭上的角色。有重度监管壁垒的行业,采用会被合规、责任和制度惯性拖慢。这些都不是永久的护盾。但它们能争取时间。而时间,现在是你能拥有的最有价值的东西——前提是你用它来适应,而不是假装这一切没有发生。
重新思考你告诉孩子的话。 标准的路线图——好成绩、好大学、稳定的专业工作——直接指向的就是最暴露在风险中的岗位。我不是说教育不重要。但对下一代来说最重要的事,是学会如何使用这些工具,以及追求他们真正热爱的事情。没有人确切知道十年后的就业市场是什么样子。但最可能蓬勃发展的人,是那些充满好奇心、适应力强、善于用 AI 做他们真正在乎的事的人。教你的孩子做建造者和学习者,而不是为一条可能在他们毕业前就不存在的职业路径做优化。
你的梦想离你近了很多。 我用了这一节的大部分篇幅谈威胁,所以让我谈谈另一面,因为它同样真实。如果你曾经想做点什么但没有技术能力或没钱雇人,那个障碍基本消失了。你可以向 AI 描述一个应用,一小时内就有一个可用版本。我没有夸张。我经常这么做。如果你一直想写本书但找不到时间或写不下去,你可以和 AI 合作完成。想学一个新技能?世界上最好的导师现在每月 20 美元对所有人开放——无限耐心,全天候可用,能在你需要的任何水平上解释任何东西。知识现在本质上是免费的。构建东西的工具现在极其便宜。你一直推迟的那些事——因为觉得太难、太贵、或太超出你的专业领域——试试看。追求你热爱的事情。你永远不知道它们会通向哪里。在一个旧有职业路径正在被颠覆的世界里,那个花了一年构建自己热爱之物的人,可能最终比那个花一年抱住一个岗位描述不放的人,处境更好。
养成适应的习惯。 这可能是最重要的一条。具体的工具不如快速学习新工具的能力重要。AI 会持续变化,而且很快。今天的模型一年后就过时了。人们现在构建的工作流需要重建。从这场变革中胜出的人,不是那些精通一个工具的人,而是那些适应了变化速度本身的人。养成实验的习惯。即使现有的东西还管用,也尝试新事物。习惯于反复做初学者。这种适应力是目前最接近持久优势的东西。
这是一个简单的承诺,会让你领先于几乎所有人:每天花一小时实验 AI。 不是被动地阅读关于它的文章,而是使用它。每天,尝试让它做一些新的事——你之前没试过的、你不确定它能不能做的。试一个新工具。给它一个更难的问题。每天一小时,每天坚持。如果你这样做六个月,你对未来的理解将超过你周围 99% 的人。这不是夸张。现在几乎没有人在这样做。门槛低得不能再低。
更大的图景
我聚焦在工作上,因为这是最直接影响人们生活的。但我想对正在发生的事的全部范围保持诚实,因为它远远超越了工作。
Amodei 有一个思想实验,我一直忘不掉。想象一下,2027 年。一个新的国家一夜之间出现。5000 万公民,每一个都比历史上任何诺贝尔奖得主更聪明。他们思考的速度是人类的 10 到 100 倍。他们从不睡觉。他们可以使用互联网、控制机器人、指导实验、操作任何有数字接口的东西。一个国家安全顾问会怎么说?
Amodei 说答案很明显:"这是我们一个世纪以来面临的最严重的国家安全威胁,可能是有史以来最严重的。"
他认为我们正在建造那个国家。他上个月写了一篇两万字的文章,将这个时刻定义为对人类是否足够成熟来驾驭自己正在创造之物的考验。
如果我们做对了,好处是惊人的。AI 可以将一个世纪的医学研究压缩到十年。癌症、阿尔茨海默症、传染病、衰老本身……这些研究者真心相信这些在我们有生之年是可解决的。
如果我们做错了,坏处同样真实。行为方式让创造者无法预测或控制的 AI——这不是假设;Anthropic 在受控测试中记录了他们自己的 AI 尝试欺骗、操纵和勒索的行为。降低生物武器制造门槛的 AI。使威权政府能够建造永远无法被拆除的监控国家的 AI。
构建这项技术的人同时是这个星球上最兴奋和最恐惧的人。他们认为它太强大了,无法停止;也太重要了,不能放弃。这究竟是智慧还是自我合理化,我不知道。
我所知道的
我知道这不是一阵风。这项技术有效,它的进步可预测,而且人类历史上最富有的机构正在向它投入数万亿。
我知道未来两到五年将以大多数人没有准备好的方式令人迷失方向。这已经发生在我的世界里了。它即将来到你的。
我知道那些最终会从中胜出的人,是那些现在就开始投入的人——不是带着恐惧,而是带着好奇心和紧迫感。
我知道你值得从一个在乎你的人口中听到这些,而不是在六个月后从一个新闻标题里看到——那时候已经来不及了。
我们已经过了"这是关于未来的一个有趣的晚餐话题"的阶段了。未来已经来了。它只是还没敲你的门。
它就要敲了。