【重磅专访】Anthropic CEO Dario Amodei:Claude 3.7背后的秘密与AI未来两年的惊人预测
【重磅专访】Anthropic CEO Dario Amodei:Claude 3.7背后的秘密与AI未来两年的惊人预测
📺 原视频地址:Hard Fork: Anthropic’s CEO on Claude 3.7 and the A.I. Arms Race With China
在《纽约时报》科技专栏记者Kevin Roose和Platformer创始人Casey Newton主持的Hard Fork播客最新一期节目中,Anthropic的CEO兼联合创始人Dario Amodei接受了一次坦诚而广泛的访谈。这位曾在Google和OpenAI工作过的AI安全领域先驱,不仅介绍了Anthropic最新发布的Claude 3.7 Sonnet模型,还分享了他对AI未来发展的大胆预测——**他认为有70-80%的可能性在2026-2027年出现”比人类在几乎所有方面都更聪明的AI系统”**!
💥 重磅预告:Claude 4即将到来!
访谈中最令人振奋的消息莫过于Amodei透露的Claude 4即将发布的消息。他直言不讳地表示:
“我们正在为Claude 4 Sonnet,以及可能序列中的其他一些模型保留给那些真正具有实质性飞跃的东西。顺便说一句,这些模型即将推出。“
Amodei进一步解释道:
“我们离发布一个更大的基础模型(Claude 4 sonnet)不远了。因此,Claude 3.7 Sonnet以及Claude 3.6 Sonnet中的大部分改进都在后期训练阶段。但我们正在研究更强大的基础模型,也许那就是Claude 4系列。也许不是。让我们拭目以待。但我认为它们将在相对较短的时间内推出。”
这一重磅消息表明,Anthropic不仅在持续改进现有模型,更在积极开发下一代具有”实质性飞跃”的AI系统,这可能会在AI能力上带来质的飞跃。
本文将为您揭示这次访谈中的核心亮点,带您了解AI行业最前沿的思考和未来发展方向。如果您想直接观看完整访谈,可以点击上方链接访问YouTube原视频。
🔥 Claude 3.7 Sonnet:不只是另一个推理模型
“这些推理模型就像人类有两个大脑一样,一个用来回答’你叫什么名字’这样的简单问题,另一个用来证明数学定理。这很奇怪,不是吗?” —— Dario Amodei
Amodei首先介绍了Anthropic最新发布的Claude 3.7 Sonnet模型。与市场上其他专注于数学和竞赛编程的推理模型不同,Claude 3.7更注重现实世界的任务应用。
模型特点与创新
统一的模型架构:不同于其他公司将”普通模型”和”推理模型”分开的做法,Claude 3.7是一个统一的模型,能够根据任务需求自动调整思考方式。Amodei用了一个生动的比喻:”这就像如果人类有两个大脑,一个用来回答简单问题,另一个用来证明数学定理。”
扩展思考模式:用户可以启用”扩展思考模式”,允许模型进行更长时间的思考。API用户甚至可以设定思考的边界和时长。Amodei透露,未来的目标是让模型自己决定需要思考多长时间,就像人类一样。
实际应用优势:在编码、复杂指令理解、文档分析等方面表现出色,特别适合企业级应用。Amodei提到了多家使用Claude的知名客户,包括Quora、GitHub、Windsurf Codium、Cognition和Vercel等。
即将推出的功能:Amodei透露,网络搜索功能”即将推出”,这将弥补当前模型的一个明显缺陷。他承认这是一个疏忽,表示这更多是一个消费者功能,而Anthropic传统上更专注于企业应用。
模型命名的有趣故事
关于模型命名的混乱(从3.5跳到3.7),Amodei幽默地承认这是一个失误,但解释说:”更改API中的名称比训练模型本身更困难,我告诉你!”这引起了主持人的笑声,Kevin Roose(《纽约时报》记者)调侃道:”你可以解决这个问题的!”
Amodei完整的解释是:
“我们是最不疯狂的,尽管我承认我们也很疯狂。听着,我认为我们在这里犯的错误相对来说是可以理解的。我们制作了一个3.5 Sonnet。我们在那方面做得很好。我们有3.0系列,然后是3.5系列。我承认新的3.7是一个失误。事实证明,在API中更改名称实际上很困难,尤其是在有这么多合作伙伴和你提供服务的平台的情况下。这比训练模型更难,我告诉你。所以我们已经追溯地,非正式地将上一个命名为3.6,这样这个命名为3.7就说得通了。”
第4代模型的惊人飞跃
在访谈中,Amodei明确表示,Anthropic正在为真正具有”实质性飞跃”的模型保留Claude 4的名称。他透露公司正在开发的第4代模型将带来显著的能力飞跃,而不仅仅是渐进式改进:
“我们正在为Claude 4 Sonnet,以及可能序列中的其他一些模型保留给那些真正具有实质性飞跃的东西。顺便说一句,这些模型即将推出。”
Amodei进一步解释,Claude 3.7和之前的3.6版本主要是在后期训练阶段进行的改进,而公司正在研究的更强大基础模型可能会成为Claude 4系列,这些新模型将在”相对较短的时间内推出”。
这一重要信息表明,Anthropic不仅在持续优化现有模型,更在为下一代AI系统的重大突破做准备,这可能会在模型的推理能力、知识应用和任务执行效率等多个方面带来质的飞跃。
⚠️ AI安全警告:未来3-6个月可能达到”中等风险”水平
作为AI安全领域的先驱,Amodei发出了一个令人震惊的警告:在未来3-6个月内,AI模型可能会达到”中等风险”水平。这是一个重要的时间节点,意味着模型如果不加以缓解,可能会增加危险事件发生的风险。
当前与未来的风险
Amodei强调了区分当前风险和未来风险的重要性:
风险评估方法:Anthropic进行类似”试验”的测试,评估模型在特定领域(如生物学)是否会帮助不具备专业知识的人执行潜在危险的工作流程。他们甚至进行”湿实验室试验”,在现实世界中模拟制造危险物品的过程。
中等风险时间线:他预测在未来3-6个月内,AI模型可能会达到”中等风险”水平。Amodei解释道:”这并不意味着我们明天都会死于瘟疫,而是意味着世界上存在一个新的风险向量。”
负责任的扩展政策:一旦风险达到特定阈值,Anthropic的”负责任扩展程序”将启动,实施额外的安全措施和部署措施,特别针对这些非常狭窄的风险。
安全与创新的平衡
Amodei指出了当前AI讨论环境中的一个悖论:
“与我们今天看到的环境相反,在这种环境中人们对风险的担忧减少了,但背景中的风险实际上一直在增加。指数增长不关心社会趋势或政治意愿,风险正在增加,无论你是否关注它。”
🌍 国际AI竞争:与中国的”AI军备竞赛”
访谈的一个重要部分讨论了国际AI竞争,特别是与中国的竞争及其对国家安全的影响。
深度学习公司DeepSeek的启示
Amodei提到了他关于中国AI公司DeepSeek的文章,认为这家公司的崛起表明中国正在与前沿实验室保持同步,这对国家安全有重要影响:
“我一直担心,可能已经担心了十年,AI可能成为专制政权的引擎。如果你考虑压制性政府,他们能够多么压制通常取决于他们能让他们的执行者——人类执行者——做什么。但如果他们的执行者不再是人类,那就开始描绘出一些非常黑暗的可能性。”
出口管制与技术优势
Amodei支持加强对中国的AI技术出口管制,认为这是防止专制国家获得军事优势的必要措施。他提到了特朗普政府正在考虑加强出口管制的消息,表示这是令人鼓舞的。
对”AI军备竞赛”批评的回应
当主持人Casey Newton(Platformer创始人)提到一些AI安全会议上有人批评Amodei促进与中国的”AI军备竞赛”时,Amodei给出了一个深思熟虑的回应:
国内合作与国际竞争:在民主国家内部,可以通过法律和自愿承诺来控制AI发展速度;但在国际竞争中,没有权威机构可以执行任何美中之间的协议。
时间优势的重要性:如果美国领先中国几年,可以利用这几年的时间使技术更安全;如果与中国并驾齐驱,竞赛将不可避免。
减缓专制国家发展的策略:通过减缓专制国家的AI发展,可以为民主国家之间制定安全标准赢得更多时间。
🔮 惊人预测:2026-2027年可能出现超越人类的AI系统
Amodei对AI未来发展提出了一些大胆的预测和深刻的见解,这些预测比他在2023年接受Hard Fork采访时更加确定。
时间线预测
AGI时间线:Amodei估计有70-80%的可能性在本十年结束前出现”比人类在几乎所有方面都更聪明的AI系统”,他猜测可能在2026年或2027年。这比他之前40-50%的估计大幅提高。
编码能力:他预计到2025年底,AI在编码方面将达到非常严肃的水平,到2026年底可能接近最优秀人类的水平。
地理认知差异:Amodei指出了一个有趣的现象——对AI变革的认知存在地理差异。他说:”在旧金山,人们有一种根深蒂固的感觉,在一两年内,我们将生活在一个被AI彻底改变的世界。但向任何方向走100英里,这种信念就完全消散了。”
AI的积极影响:已经在发生的变革
Amodei也分享了AI已经带来的一些积极影响:
医疗加速:与制药公司合作,将原本需要9周完成的临床研究报告缩短至3天。他解释道:”Claude只需要10分钟,人类只需要3天来检查结果。”
医疗诊断:他提到收到Claude用户的来信,讲述如何使用Claude诊断复杂的医疗问题,在多位医生之间往返后,Claude能够提供有价值的信息。
宠物健康案例:主持人Kevin Roose分享了一个听众的故事,他们的澳大利亚牧羊犬毛发莫名脱落,几位兽医都无法确诊。将信息提供给Claude后,Claude正确诊断出狗狗是因为压力过大导致毛发脱落。Amodei幽默地回应:”可怜的狗,我们希望它好起来。”
社会转型与个人应对
关于如何应对即将到来的AI变革,Amodei提供了一些实用建议:
保持基本生活方式:继续储蓄退休金、保持健康,但可能更关注当前两年的影响力。他说:”我思考了很多,因为我长期以来一直相信这些变化会发生,但总的来说,这并不意味着你的生活需要太大改变。”
提高批判性思维:随着越来越多听起来超级智能的内容出现,保持基本的批判性思维和街头智慧变得更加重要。
职业考虑:特别是在IT和编程领域,短期内AI会增强程序员的生产力,但在更长期(可能是18-24个月而非6-12个月)可能会开始替代初级开发人员。
个人情感影响:Amodei坦诚地分享了自己的感受:”作为一个程序员,当我想到AI可能在2025年底达到非常严肃的编码水平,甚至接近最优秀人类的水平时,即使作为构建这项技术的人,即使作为从中受益最多的人,我仍然感到有些威胁。”
🔄 AI安全与政治极化:理性对话的障碍
Amodei表达了对AI安全讨论日益政治化的担忧,这成为理性对话的重要障碍。
政治极化的影响
左右分化:关心AI安全被编码为”左派”或”自由派”,而加速发展和减少监管被视为”右派”立场。Amodei指出:”解决风险同时最大化收益需要细微和复杂的讨论,一旦事情被极化,一旦变成为这组词欢呼、为那组词嘘声,就没有好事发生。”
理性对话的障碍:他强调:”为每个人带来AI福利,比如治愈以前无法治愈的疾病,这不是一个党派问题,左派不应该反对。防止AI系统被滥用于大规模杀伤性武器或以威胁基础设施甚至威胁人类的方式自主行动,这也不是一个党派问题,右派不应该反对。”
对巴黎AI行动峰会的失望
Amodei对最近在巴黎举行的AI行动峰会表示深深的失望:
“我对峰会深感失望。它有贸易展的环境,与英国政府在布莱切利公园创建的原始峰会精神大相径庭。布莱切利做得很好,英国政府做得很好,他们没有在知道自己在做什么之前引入一堆繁重的监管,但他们说,嘿,让我们召开这些峰会来讨论风险。”
他进一步警告政治和商业领导人:”人们会在2026年和2027年回顾,当人类希望度过这个疯狂的时期,进入一个成熟的后强大AI社会时,每个人都会回顾并说,那么官员们、公司人员、政治系统做了什么?你的首要目标可能是不要看起来像个傻瓜。”
💡 结语:AI的情感影响与未来社会
在访谈结束部分,Amodei讨论了AI对人类情感和社会的深远影响。
AI对人类情感的影响
Amodei引用了自己在《爱的机器》(Machines of Loving Grace)一文中的观点,预测当强大的AI到来时,人们会有一种情感体验,既有失落感,也有成为更伟大事物一部分的认同感。
“会有一种和解,一种综合,在另一边我们最终会到达一个好的地方,一个更好的地方,我们认识到虽然有很多变化,但我们是更伟大事物的一部分。”
围棋与国际象棋的启示
当主持人Casey Newton提到李世石(世界围棋冠军)被DeepMind的AlphaGo击败后的悲伤反应时,Amodei提供了一个乐观的对比:
“看看国际象棋,国际象棋在27、28年前被击败了,深蓝对卡斯帕罗夫。今天,国际象棋选手是名人,就像他们过去一样。我们有马格努斯·卡尔森,他不仅是国际象棋选手,还是时尚模特,最近还上了乔·罗根的节目。他是名人,我们认为这个人很棒,我们并没有真正贬低他。”
这次访谈提供了对AI行业当前状态和未来发展的深刻见解。作为Anthropic的CEO和AI安全领域的先驱,Dario Amodei的观点既反映了行业内部的思考,也为我们理解AI可能带来的社会变革提供了宝贵视角。
随着Claude 3.7 Sonnet的发布和更强大模型的开发,我们正站在AI发展的关键时刻,需要认真思考如何平衡创新与安全,最大化AI的积极影响同时减少潜在风险。Amodei的预测——2026-2027年可能出现超越人类的AI系统——给我们敲响了警钟,也为我们描绘了一个充满可能性的未来。
🎬 观看完整访谈:想了解更多细节和Dario Amodei的原话,请观看Hard Fork完整访谈视频