智东西(公众号:zhidxcom)
编译|万贵霞
编辑|云鹏
智东西1月27日消息,据英国《金融时报》昨日报道,Anthropic的CEO达里奥·阿莫迪(Dario Amodei)26日发布了一篇长达约两万字的文章《技术的青春期(The Adolescence of Technology)》,系统阐述了未来几年强大的AI技术可能带来的灾难性风险。
人类拥有AI技术,但却无法熟练驾驭AI。
阿莫迪在文中直言,“人类需要清醒过来,一些AI公司对当前模型中出现的儿童性化问题表现出令人不安的漠视。”他同时警告,失控的AI技术可能带来从大规模失业到生物恐怖主义等一系列极端后果。

▲1月26日,Anthropic的CEO达里奥·阿莫迪在X上发帖公布其撰写的文章《技术的青春期》(图源:X)
以下是阿莫迪两万字文章《技术的青春期》的金句提炼:
1、AI时代考验:我们正进入一个关键时期,人类拥有强大的AI技术,而我们的社会、政治和技术体系驾驭 AI的成熟度,仍是未知数。
2、应对AI风险原则:2026年的我们比2023年时更接近AI风险,我们需要以现实、务实的态度讨论和应对风险,保持冷静、立足事实,并具备应对趋势变化的能力。
3、强大的AI定义:我所说的“强大的AI”,是指一种AI模型,我们可以将其总结为“数据中心中的天才国家”。
4、AI发展速度预判:如果AI持续指数级增长,那么AI在几乎所有领域超越人类,也不过是几年时间。
5、AI价值与风险并存:AI创造难以估量的经济价值,同时提升人类的生活质量,但也有可能让人用来搞破坏,因为只有少数具备高技能、经过专业训练且专注投入的人才能正确使用AI。
6、AI与专制风险:人类在执行不人道行为时往往存在底线,AI驱动的专制政权,则不会受到限制。
7、AI对就业的冲击:AI的进步速度远超以往任何一次技术革命,人们很难跟上这种变化的节奏,无论是工作方式的调整,还是转换新工作的需求,都让人难以适应。
8、AI的劳动替代属性:AI并非是取代人类特定工种的工具,而是可以替代人类一般性劳动的存在。
9、AI风险的制衡关系:AI正从多个维度向人类发起挑战,不同危险之间存在着真实的制衡关系,如果我们处理时不够谨慎,那么减轻某一类风险的同时,可能加剧其他危险的危害程度。
外媒普遍认为,这篇文章标志着AI行业最具影响力的企业家之一,罕见地就当前AI安全保障不足发出了强烈警告。
一、Anthropic CEO对强大的AI系统性风险的判断
Anthropic是OpenAI的竞争对手。达里奥·阿莫迪曾是OpenAI的早期核心成员,但在2020年因与萨姆·阿尔特曼(Sam Altman)在公司发展方向及AI安全理念上出现分歧而离开,随后与他人共同创立了Anthropic。
目前,Anthropic正与包括微软、英伟达在内的科技巨头,以及新加坡主权财富基金GIC、Coatue、红杉资本等投资方洽谈新一轮融资,融资规模可能达到250亿美元(约合人民币1739.5亿元)甚至更高,公司估值或升至3500亿美元(约合人民币2.4万亿元)。
在文章中,阿莫迪重点描述了强大的AI系统可能带来灾难性的风险。这类AI系统将“在几乎所有领域超越任何诺贝尔奖得主、政治家或技术专家”,而这一节点,他判断很可能在未来几年内到来。

▲达里奥·阿莫迪对强大的AI(powerful AI)的定义(图源:The Adolescence of Technology原文)
强大的AI所带来的最极端的风险之一,是普通个人可能借助AI研发出致命级别的生物武器,造成数百万人死亡,甚至“在最坏的情况下,摧毁地球上的所有生命”。
阿莫迪担心,如果每个人都能轻易掌握AI技术,那么门槛就会被彻底消除,人人都能成为病毒学博士,并能一步步地学习如何设计、合成和释放生物武器。

▲阿莫迪担心有人利用AI进行生物破坏。(图源:The Adolescence of Technology原文)
他同时警告,AI还有可能“失控并压制人类”,或被独裁者和其他恶意行为体利用,最终导致“全球性的极权统治”。
不过,阿莫迪也在文中明确提到,这并非对技术未来的确定性判断,而是一种“低概率、高后果”的风险评估。他认为,正因为结果不可逆,人类才有必要在风险显性化之前提前干预。
此外,阿莫迪认为,AI可能会在未来1到5年内取代多达50%的入门级白领工作岗位,并推动经济权力和财富进一步向硅谷集中。
对于AI滥用问题,他补充说,即便AI不发生失控或恶意滥用,仅从生产效率角度看,其对劳动力结构、技能需求和组织形态的冲击,也足以对社会运行方式构成长期挑战。
二、AI模型安全问题引发的行业与政策讨论
在文中,阿莫迪以儿童性化这一备受争议的话题为例,虽然他没有直接点名xAI,但目前xAI开发的Grok模型正因未经同意对真人图像进行性化处理而在多个国家面临调查。

▲1月26日,埃隆·马斯克的xAI正面临欧盟的调查,以查明其是否传播非法内容,此前该平台引发公众强烈抗议。(图源:路透社)
阿莫迪写道:“一些AI公司在当前模型中,对儿童性化问题表现出令人不安的疏忽,这让我怀疑,他们是否真的有意愿或能力,在未来更强大的模型中应对自主性风险。”
事实上,早在2023年,生物武器、自主武器以及恶意国家行为体等AI安全议题,就已成为全球公共讨论的焦点,这在一定程度上正是受到阿莫迪等业内人士持续警告的推动。这类讨论的积极意义在于推动行业形成最低安全共识,但如果缺乏可执行的技术标准与持续评估机制,仅靠原则性表态难以真正降低风险。

▲行业形成的应对AI风险共识,有助于推动政策性变革(图源:The Adolescence of Technology原文)
同年,英国政府在布莱切利庄园举办了首届AI安全峰会,多国政府与AI实验室达成共识,承诺共同应对相关风险,下一场会议计划于今年2月在印度举行。
不过,阿莫迪说,当前围绕AI的政治决策,正越来越多地被“抓住技术红利”的诉求所主导,而非“主动降低风险”。
阿莫迪是AI行业中最积极倡导AI立法的人士之一。“我会支持以公民自由为中心的立法,甚至可能是宪法修正案,来加强对AI滥用行为的防范。”他说,尽管Meta和微软支持联邦政府大于州级AI法律,但Anthropic公司支持加州和纽约州的AI透明度法案现已生效。
他写道:“AI的快速发展,可能会造成一些我们现有的法律框架无法妥善应对的情况。”这就是阿莫迪会不惜一切代价支持宪法修正案的原因。
结语:加速与失控之间,AI走向关键拐点
就在上个月,美国前总统特朗普签署了一项行政命令,试图阻止各州加强对AI公司的监管。去年,他还公布了一份AI行动计划,核心目标是进一步加速美国的技术创新步伐,AI监管已经明显滞后于技术发展速度。
在资本、算力和政策共同推动下,AI正以前所未有的速度向前狂奔。但正如阿莫迪所警告的那样,真正的问题已不再是“AI能做什么”,而是“人类是否准备好承受它的后果”。
原文链接:https://www.darioamodei.com/essay/the-adolescence-of-technology#fnref:10
来源:金融时报、路透社