核心观点摘要
- AGI时间线预测:Ben Mann认为,达到某种超级智能的50%概率大约在2028年。
- AI安全的重要性:Mann离开OpenAI创立Anthropic的核心原因在于对AI安全的重视。他认为,一旦达到超级智能,对齐模型可能为时已晚。
- 变革性人工智能:Mann倾向于使用“变革性人工智能”(Transformative AI)这一术语,其核心判断标准是能否引发实质性的社会与经济变革。
- 经济图灵测试:通过经济图灵测试的AI将能够替代约50%的工作岗位,可能导致高达20%的失业率。
- 宪法式AI:Anthropic通过“宪法式AI”(Constitutional AI)的方法,将一套类似宪法的原则融入模型的训练中,以确保AI的安全性和可靠性。
- 个人应对策略:Mann建议个人在AI浪潮中立足的关键在于培养好奇心、创造力和善良等核心人类品质。
AI人才争夺战与加速发展的现实
当前AI领域的竞争激烈程度在人才市场上表现得淋漓尽致。Meta等巨头不惜以过亿美元的薪酬方案从顶尖实验室挖角,这恰恰体现了AI技术的极高价值。然而,Anthropic在这次人才争夺战中受影响相对较小,其核心原因在于公司强烈的使命驱动。这种使命感是Anthropic凝聚顶尖人才的关键。
对于外界普遍感受到的“AI发展正在放缓”的论调,Mann给出了截然相反的判断。他认为,进展实际上正在加速,真正的瓶颈并非技术本身,而是我们提出更好基准和目标的能力。
重新定义AGI:从经济图灵测试到社会变革
对于行业热议的AGI(通用人工智能),Mann倾向于使用一个更具现实意义的术语——“变革性人工智能”(Transformative AI)。其核心判断标准并非机器能否像人一样思考,而是它是否能引发实质性的社会与经济变革。他引用了“经济图灵测试”这一概念来具体衡量,当AI能够通过约50%的工作岗位的测试时,就意味着变革性AI的到来。
Mann进一步指出,人们低估了AI对工作场所的渗透速度,部分原因在于人类不擅长理解指数级增长。他预言,未来20年,当世界越过“奇点”,资本主义的形态本身都可能发生改变。
Anthropic的创立:安全是第一要务
Anthropic的创立故事本身就是对AI安全重要性的一次宣言。Mann与多位核心成员均来自OpenAI的GPT-3项目,他们离开的根本原因在于对安全优先级的认知分歧。这种坚持源于对潜在风险的清醒认识。Mann引用了其内部制定的AI安全等级(ASL)来说明,目前模型处于ASL 3级,有一定危害风险;ASL 4级可能被滥用于造成重大伤亡;而ASL 5级则可能达到灭绝级别的生存风险(X-risk)。
Anthropic选择了一条更艰难但也更负责任的道路:主动暴露模型的潜在风险,以此推动整个行业的警觉和政策制定。
构建对齐的AI:宪法、人格与信任
为了解决安全对齐的核心难题,Anthropic开创了名为“宪法式AI”(Constitutional AI)的独特方法,其核心是RLAIF(Reinforcement Learning from AI Feedback),即利用AI自身的反馈进行强化学习。这个过程是将一套类似宪法的原则——其内容源自《联合国人权宣言》、苹果的服务条款等——融入模型的训练中。
这一过程产生了意想不到的积极效果:塑造了Claude模型独特的人格。一个更可靠、诚实且不易谄媚(sycophancy)的AI,其本身就是安全性的体现。这种通过价值观构建信任的路径,是Anthropic在商业竞争中独树一帜的护城河。
个人如何在AI浪潮中立足
面对即将到来的剧变,个人应如何自处?Mann的建议并非学习某种特定技能,而是培养更底层的核心素养。首先是在使用工具方面要有雄心壮志。他鼓励人们大胆尝试使用AI工具完成看似不可能的任务,并保持耐心。
而对于下一代的教育,他的关注点更是远离了传统的学业竞争。他认为,好奇心、创造力和善良这些核心人类品质,将是在AI时代保持自身价值和幸福感的关键。
与Ben Mann的对话让人深刻感受到一种交织着兴奋与忧虑的复杂情绪。他既是推动技术指数级发展的引擎,也是试图为这列飞速行驶的列车铺设安全轨道的工程师。他相信,人类极有可能迎来一个前所未有的繁荣未来,但也清醒地认识到,那条通往美好未来的道路极其狭窄,稍有不慎就可能坠入深渊。