Anthropic专注AI安全研究的前OpenAI团队初创公司
Anthropic是一家成立于2021年,是一家位于美国加州旧金山的人工智能股份有限公司。它由OpenAI前高层达里奥·阿莫迪和丹妮拉·阿莫迪兄妹创立,现任首席执行官是达里奥·阿莫迪。这家公司挺特别,核心目标就是构建可靠、可解释和可操纵的AI系统,说白了,就是想让AI变得更安全、更可控。

Anthropic具体做什么?
Anthropic最知名的产品是大语言模型Claude。2023年3月,他们发布了Claude系列模型,包括Claude、Claude 2、Claude 2.1,以及2024年的Claude 3模型家族和Claude 3.5。这些模型。这些模型有个特点,就是采用了“宪法AI原则”来训练,目的是让AI的行为更符合人类价值观对齐。公司还推出了。公司团队规模不大,但很多成员曾参与过GPT-2、GPT-3模型的研发,技术底子确实扎实。
为什么Anthropic很重要?
这家公司的诞生本身就说明了一个问题:AI安全到底有多重要?创始人从OpenAI出走,带着一套“AI必须讲道德”的理念创立了Anthropic。他们强调AI系统要可解释、可操纵,而不是一味追求能力提升。在融资方面,Anthropic获得了谷歌、亚马逊等巨头的支持——2023年谷歌投资约3亿美元并持股10%,亚马逊则在2024年多次追加投资,总额相当可观。这反映出市场对安全AI路线的认可。
Anthropic的融资历程
公司成立后融资速度很快:2021年5月获得1.年5月获得1.24亿美元A轮融资,2022年4月B轮融资5.8亿美元,2023年5月C轮融资4.5亿美元。2023年2月谷歌投资约3亿美元,同年9月亚马逊初始投资12.5亿美元。2024年3月亚马逊追加27.5亿美元,11月再追加40亿美元。可以说,资本对这家公司的信心是持续增强的。
Anthropic的产品与项目
除了Claude系列模型,Anthropic还涉足美国君事与情报领域的项目。公司推出的Claude 2.1拥有200K的上下文窗口,这在当时算是很大的容量。2024年3月,Claude 3 Sonnet模型已在亚马逊云科技的Amazon Bedrock正式可用。这些产品都围绕一个核心:让AI更安全、更可靠。
Anthropic的团队与理念
公司由达里不少员工来自OpenAI,参与过GPT-2、GPT-3的研发。这种背景让Anthropic在AI安全研究上有着独特的视角。他们不追求模型参数的最大化,而是强调“宪法AI原则”——这难道不是一种更负责任的AI发展路径吗?