Anthropic是一家由OpenAI前高管达里奥·阿莫迪和丹妮拉·阿莫迪于2021年创立的AI公司,总部位于美国加州旧金山。这家公司专注于构建可靠、可解释和可操纵的AI系统,其核心产品是Claude系列大语言模型。可以说,Anthropic从成立之初就把AI安全研究作为自己的立身之本。
Anthropic到底在做什么?简单来说,它做的是大语言模型,但更关键的是它提出了“宪法AI原则”——一种让AI系统在训练阶段就内嵌价值观和行为准则的方法。这跟其他AI公司有什么不同呢?其实,Anthropic的团队大部分成员曾参与过GPT-2、GPT-3的研发,按理说他们完全可以走OpenAI的老路,但他们偏偏选择了一条更“麻烦”的路:让AI不仅聪明,还要安全可控。
为什么Anthropic这么重要?咱们想想,当AI系统越来越强大,如果它不听话、不可解释,那后果挺可怕的。Anthropic的“宪法AI”理念,本质上是在给AI立规矩——让它在回答问题时自动遵守一套预设的论理准则。这难道不是AI行业最需要的东西吗?2023年谷歌投资3亿美元持股10%,亚马逊更是先后投入12.5亿、27.5亿甚至40亿美元,这些巨头真金白银的押注,本身就说明Anthropic的方向确实被看好。
从产品上看,Anthropic在2023年3月推出Claude,7月发布Claude 2,11月又推出拥有200K上下文窗口的Claude 2.1。2024年3月,Claude 3系列模型发布,紧接着6月又推出了Claude 3.5。这个迭代速度挺快的,而且每次升级都在提升模型的理解能力和安全性。
在融资方面,Anthropic的节奏也很清晰:2021年5月获得1.24亿美元A轮融资,2022年4月B轮融资5.8亿美元,2023年5月C轮融资4.5亿美元。加上谷歌和亚马逊的持续加注,这家公司目前已经拿到了相当可观的资金支持。没错,资本市场的态度很明确——AI安全研究不是空谈,而是有商业价值的赛道。
最后回到Anthropic的创始团队。达里奥·阿莫迪和丹妮拉·阿莫迪兄妹都是OpenAI的前高管,他们选择离开OpenAI另起炉灶,本身就说明了对AI安全方向的执着。一个由前OpenAI高管创立的、专注AI安全研究的公司,凭什么不值得关注?就凭它正在用“宪法AI”重新定义AI与人类的关系。