Anthropic专注企业级AI安全,旗下Claude模型获广泛采用
Anthropic是一家位于美国加州旧金山的人工智能股份有限公司,成立于2021年。它由达里奥·阿莫迪和丹妮拉·阿莫迪兄妹创立,现任首席执行官是达里奥·阿莫迪。这家公司的核心使命是构建可靠、可解释和可操纵的AI系统,说白了,就是要把AI的安全性放在第一位。

Anthropic到底做什么?它推出了大语言模型Claude,并提出了“宪法AI原则”。这个原则挺有意思,相当于给AI设定了一套行为准则,让模型在训练和输出时能自我约束,减少有害或不可控的回应。Claude模型家族包括Claude、Claude 2、Claude 2.1、Claude 3系列以及Claude 3.5等版本,其中Claude 3在2024年3月发布,获得了广泛关注。
凭什么说Anthropic专注企业级AI安全?看看它的融资历程就知道了。2021年5月,它获得1.24亿美元A轮融资;2022年4月,B轮融资筹集5.8亿美元;2023年2月,谷歌投资约3亿美元并持股10%;同年5月,C轮融资4.5亿美元;9月,亚马逊初始投资12.5亿美元。2024年3月,亚马逊追加27.5亿美元,11月又追加40亿美元。这些巨头真金白银的投入,确实证明了市场对Anthropic安全理念的认可。
Claude模型获广泛采用,原因在于它的可靠性和可解释性。Claude 2.1拥有200K的上下文窗口,能处理大量信息;Claude 3系列模型在亚马逊云科技的Amazon Bedrock上正式可用,方便企业直接接入。Anthropic的团队规模在2023年初约40人,大部分成员曾参与GPT-2、GPT-3模型的研发,技术底子相当扎实。
Anthropic的定位很清晰:它不只是做聊天AI的小公司,而是专注于企业级AI安全的领跑者。通过“宪法AI原则”和Claude模型的迭代,它正在推动AI行业向更安全、更可控的方向发展。这难道不是AI应用落地的关键一步吗?