春节过后,感觉人工智能领域又热闹躁动起来了。
在人工智能技术爆炸式增长的背景下,就在前两天,一家看是名声不大,但实力超群的公司成为最热门的话题之一,这就是Anthropic公司,也正是Claude AI的创造者。
关于其最新发布的Claude 3系列模型,各大媒体的介绍已经非常多,我们接下来,就通过另外一个角度,来围观一下,这家被称为ChatGPT的劲敌公司,在融资事宜、公司理念等维度上的动向。
Anthropic于 2021 年在旧金山由另一家超级热门人工智能公司 OpenAI的前团队成员创立,最近一直在经历融资狂潮。
据一位接受《纽约时报》采访的知情人士透露,尽管据报道该公司不再“运行正式的融资程序”,但该公司在过去一年中已筹集了 73 亿美元——仅在过去一个月就筹集了 7.5 亿美元。
《纽约时报》深入研究了 Anthropic 资金充裕的复杂融资流程,并在此过程中发现了一些复杂的交易。该公司是人工智能的宠儿,据说投资者如此热衷于加入,因为正如斯坦福大学金融学教授 Ilya Strebulaev 所说,“如果你错过了这个领域的赢家,你就有点出局了。”
当然,对于任何可能改变世界的新技术浪潮来说都是如此,但对于人工智能来说可能更是如此,因为它的增长速度如此之快。
最近的科技投资者包括亚马逊(2023 年末投资了 40 亿美元)和谷歌(持有 20 亿美元股份)。本月,它还从 Menlo Ventures 获得了 7.5 亿美元的资金。Menlo Ventures 是一家历史悠久的湾区公司,成立于 1976 年,是硅谷早期的风险投资公司之一。
《泰晤士报》指出,Anthropic 的一些投资因其某种程度上的循环性质而招致批评,亚马逊和谷歌的股份尤其如此。这是因为,作为所谓的不寻常融资结构的一部分,通过接受科技巨头的资金,Anthropic 还承诺使用他们的云基础设施。有人认为,这意味着投资并不完全是外部现金流,现金会被直接注入投资者的公司。
1 月下旬, 有消息称,Anthropic 将与谷歌、亚马逊、微软和 OpenAI(业务关系有些复杂 )一起受到联邦贸易委员会 (FTC) 可能存在的反竞争行为的调查。
联邦贸易委员会主席莉娜·汗 (Lina Khan) 解释说:“我们的研究将揭示占主导地位的公司所追求的投资和合作伙伴关系是否存在扭曲创新和破坏公平竞争的风险。”
▌为什么 Anthropic 如此热门?
Anthropic 做了什么来吸引所有这些资金和法律关注?据《泰晤士报》报道,该公司去年的财务收入约为 800 万美元,预计今年收入将增长“八倍” 。这种超速增长正是能够引发投资者狂热的类型。
另一个吸引投资者的地方是其两位创始人 Daniela Amodei 和 Dario Amodei,他们曾参与开发 OpenAI 举世闻名的 ChatGPT 模型,但因对 OpenAI 未来方向的分歧而于 2019 年离开。
与许多竞争对手一样,Anthropic 的业务以聊天机器人技术为中心。它的主要聊天机器人 Claude 于 2023 年 7 月升级到版本 2,它基于 Anthropic 所说的“将安全放在首位的人工智能研究和产品”理念,与一些竞争对手模型区分开来。
这是一个基于安全的过程,旨在确保该技术不会提供错误信息,并且保持无害且有用。Claude 显然是成功的,尽管可能不如 OpenAI 的 ChatGPT 模型出名:《纽约时报》指出,在亚马逊进行大笔投资时,它是亚马逊云计算机系统上最受欢迎的人工智能服务。
据称,该公司正在利用其数十亿美元规模的现金注入来支付运行人工智能所需的巨大且昂贵的计算能力。这与最近人工智能行业的其他发展相一致,包括萨姆·奥尔特曼(Sam Altman)最近推动筹集“数万亿”美元来开发更强大的人工智能芯片,以及图形芯片制造商英伟达自己在开发人工智能芯片方面的高风险努力。
看来,Anthropic可能仍会成为头条新闻,尤其是因为其宪法人工智能程序似乎与立法者监管人工智能的努力一致,包括拜登总统新成立的人工智能安全研究所。
但是这里面也有一个黑天鹅的角色出现。Anthropic 的早期资助者之一是 Sam Bankman-Fried,他是现已名誉扫地的FTX 加密货币公司的创始人。FTX 即将破产,其持有的 Anthropic 8% 的股份可能会被争夺。
▌再看Anthropic的那些AI超能力
周一,Anthropic发布了Claude 3,这是一个由三种人工智能语言模型组成的系列,类似于为ChatGPT提供支持的语言模型。Anthropic 声称这些模型在一系列认知任务中树立了新的行业基准,甚至在某些情况下接近“接近人类”的能力。
Claude 3 的三个模型代表了不断增加的复杂性和参数数量:Claude 3 Haiku、Claude 3 Sonnet 和 Claude 3 Opus。
据报道,Claude 3 在各种认知任务中表现出了先进的表现,包括推理、专业知识、数学和语言流畅性。(尽管对于大型语言模型是否“知道”或“推理”缺乏共识,人工智能研究界普遍使用这些术语。)该公司声称 Opus 模型是这三种模型中能力最强的,表现出“接近人类的水平”对复杂任务的理解和流畅性。”
Anthropic 计划在未来几个月内频繁发布 Claude 3 模型系列的更新,以及工具使用、交互式编码和“高级代理功能”等新功能。
该公司表示,仍致力于确保安全措施跟上人工智能性能的进步,并且 Claude 3 模型“目前出现灾难性风险的可能性可以忽略不计”。
▌人工智能大战愈演愈烈
人工智能基准测试很棘手,因为任何人工智能助手的有效性都根据所使用的提示和底层人工智能模型的条件而变化很大。人工智能模型可以在“测试”中表现良好(可以这么说),但无法将这些功能推广到新的情况。
此外,人工智能助手的有效性是高度主观的(因此威利森的“共鸣”)。这是因为,当你给人工智能模型的任务实际上可能是地球上任何知识领域的任何任务时,让人工智能模型成功地完成你想做的事情是很难量化的(例如,用基准指标)。
有些模型适用于某些任务,但不适用于其他任务,并且根据任务和提示风格的不同,情况可能因人而异。
这适用于 Google、OpenAI 和 Meta 等供应商的每一个大型语言模型,而不仅仅是 Claude 3。随着时间的推移,人们发现每个模型都有自己的怪癖,并且每个模型的优点和缺点都可以使用或解决某些提示技巧。目前,主要的人工智能助手似乎正在适应一套非常相似的功能。
因此,最重要的是,当 Anthropic 表示 Claude 3 可以超越 GPT-4 Turbo(目前在通用能力和低幻觉方面,GPT-4 Turbo 仍被广泛视为市场领导者)时,人们需要谨慎对待这一说法。
如果正在考虑不同的模型,那么用户亲自测试每个模型以查看它是否适合应用程序至关重要,因为很可能没有其他人可以复制你将使用它的一组确切环境。
文章来源:新芒X