从远古的岩壁记事,到现代的数字屏幕,几千年来,人们对信息的追求与渴望从未停止。
无论是公元前记录了演讲和情报的一卷卷莎草纸,还是蒸汽印刷机的出现、收音机和电报电话的发明、广播电视的兴起,大众传播技术以空前的效率和速度把信息传递给大众;互联网的发明,更是将全球连接成了一个巨大的信息网络,使得信息的获取变得前所未有的便捷和及时。
可以说,人类发展的历史,就是一部信息不断进化与传播的历史,也是一部文明交流互鉴、知识共享与智慧碰撞的历史。
然而,随着技术的革新,人类社会的信息也在从稀缺走向丰盈、从匮乏走向冗余。
如今,全世界每年产生1EB到2EB (1EB≈1018B)信息,相当于地球上每个人每年大概产生250MB信息。其中,纸质信息仅占所有信息的0.03%,静态网页有上百亿,动态及隐藏网页则至少是静态网页的500倍。而与之相对的,人的一生只能接触约6GB信息,大脑则只能存储约200MB信息。
为了解决人类“针对性寻找信息”的需求,搜索引擎应运而生。从1991年,加拿大麦吉尔大学开发了能定期搜索并分析FTP服务器上文件名的Archie开始,搜索引擎的发展一直随着计算机技术的发展而不断演进:从分类目录时代的Yahoo,到文本检索时代的AltaVista,到整合分析时代的Google、百度,再到用户中心时代的微信、抖音、小红书,搜索引擎不仅极大地提高了人们信息检索的效率和准确性,更是极大推动了互联网生态的繁荣与发展。
那在人工智能时代,搜索引擎是什么样的?无疑是AI搜索。
微软CEO纳德拉曾经在2023年2月对外表示,AI加持的搜索引擎,是他在任CEO 9年来微软公司“最重要的产品”,堪比15年前的云计算;百度创始人、CEO李彦宏也表示,“生成式AI与搜索是天作之合”。
一时间,几乎已经有二十多年未发生重大变化的搜索引擎好像被按下了“变身按钮”;沉寂已久的通用搜索引擎市场,也再度风云变幻,群雄竞相逐鹿中原。
然而,各路群雄的“打法”和“门派”却各不相同。
1.搜索引擎3.0——Don't make me think
毫无疑问,如今AI大模型已经成为了搜索引擎的最大变量。
如果我们以时间的维度,审视近二十年市场上陆续出现的搜索产品,那么或许可以将搜索引擎的发展分为三个阶段:
2000至2022年是搜索引擎1.0时代,以网页信息的分发为主,代表产品是Google搜索、百度搜索;
2022至2024上半年是搜索引擎2.0时代,可以就网络内容进行提炼、生成简单答案,代表产品是Microsoft New Bing、Google AI Overviews;
2024下半年至今是搜索引擎3.0时代,可以通过对内容的结构化整合解决问题、发现和获取新知,代表产品是Perplexity AI、360AI搜索、天工AI搜索等。
其中,2.0和3.0时代的搜索引擎几乎都加入了AI大模型的能力,都可以称为“AI搜索”产品。然而,2.0时代的Microsoft New Bing、Google AI Overviews都是通过在自己原有的搜索引擎上增加了一个AI模块的方式实现的,大模型只是对原有搜索引擎索引到的网页进行了简单总结提炼,仍然是一种“缝合”的思路;而3.0时代的Perplexity AI、360AI搜索等则是充分发挥了大模型的能力,用AI重构了搜索的底层链路,是一种真正意义上的“AI原生搜索引擎”。
而3.0时代的AI 搜索产品, 也可以根据所面向领域的不同,划分为三类:
比如最为知名的Perplexity AI,它和360AI搜索等都面向全网最广泛的用户,是通用AI搜索产品;Devv AI是一款面向程序员和开发者群体的代码搜索工具,Reportify AI则是一款利用 AI 技术为投资者提供深度内容问答的工具,它们都属于垂直AI搜索产品;除此之外,还有Hebbia(企业文档和知识库搜索)、Seek AI(企业数据库搜索)为代表的企业级AI搜索产品。
而这其中,用户体量最大也最具有商业化潜力的,无疑是通用AI搜索产品。
榜单数据可以证明这一点:在今年7月的AI产品榜·全球总榜中的前二十名中,通用AI搜索产品就占了四席(New Bing、Yandex、360AI搜索、Perplexity AI);而在AI产品榜·国内总榜6-8月前二十名的产品里,通用AI搜索产品也占据了至少三席。
这其中,表现最为亮眼的,就是360AI搜索:
2024年1月,360AI搜索Web端和App先后上线。3月份,访问量增速高达1798.76%;4月份,访问量达到了1188万次;到了6月份,和360AI浏览器一同升级发布之后,360AI搜索排名一跃而升至国内AI产品第二名、AI原生产品第一名。
7月,360AI搜索Web端的月访问量达到了9369万次,增速为82.48%,已经超过了全球知名的AI搜索产品Perplexity AI,在AI产品榜·全球总榜中排名第十一。8月,访问量则达到了2亿次,增速为113.92%,同时成为国内第一个月独立访客量(UV)超过8000万的AI产品。
AI产品榜·国内总榜6、7、8月前五名
在众多通用AI搜索产品中,为什么360AI搜索成为了率先跑出来的那匹黑马?
如果要用一句话总结,这句话或许可以是“所见即所得”;如果要用一个词来总结,这个词或许可以是“开箱即用”。
腾讯创始人、有着“互联网首席产品经理”之称的马化腾曾经给很多人推荐过一本书《Don't make me think》,书名意思为“别让我思考”。它讲的是产品设计的一个原则,即把用户需要的信息以最直接的形式展示出来,而且要展示得既全面又准确、让用户拿来就能用。
“Don't make me think”原则之所以重要,主要是因为做产品是被动的艺术。从心理学的角度来说,做产品和做销售是两套完全不同的逻辑:做销售需要的是“打破防御”,一个好的销售人员需要充分调度自己可以呈现的所有资源,抓住用户心理上小小的满足或不安,打破用户的防御,说服用户,促成用户的选择;而一个好的产品经理,则可以通过提升产品“易用性”,根本不让用户启动防御。因为意识即防御,所有的思考,都会让用户产生顾虑。一个产品如果引发用户的启动意识,让用户思考,某种意义上,就是在推开用户。
而AI搜索作为互联网产品的一种,同样脱离不了这个逻辑。
在所有AI搜索产品中,360AI搜索几乎把“所见即所得”和“开箱即用”做到了极致——不仅能给出准确性、权威性强的答案,无需进行事实核查和交叉验证,而且可以一键复制和导出,极大便利了用户对所需答案的使用。
比如用户在搜索中“9.11和9.8哪个大”,很多AI搜索给出的答案都是“因为9.11的十分位数是1,9.8的十分位数是8,因此9.11大于9.8”,闹出了笑话。
问9.11和9.8哪个大,某AI搜索给出的答案
然而,360AI搜索却能正确比较这两个数字小数点后的十分位数,给出正确的答案。
问9.11和9.8哪个大,360AI搜索给出的答案
比如,在9月12日上午搜索“台风摩羯在越南造成了多少人死亡”,360AI搜索给出了截止到9月11日17:30的答案,并且还将数据精确到了各个不同的时段:
搜索“台风摩羯在越南造成了多少人死亡”,360AI搜索给出的答案
比如,我们让360AI搜索回答一个“将字符串hello反转成olleh”的编程问题,它不仅给出了问题分析和步骤拆解,更是调用DeepSeek大模型给出了完整的Python代码:
搜索“将字符串hello反转成olleh”,360AI搜索给出的答案
再比如,我们同时让360AI搜索和其他AI搜索产品解释《金刚经》里的一句话,360AI搜索给出的答案是最丰富、最详尽的:
360AI搜索和其他AI搜索产品对“一切有为法,如梦幻泡影,如露亦如电,应作如是观”的解释
可以看到,无论是答案长度、信息密度还是时效性、准确程度,360AI搜索的表现都是数一数二的。
“对比其他的AI搜索产品,我们生成的内容更有结构,也更长。很多AI搜索产品的答案在200字以内,而我们答案的平均长度超过 700 字,同样一个问题,我们从更多的角度做解析,有点像是一个雇了一个百科全书的作者来帮你去写一个答案。”在接受「甲子光年」采访时,360集团副总裁、AI产品负责人梁志辉说。
此外,评判一个搜索引擎是否做到了让用户“傻瓜式操作”“所见即所得”,观察它的用户群体也很重要。往往越是贴近用户使用习惯的搜索引擎,就能获得越多的低龄、低心智水平的用户。
在采访中,梁志辉向我们透露了这样一组数据:在360AI搜索的用户群体中,有26%的用户是中学生,8%的用户是小学生,中小学生加起来的比例占了34%。
之所以中小学生占比较高, 主要还是因为360AI搜索在产品设计上做到了最大程度贴近用户。在2019年的360搜索里,有42%的用户在寻址,21%在找资源,37%在提问题;而到了2024年,在360AI搜索里,寻址的用户下降到了12%,找资源的用户下降到了16%,剩下的72%在提问题。而在这72%“提问题”的需求中,就有很大一部分来自中小学生的作业提问。
“我们直接找了一些中小学的老师,问他们为什么用360AI搜索,他们说首先能语音输入,无论是方言还是中英文混杂都能识别出来;其次360AI搜索能一键复制和导出。你别小看Ctrl+C、Ctrll+V,其实要教一个小学生学会复制粘贴和做文档挺难的,但是有了语音输入和一键复制、导出功能,学生不怎么用敲键盘,就能搜出结果、获得文档”,梁志辉说。
360AI搜索为什么能给出时效性、准确性和权威性更强的答案?
一切,都要得益于AI搜索的三条护城河,它们分别是:更智能的索引库,和更强大的底层模型系统,以及AI原生。
2.“可计算的知识”——AI搜索的第一条护城河
在传统搜索引擎时代,索引库就是最重要的护城河;而在AI搜索时代,更智能的索引库则更是成为了AI搜索产品的重中之重。
在《拆解SearchGPT后,我们发现了AI搜索的壁垒、突破和未来》一文我们提到,AI搜索最大的壁垒是数据,要想得到准确的答案,底层数据的质量和数量至关重要:只有底层数据库足够大、容纳的信息足够多、信息更新的足够及时,才能保证大模型在内容获取的时候“有据可依”,从而输出更准确、更有时效性的内容。因此,想要让搜索结果变得准确,自建索引库就很关键。
由于自建索引库成本极高、技术难度极大,目前只有Google、百度、Bing等搜索大厂有这个能力,因此它们推出的AI搜索产品也能调用自家索引库里的内容;而一些大模型厂商推出的AI搜索产品,则更多是接入了Google、Bing等搜索引擎的API,只有很少的几家自建了小体量的垂直索引库。
作为2012年就开始做搜索的老牌厂商,360自然拥有数据丰富的索引库,这也是360AI搜索相较于其他AI搜索产品的巨大优势。梁志辉表示,过去十年,360搜索大约爬了1000亿个网页,而且会对索引库中的网页做动态更新,让索引库中的数据动态维持在最新的1000亿,降低了维护成本的同时,也增强了时效性。
技术和内容同步更新,往往才能发挥出来更大的效用。在传统关键词索引之外,360AI搜索使用向量索引、KV索引等技术,对索引库进行了重构,使得索引效率大幅提升。
在AI搜索中,向量索引是通过把一些信息转换成数字形式的“向量”,这些向量就像是信息的指纹,可以用来描述信息的特点。一段文字就可以通过向量来表示,这个向量包含了这段文字的一些关键词或特征。比如,它知道“苹果”和“西瓜”在吃的方面很接近,但和“公交车”就完全不沾边了。靠着这样的理解,大模型就能更准确地帮我们寻找信息和生成内容。
向量搜索原理图,图源:FreeAI
除了用AI能力构建更强大的索引库,360还基于现有的高效索引库构建了多个知识图谱层,可以用GraphRAG的方式做检索,比于传统的RAG,GraphRAG显著增强了大语言模型在处理复杂和多样化私有数据集时的性能,可以实现更全面、深入的检索。
梁志辉认为,如果说以谷歌、百度为代表的1.0时代的产品是“搜索引擎”,以New Bing为代表的2.0时代的产品是“答案引擎”,那么3.0时代的AI搜索产品则应该是一款“知识引擎”——在新的应用形态下,知识是可以被计算的;而知识引擎和答案引擎的区别就在于,它不只是对搜索到的若干个网页链接进行简单的总结,而是会在理解用户问题的基础上,充分利用大模型的能力,通过关键词索引+向量索引+GraphRAG的方式充分调用索引库和知识库的内容,返回给用户的不只是答案,而是内涵和外延更加丰富的“知识”。
而也是以360AI搜索为代表的AI搜索产品和很多AI Chatbot的不同:AI Chatbot每次回答只能进行一次大模型调用,而AI搜索产品则能在充分理解问题的基础上,进行任务的分解和规划,这期间会涉及多轮次的模型调用,这类似于OpenAI o1的“慢思考模式”;此外,AI Chatbot返回的答案更多是模型生成的,特殊情况下才涉及RAG调用,因此生成的答案中有些是没有参考链接的;而AI搜索产品则在用户每输入一次query(问询)的时候都要调用索引库和知识库,会给出丰富的参考链接,同时和生成的答案做到一一对应。
目前,AI加持下的360索引库收录了大量的高质量内容来源,包括论文、 知识视频、访谈节目、课堂录音、专业网站等,未来还计划加上B站的知识视频。这些内容以大模型最容易理解和计算的方式来抓取、索引、召回,用AI爬虫抓内容,用AI GraphRAG建立知识连接,用 AI 做内容召回,摆脱了过去单纯依靠关键词匹配的局限性,让知识真正做到“可计算”“可理解”。
与此同时,360AI搜索给出的回答支持多种文体和风格的改写,并会被重新收录进索引库中。这就通过AIGC的方式,构筑起了自己的数据飞轮,也成为了360AI搜索的内容和数据护城河。
3.“让大模型‘慢思考’”——AI搜索的第二条护城河
众所周知,人工智能由数据、算力、算法三大要素构成。如果说索引库是AI搜索的数据库,那么大语言模型,就是AI搜索的算法,这构成了AI搜索的第二条护城河。
我们在《拆解SearchGPT后,我们发现了AI搜索的壁垒、突破和未来》一文中提到,AI搜索的底层原理其实可以用“RAG(Retrieval-augmented Generation,检索增强生成)”来概括,涉及Retrieval和Generation两个步骤。其中,大部分的“Retrieval(检索)”是由传统搜索引擎的API来完成的,少部分采用自建索引库的形式;而AI搜索产品主要做的事情就是拿到结果后的“Generation(生成)”,用AI代替人工, 阅读检索内容, 总结归纳后给到用户一个直接的答案。
要“Generation”,就涉及对大模型的调用。目前,大部分的AI搜索产品只会在搜索过程中调用了一次大模型,单个模型能力有限,无法及时对抓取到的网页内容“去粗取精”“去伪存真”,生成的答案也难免带有“幻觉”和“噪声”。
怎么办?一个模型不行,那就上多个;一次调用不行,那就多次调用。发挥集体的力量,一个好汉三个帮。
360AI搜索,就是这种“一个好汉三个帮”的典型代表。在360AI搜索的整个工作过程中,会涉及对大模型的多次调用,“我们一次AI搜索的背后包含了至少7—15次的大模型调用”,梁志辉说。
以搜索“为什么人只吃肉不会长胖,吃水果和面包会长胖”为例,360AI搜索对大模型的调用包括以下几个步骤:
对大模型的密集调用,不仅会对AI搜索的响应速度造成影响,更是对算力造成了巨大的压力。大模型加持下的AI搜索,想要实现和传统搜索一样快速、精准的问答,算力和模型能力都需要做出巨大的提升。
但专业性(有更多特定领域的知识)、经济性(节省算力成本)和泛用性(回答内容无所不包)向来是大模型的“不可能三角”。有没有一种方法,既兼顾回答的通用性和专业性、保持回答的速度和准确度,又能不消耗过多算力呢?
底层的模型架构就很关键。
在很长一段时间以来,MoE(Mixture-of-Experts)架构的稀疏混合专家模型都被认为是Transformer之后大模型下一个发展趋势。MoE模型可以只选择某一专家模型来处理数据,这使得模型在推理过程中更为高效,因为大部分专家处于未激活状态,从而减少了不必要的计算。
图源:《Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity》
然而,尽管MoE架构的模型有着比稠密模型更快的推理速度,但是它仍然有缺点:
MoE模型的专家之间存在竞争关系,每个输入通常只由一个或少数几个专家处理,其余专家不参与,这让检索答案的过程不够灵活;
MoE依赖于路由机制分配任务,如果路由错误或某个专家出现故障,可能会影响AI搜索回答的整体性能。
为了解决这一问题,360推出了首创的CoE(Collaboration-of-Experts,专家协同)架构。与MoE模型不同的是,MoE架构一次只能调用其中的一个专家模型回答,但CoE架构则能让多个模型分工协作、并行作战,执行多步推理。
CoE模型推理过程 图源:《Collaboration of Experts: Achieving 80% Top-1 Accuracy on ImageNet with 100M FLOPs》
这种多个模型分工协作的方式使得每个专家都能“发挥专长”,同时“互相补充”,让AI搜索在面对不确定或复杂输入时表现出更好的稳定性,输出更准确、更具有时效性和权威性的内容。
综上,我们可以复现出360AI搜索完整的工作链路:首先构建意图分类模型,对用户的问题进行意图识别,接着打造任务路由模型对问题进行拆解,不同的问题可以划分成“简单任务”“多步任务”和“复杂任务”,对多个模型进行调度;最后构建AI工作流,使多个大模型协同运作。比如面对一道古诗词中译英题目,路由模块就会调用起翻译、反思等多个模型,让这些模型分工配合、共同完成任务。
在古诗词翻译任务中,360AI搜索会调用多个模型协同完成任务 图源:360
360AI搜索底层CoE架构中的专家模型,由16家大模型厂商的产品共同组成——360与百度、腾讯、阿里巴巴、智谱AI、月之暗面、Minimax等16家主流大模型厂商合作,构建了一个大模型的“专家集群”,这些专家集群共同支撑了CoE架构的混合模型。该混合大模型在翻译、写作等12项指标的测试中取得了80.49分的综合成绩,超越了GPT-4o的69.22分;特别是在“弱智吧”和“诗词赏析”这类比较具有中文特色的问题上,CoE的领先优势更加明显。
集各家所长的混合大模型能力超越 GPT-4o,图源:360
这种调度多个模型共同完成推理任务的方式,就是在用大模型“慢思考”的能力做AI搜索。
“人脑有快思考、慢思考两种方式。大模型常见的是快思考,问2+2等于几,它脱口而出。但是真的有复杂的问题,比如写一篇论文、做分析,人类是需要慢思考,需要调动规划和反思、逻辑推理能力,速度慢,但准确性高。大模型目前只有快思考没有慢思考的能力,我们提出用Agent的框架打造慢思考的系统,通过知识和工具、增强大模型的规划,打造大模型的慢思考的能力。”在ISC.AI 2024大会的演讲中,周鸿祎表示。
从技术层面来说,360独创的CoE架构模型,也是在模型的“慢思考”——推理上下功夫。如今,在众多厂商疯狂囤算力训练大模型的情况下,推理的价值被大大低估了:以OpenAI最新发布的OpenAI o1模型为例,该模型用强化学习的方式增强了推理能力,使得模型在作出回答之前会像人类一样进行10—20秒的“深思熟虑”,产生一个长长的内部思路链,能够尝试不同的策略并识别自身的错误。这也证明了Scaling Law在推理领域的有效性,硅基流动创始人袁进辉就认为,在推理上多花点算力比在训练上继续投入算力收益要大得多。
OpenAI o1模型在预训练、训练和推理阶段的投入 图源:X @Jim Fan
但面对CoE模型, 也有人提出了质疑——调用这么多模型,AI搜索的经济账如何算?一次AI搜索的成本会不会太高?
答案是:并不会。
首先,在激烈的价格战之后,国内很多第三方模型的价格已经很低了,每百万Token的价格从1块钱降低到了8毛钱、5毛钱,甚至直接免费;其次,360采用的并不是千亿参数的大模型,而是一些百亿,甚至十几亿参数的小模型,参数的减少加上360独有的推理技术共同降低了推理成本;第三,很多大模型厂商极其渴望用户,为了获取用户甚至不惜亏本卖,而360拥有5亿浏览器用户和10亿桌面用户,“他们API的价格比我们自己的还低很多”,梁志辉坦言。
2024年5月,单次搜索的成本还高达2毛的360AI搜索,得益于上述种种举措,今天单次搜索的成本已经降低到了1—2分,可能是国内AI搜索产品里最低的。目前,360AI搜索已经实现了商业闭环,也就是说收入基本上能够跟推理成本打平,“只要能够做到不亏,未来我们就有机会通过扩大用户规模赚到更多差额”,梁志辉说。
在众多AI产品还在烧钱运营、烧钱换用户的情况下,360AI搜索率先打平了成本甚至获得了些许盈利,无疑是给市场带来的一个惊喜。360的AI搜索的成功也证明,AI对于搜索来说并不是伪命题,反而是搜索引擎发展的最大变量。谁能抓住这一波AI的机会,谁就有可能成为引领下一代搜索引擎发展的主要玩家。
4.“AI原生”——AI搜索的第三条护城河
AI时代来临后,各家企业都加大了对于“AI原生应用(AI Native App)”的探索。不少从业者认为,如果企业实现了AI 原生,将会给企业带来质的飞跃。麦肯锡也表示,“向 AI 原生过渡可能是推动企业增长和更新的关键。”
然而,关于什么才是“AI原生产品”应用的定义,市场上的观点却不一而足:有人认为建立在大模型之上的Chatbot、文生图等应用就是AI原生产品;也有人认为能够用自然语言交互且充分利用大模型的理解、生成、推理、记忆等能力的产品才是AI原生产品。
在360集团副总裁梁志辉看来,AI原生产品需要的不只是用户交互等“前台”的变革,更需要“后台”技术链路的同步革新;此外,一款产品能不能把AI的“长处”(如数据处理、自动化和决策支持)发挥出来,也是判断它能否被称之为“AI原生产品”的标准。
不难发现,无论是问题识别、意图改写、信息源检索、索引库的构建还是RAG,360用AI重构了搜索的每一个链路:
比如在意图识别环节,依托多年做搜索积累的意图分类、技能分类以及领域分类知识,对用户需求予以分析,训练出能够识别超 1 亿种意图分类的专用模型,支持4000种意图分类、100种技能分类和1000种领域分类;
比如在任务路由环节,通过技术攻关,训练出了具有超强能力的任务路由模型,通过任务拆解和多步推理的机制,大幅度提升了复杂问题的解决率;
比如在CoE专家网络模型的推理环节,依据千万数量级用户的日常反馈,拣选真实搜索题目,构建起具有可持续性的大模型能力测试平台,可以将合作方的16家大模型一一匹配适宜的场景、按需进行统筹调度,实现了知“模”善用;
再比如在构建AI工作流环节,在CoE专家网络模型之外,还建立起了200多个“垂搜(onebox)”,这些垂搜覆盖了列车时刻表、天气、资讯等不同的领域,可以从多个来源获取实时的消息,为AI搜索提供更准确、更具有时效性的答案。
360AI搜索工作流程图 图源:360
可以说,相比于其他的AI搜索产品,360AI搜索重塑的不只是用户交互环节,更是后端的一整个流程。
「甲子光年」曾经在《大模型套壳祛魅:质疑套壳,理解套壳》一文中提到了套壳的五重进阶:
图源:《大模型套壳祛魅:质疑套壳,理解套壳 | 甲子光年》
而360AI搜索的“主力模型+16家大模型联合调用”的CoE模式,真正做到了“第五重进阶”,也就是从预训练阶段就开始发力,从主力模型(360智脑)就开始为后来推出AI搜索产品做准备,真正做到了不仅用AI变革前端链路,更是把后端链路做厚、做深。
和360AI搜索思路类似的还有其他的一些AI产品:比如AI翻译产品彩云小译,就在原有产品的基础上,加入了AI翻译大模型和多个不同功能的智能体,可以实现视频字幕翻译、候选词替换、翻译过程中的AI问答等多个功能;再比如最近大火的、让所有程序员都为之疯狂AI编程产品Cursor,不仅推出了可以补全和多行编辑代码的Cursor Tab,更是可以自动将伪代码转换为可执行代码,还支持AI review(用AI检查最近改动的代码、生成修改建议)、Composer(在单文件多行修改PR的基础上,进一步支持多文件编辑PR的生成)以及用AI Chat进行交互。这些产品都做到了用大模型改造后端链路、将AI能力渗透到了流程的每一个环节,进而实现了更智能化的使用体验。
可以说,在未来,只有从底层就开始用AI做变革、将AI能力浸润到每一个环节的产品,才能真正吸引用户、构筑起自身的护城河,也才能称得上是真正的“AI原生产品”。
从最初的Chatbot到多Agent联用的AI翻译、AI编程、AI客服产品,从简单加个LLM作总结到如今有着CoE架构、可以多次调用大模型实现更精准、全面回答的AI搜索产品,AI产品的发展过程,是工作流从简单到复杂、从一元到多元的过程,也是一个不断自我迭代、更新与融合的过程。在这一过程中,我们见证了技术从简单向复杂的迈进,也见证了互联网产品从满足用户基本需求到深度理解用户意图的转变。其中的每一步进展,都凝聚着科研人员的不懈努力和对技术边界的持续探索。
未来,随着算法的不断优化、算力的持续提升以及数据的日益丰富,AI产品也将展现出更加强大的能力,更加紧密地融入到人们的工作生活中,开启一个更加令人激动的智能时代。
就像一棵树,只有树根扎得越深、越牢固,这棵树才能长得枝繁叶茂,才能开出美丽的花、长出甜蜜的果实。
注:文/王艺,文章来源:甲子光年(公众号ID:jazzyear),本文为作者独立观点,不代表亿邦动力立场。
文章来源:甲子光年