广告
加载中

只有 AI 的产品不一定赚钱 但赚钱的产品一定有AI

段江 2025/01/06 10:46

过去十年,人工智能的发展经历了从低谷到巅峰的剧烈转变。特别是以生成式人工智能(GenAI)为代表的最新一轮技术浪潮,不仅吸引了科技界和资本市场的目光,更逐步渗透到人们的日常生活中。以Transformer为核心的算法架构与“Scaling Law”(扩展规律)的结合,为这一波技术跃升提供了强大的理论支撑和实践方向。然而,这种方式是否是实现人工智能进一步突破的最佳路径?答案可能并不简单。

全球头部 AI 图像、视频平台 Fotor 从出生即面向了海外市场,并且融入了 AI 的技术浪潮。Fotor 创始人段江在 2024 中国 SaaS 大会期间,分享了他对于 GenAI 时代的一些思考,以及 Fotor 在海外市场的一些实践打法。

段江在分享中提到,“Scaling Law”揭示了人工智能模型性能随参数量、数据量和计算能力增加而指数级提升的规律。

然而,这种“堆叠规模”的方式需要以巨大能耗为代价,与人类大脑仅消耗 20 瓦功率却能完成复杂任务形成鲜明对比。作者通过图像增强的案例进一步说明了高效算法的重要性——相比依赖大量训练和推理的传统方法,仅需零点几秒就能完成优化的计算机视觉算法,或许为未来 AI 的发展提供了一条低能耗、高效率的可能路径。

同时,段江也指出,当下 AI 训练数据的消耗速度已经超越了人类数据产生的速度,这无疑给模型的可持续发展带来了挑战。生成式 AI 虽然能够自行产出数据,但其潜在的错误和局限可能被不断放大。前沿研究正在探索一种“双模型”的方法:一个模型生成数据,另一个模型判断其质量,以期打破现有困局。

从技术架构到训练方法,从能耗效率到数据可用性,深入剖析了当前 AI 发展的关键议题,同时也对未来的发展方向提出了思考:AI 是否能够从依赖大规模资源的模式中脱身?又是否能够找到一条更符合人类智慧特质的进化路径?

除此之外,段江也结合 Fotor 的出海实践,分享了在竞争激烈的海外市场,如何通过 AI 产品留住客户?如何获得巨大的流量,并且将流量变现?

以下为演讲内容,经牛透社整理(部分删减):

大家好,今天非常高兴能够在这里和大家一起分享这两年来在前沿科学技术领域非常重要的一个话题—— AI。过去十多年,我们已经进入了数字经济时代。数字经济也就对应一些重要的数字技术和思想。

数字技术里面非常重要的就是 ABCD,A 是 AI 人工智能,B 是区块链 Block Chain,前几年大家谈的比较多。C 是 Cloud 云计算,D 是 Data 数据。

今天的话题聚焦到 AI。AI 其实已经经历了很多轮的发展和迭代,我们给最新一轮的 AI 一个限定词叫生成式 AI(GenAI)。

01

AI 的四次浪潮

人工智能发展的四次浪潮(图源:演讲PPT)

首先,聊聊 AI 的发展。这张图是过去几十年,从人工智能概念,到最近的发展情况。

1956 年,在达特茅斯会议上第一次提出了人工智能概念,从此拉开了人工智能发展的序幕。上个世纪 60 年代,进入机器学习时代。到 80 年代,神经网络作为一个非常重要的技术走入了大家的视野。即使在今天,我们也在广泛地谈论神经网络。但 80 年代刚诞生的神经网络技术还不成熟,带来的效果和结果并不理想,所以大家认为以神经网络为基础去做人工智能似乎看不到头,也因此,很多人离开了人工智能这个领域,他们认为人工智能是一个伪概念。由此,80 年代逐渐进入了人工智能的第一个寒冬。

这个寒冬持续了十几年,直到 1997 年,人工智能才迎来复苏。当时发生了一个非常标志性的事件—— IBM 的深蓝机器人战胜了国际象棋世界冠军。这件事又一次在公众领域引发了人工智能的话题讨论,成为了人工智能发展史上的里程碑。

随着时间的迁移,2006 年,深度学习兴起,到 2012 年取得重大突破,那一年,辛顿教授(2024年诺贝尔物理奖的获得者)带着他的学生搞了一个基于深度学习的神经网络,获得了李飞飞教授举办的图片识别大赛冠军。深度学习引发了工业界和学术界的极大关注,迎来高速发展。

到了 2014 年,有人提出了生成式对抗网络,这就是我们今天要谈论的生成式人工智能最早的工作。尽管现在来看并不是非常完美,但是在 2014 年的时候,就已经有科学家在这方面进行大量的研究工作了。

2016 年,Google 收购 DeepMind,成为了一个标志性事件。而 DeepMind 推出的产品 Alphago 战胜了韩国的围棋选手李世石,再度引发了人工智能的浪潮。

2017 年,人工智能发展的一个重要的技术框架 Transformer 被提出来,这个技术又推动了这一轮人工智能的高速发展。

到了 2018 年,基于 Transformer 技术的大模型被提出,到了2022年 12 月,以 Transformer 架构为基础的大模型,它的 APP 叫 ChatGPT 上线,活跃用户迅速上亿,这在全球范围内引发了极大的关注。

为什么现在人工智能又开始高速发展了呢?

我们看到有几次波峰和波谷,其实还是我们经常提到的更好的算法模型,更好的算力,更多的数据。

先讲算法。算法非常重要的,一篇由 Google 的 8 位科学家完成的题目为“Attention Is All You Need”的论文,成为了生成式人工智能的开山之作。现在很多大模型背后的技术框架都是基于这篇文章来的,也是我们讲的 Transformer 架构。

在谈到 Transformer 架构时,我们不得不提一个常被讨论的话题——“Scaling Law”(扩展规律)。这一规律揭示了当前人工智能模型发展的一个重要趋势:随着模型规模的不断扩大,它的性能也会得到显著提升。具体来说,在 Transformer 这一算法框架下,通过增加模型的参数量、扩大模型规模,同时增加更多的训练数据和计算能力,系统的能力也会随之增强。当这些要素达到一定的临界点时,系统的能力会出现指数级的提升。

因此,一些人认为,正是 Transformer 加上 Scaling Law,推动了人工智能的快速发展。不过,也有观点提出,Transformer 与 Scaling Law 真的能够引领我们走向通用人工智能(AGI)的正确道路吗?目前,许多人认为我们正接近 AGI 的时代。

然而,我个人认为,尽管 Transformer 和 Scaling Law 对提升人工智能模型的智能水平至关重要,但它们与人脑的运作机制有着本质的差异。比如,人的大脑仅消耗约 20 多瓦的功率,却能完成多种复杂任务,而现在的 Transformer 加上 Scaling Law 需要巨大的算力支持,才能让模型展现更强的智能。

举个例子,在图像领域,我们常常进行一种叫做“图像增强”的操作。假设有几张看起来质量不太好的图片,我们可以通过一些算法调整它们的亮度、色彩和对比度,使图像变得更加清晰。当我们训练了大量高质量的图片后,上传一张新图时,系统会通过推理生成一张改善过的图像。这个过程从上传图片到云端,再到云端进行计算和推理,可能需要 20 多秒才能完成。

Scaling law 确实能够带来显著的效果,但它是否是最优的解决方案呢?我认为不一定。

再来看数据,有消息说当前训练数据的消耗速度已经超过了人类产生数据的速度。在这种情况下,如果数据源枯竭,大模型是否还能继续进步呢?这个问题依然没有明确答案。有观点认为,现在的模型具备生成数据的能力,例如生成文字、图片和视频等。那么,这些生成的数据能否用于进一步训练模型呢?

这种方法有其优缺点。优点是,生成模型能够无限产出数据,解决了数据量不足的问题。但缺点也很明显,如果生成的数据存在错误或局限,模型将不断地重复这些错误,可能会导致性能下降。

为了解决这一问题,一些前沿研究提出了使用两个模型的方案。一方负责生成数据,另一方则对生成的数据进行判断,确认其质量是否足够高,是否可以用于大模型的训练。

02

拐点:生成式人工智能的快速增长

下面讲一讲生成式人工智能行业的快速增长。

从互联网到移动互联网到GenAI,用户的渗透率(图源:演讲PPT)

这张图展示了过去 30 年技术创新路径及其对用户的渗透率。

在互联网(Internet)时代,技术渗透到 80% 的用户大概用了 20 多年时间。进入移动互联网(Smartphones)时代,渗透 90% 用户所需时间缩短至 15 年左右。而到了人工智能,确切地说是生成式人工智能(GenAI)时代,仅仅 4-5 年时间,就已经渗透了 60% 以上的用户,这一轮技术发展的速度相当惊人。

不得不说,这一轮生成式人工智能能够有如此高的渗透率,离不开前两轮技术创新所带来的大量计算设备,例如手机等。正是这些设备的存在,使得生成式人工智能的算法和产品能够快速地推广到大众面前。

从 2022 年底开始,与生成式人工智能相关的代码开发数量、应用数量以及模型数量都呈现出近乎直线上升的增长趋势。各行各业都在积极地利用生成式人工智能来赋能自身业务。

(图源:演讲PPT)

再来看看 2020 年以来生成式人工智能的融资情况。可以明显发现,从 2022 年底起,全球在人工智能领域的投入大幅增加。就我个人而言,从去年到今年,接触了众多投资人,感觉现在不管是什么行业,如果项目和生成式人工智能毫无关联,可能很难得到风险投资(VC)的青睐。

03

未来,GPU + AI 模型=智脑

接下来,我们来探讨一个引人深思的话题——生成式人工智能的超级应用。去年,人们大多关注大模型,认为应该先把底层基础打好。

然而,今年业界的关注点发生了转变,开始聚焦于应用。大家都在思考,在这一轮生成式人工智能时代,能够吸引大量用户使用的超级应用究竟会是什么呢?

我们先回顾一下过去 50 年计算机的发展历程。计算机硬件更准确地说是由 CPU 构成,过去是 CPU 搭配软件形成了我们的电脑。在这种模式下,构建的是自动化计算体系,该体系主要依赖程序员编写的指令,来辅助人们更高效地完成工作和生活中的各项任务。

进入移动互联网时代,手机引入了两个新特性:地理位置和摄像头。在这些因素的共同作用下,诞生了一批超级应用,例如国外的 YouTube、Facebook、Uber,以及中国的滴滴、美团等。不过在这个时代,这些应用还称不上具有智能。虽然这些应用中可能会包含一些人工智能算法,比如推荐系统,但从整体上看,它们离真正的智能概念还相差甚远。

未来,计算机可能会朝着“GPU + AI模型”的方向发展,进而形成一种“智脑”模式,构建出像人脑一样智慧的计算机体系。

那么,如何构建超级应用呢?在这种新的框架下,我们需要思考当前人工智能在创造能力方面的重要体现。如今的生成式人工智能具备强大的创造能力,例如能够帮助人们画画、写诗,其推理能力也更强了。而且,大模型还可以解答数学题,交互方式也发生了很大变化,我们能够通过语音与大模型进行准确、直接的交流。

在这些因素的综合作用下,超级应用究竟会是什么呢?目前我无法给出答案,但我们可以围绕这些方向进行深入思考。

04

海外市场流量为先,Fotor 的几点经验

简单介绍一下我们在人工智能时代的机遇。我们的品牌是 Fotor,这是一款出海应用。

在生成式人工智能领域有一个排行榜,其数据由美国顶级数据公司 Similar Web 提供。在 2023 年 4 月 - 今年(2024年) 3 月期间的图像类应用(Web)领域,Fotor 的月访问量增速在全球排名第一。

我们的用户数量在 GDP 排名前十的国家中比较可观。这里给大家一个建议,做软件出海应用时,很多人会去拓展东南亚流量,这种流量确实能快速增长,但在实现变现时会比较困难。

目前,我们应用的收入规模表现良好,在中国生成式人工智能领域属于头部企业,在一些重要国家我们的用户数量也占据很大优势。我们之所以能取得这样的成绩,和过去几年的经验有关。

首先是“早上线,唯快不破”。在这个行业,速度至关重要,一旦稍有落后,后续就需要付出大量努力来追赶。

2012 年 8 月,我们察觉到了生成式人工智能所蕴含的机遇,随后便组织团队着手开发相关产品,并在 10 月上线了文生图功能。如今,文生图功能随处可见,但在当时,国外市场在这方面还是一片空白。

有一家叫 Midjourney 的公司,大家可能有所耳闻,不过使用它的产品需要在 DISCORD 平台上操作,普通用户使用起来不太方便。而我们直接在自己的网站上推出了文生图功能,用户只需在输入框中输入文字就能生成图片,这一功能吸引了大量用户来使用我们的产品,进而使我们的流量急剧增长。

在过去的十年间,我们还开发了几十上百个与图像、图形和视频相关的功能。用户因为文生图功能开始使用我们的产品后,又发现了其他众多实用的功能,于是就留下来长期使用。

在此要提醒大家,在开拓海外市场时,搜索引擎优化(SEO)是非常值得关注的方法。

简单来说,比如搜索机票时,怎样才能让自己的产品排在搜索结果的首位呢?如果排名靠后,被用户点击的概率就会很低。我发现从去年(2023年)开始,越来越多的创业公司都非常重视通过这种方法来获取流量。

那么,如何进行搜索引擎优化呢?方法有很多,以我们的产品网站为例,我们设置了 100 万个相关的搜索词。因为用户每天的搜索需求千差万别,当你的网站有大量的搜索词在谷歌上时,通过这些搜索词的组合,就能汇聚海量的流量。所以,在这方面不要怕麻烦,要知道这是一个逐渐积累的过程,不可能一蹴而就。

第二,要精心打造内容与产品。Google 的算法会考量用户对软件的喜好程度,例如若用户进入网站后很快就离开,那么该网站的权重必然不高,排名也难以靠前。

从收单的角度来看,这也是近期从事 AI 行业的一些用户普遍反映的痛点。如今大家都在拓展海外业务,然而常常出现做了不到半年账号就被封的情况。像我们常用的 PayPal、Stripe 等支付体系,其中一个极为关键的要点是争议率不能过高。在 AI 领域,由于用户因对 AI 感兴趣而购买产品,但使用后发现与预期不符,便会发起退款,从而引发争议。一旦争议率升高,许多支付系统就会将商家拒之门外。

如何降低此类事件的发生频率呢?我们内部为此开展了大量工作。这项工作主要在后台运作,我们专门组建了一个团队来控制争议率。在用户可见的前端,展现的是功能的不断完善以及AI算法的持续提升。但实际上,只有将整个事情统筹做好,支付环节才能顺利进行,因为若支付环节出现问题,支付系统将会终止服务,即便前端产品打造得再出色,也可能面临零销售的困境。

05

打造 AI Native 应用,真的必要吗?

我们再来探讨一下当下备受热议的话题:是否要打造原生 AI(AI Native)应用?

我经常讲一句话:只有 AI 的产品(AI Native)不一定赚钱,但是赚钱的产品一定有AI(工作流)。这话怎么理解呢?如今很多人觉得若不是原生 AI 应用,就称不上是真正的 AI 产品。可仔细想想,若是纯粹的原生 AI 产品,仅依赖AI技术,一旦像 OpenAI 这样的大模型进行能力升级,就极有可能被其取代。而我所强调的“赚钱的产品一定有 AI”,重点在于构建良好的工作流。以我们的产品为例,它涉及庞大复杂的图像、图形与视频工作流,我们在其中融入 AI 算法,助力用户更高效便捷地完成任务。

我深信像 OpenAI 这种全球顶尖的大模型公司,不会涉足工作流业务。毕竟除了图像领域,还有医疗、电商等诸多领域的工作流,它不可能一一兼顾。所以,我们务必要从工作流层面构建自身的竞争壁垒,借助 AI 让这一壁垒更加稳固坚实。若仅仅着眼于开发单纯的AI产品,极有可能被大模型轻易替代。

最后引用美国硅谷孵化器的一句话:今天的 AI 创业者将获得如 1995 年的互联网创业者和 2009 年移动互联网创业者那样的十大机会。

注:文/段江,文章来源:牛透社(公众号ID:Neuters ),本文为作者独立观点,不代表亿邦动力立场。

文章来源:牛透社

广告
微信
朋友圈

这么好看,分享一下?

朋友圈 分享

APP内打开

+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭
收藏成功
发送
/140 0