赶在Google I/O大会之前,5月 14日凌晨,OpenAI发布了一个新模型——GPT-4o。
对,不是搜索,不是GPT-5,而是GPT-4系列的一款全新多模态大模型。按照OpenAI CTO米拉·穆拉蒂(Muri Murati)的说法,GPT-4o——「o」代表了omni(意为「全能的」)——能够接受文本、音频和图像任意组合的输入与输出。
而新的GPT-4o模型响应更快、处理更快、效率更高,也让人机交互在一定程度上发生了质的变化。
事实上,在不到30分钟的发布会中,最为人津津乐道的不是GPT-4o这个模型自身,而是在GPT-4o的支撑下,ChatGPT的交互体验。不仅是人机语音对话体验更接近人与人之间的实时对话,视觉识别能力的进步也让AI更能基于现实世界进行语音交互。
简而言之就是更自然的人机交互。这很容易让人想起《她(Her)》中的AI虚拟助手,包括OpenAI CEO山姆·奥尔特曼(Sam Altman):
但对很多人来说,更重要的可能是免费用户也能使用GPT-4o(不包括新的语音模式),官方说将在接下来几周正式推出。当然,ChatGPT Plus付费用户显然还是有「特权」的,从今天开始就可以提前试用GPT-4o模型。
不过OpenAI演示中的桌面应用还未上线,ChatGPT移动端APP(包括Android与 iOS)也还没更新到发布会演示的版本。总之,ChatGPT Plus用户暂时还体验不到的ChatGPT(GPT-4o)新的语音模式。
所以在某种程度上,目前ChatGPT Plus用户享受到的GPT-4o基本是未来几周ChatGPT免费版用户的体验。
但GPT-4o的实际表现如何?值不值得免费版用户重新开始使用ChatGPT?说到底还是需要实际的上手体验。同时,通过目前基于文本和图像的对话,我们或许也能窥见新ChatGPT(GPT-4o)的能力。
从一张图片中看出《原神》
GPT-4o更懂图像了
GPT-4o模型的所有升级,其实都可以总结为原生多模态能力的全面提升,不仅是文本、音频和图像任意组合的输入、输出,同时各自的理解能力也有明显的进步。
尤其是图像理解。
在这张图片中,有被部分遮挡的书本,还有一台正在运行游戏的手机,GPT-4o不仅能准确识别书本上文字,根据知识库或者联网正确地识别出完整的书名,最让人惊艳的是能直接看出手机正在运行的游戏——《原神》。
坦白讲,熟悉《原神》这款游戏的玩家大概都能一眼看出本体,但仅凭这张图片,很多没玩过游戏、不了解游戏角色的人基本都认不出《原神》。
当小雷询问ta怎么看出是《原神》时,GPT-4o的回答也符合逻辑:无非就是画面内容、游戏界面以及视觉风格。
但同样的图片和问题,但我询问通义千问(阿里旗下)和GPT-4,它们给出回答却很难令人满意。
类似的,在看了马斯克刚发的梗图之后,GPT-4o也能较为准确地理解其中的笑点和讽刺之处。
而在移动端ChatGPT APP上,通过一张非常局部的拍摄照片,GPT-4o对场景的描述也算准确,并且也大致推理住宅区或者办公楼等范围。
以上这些例子,其实都能在一定程度上说明GPT-4o在图像理解方面的进步。需要一提的是,根据OpenAI新的政策,几周后免费版ChatGPT用户也支持直接拍照或者上传图片给GPT-4o。
此外,免费版用户在使用GPT-4o时,还能使用通过上传文件帮助总结、撰写和分析。不过从文件个数和大小上,ChatGPT可能还是不如Kimi或者其他国内AI聊天机器人大胆,限制明显。
当然优点还是有,毕竟GPT-4o有着GPT-4的顶级「智能」。
新模式还没来
但语音体验已经上了一个台阶
但比起图像理解能力,在小雷看来,这次GPT-4o最重要的能力升级还得是语音。
虽然新的语音模式还没实装,很多演示中的体验都没办法感受,但打开现有的语音模式聊几句,就能发现GPT-4o的语音体验已经有明显的升级。
其一,不仅音色音调非常接近正常人的声音,更关键的是AI也能熟练掌握各种语气词,比如「嗯」「啊」等,对话中也会有一定的抑扬顿挫。与此相对的,能明显感受到,GPT-4o下语音模式的回应更接近普遍意义上的「有感情」。
相比Siri等语音助手理所当然有大幅的进步,甚至比起目前一堆的生成式AI语音聊天,GPT-4o下语音也显得更加保真和自然。
其二,过去在语音模式的对话中,说完话往往需要较长的时间才能让ChatGPT意识到我说完了,然后开始上传、处理和输出回答,以至于很多时候我会选择手动控制。但在GPT-4o下,ChatGPT能够更灵敏地意识到我说完了并开始处理,基本就少了很多手动干涉。
不过缺点也有,有些小雷估计正式推出时也很难有明显的改善,比如一直在讨论的「幻觉」问题,并没有感受到明显的改善;但有些可能将在推出发生质的改变,比如对话的延迟。
从目前版本的体验来看,就算在聊天模式下网络连接一切正常,语音模式一开始连接就会花费不短的时间,甚至是连接失败。但即使连接上了,对话延迟还是很高,经常是我说完了要等待数秒才能等到语音回应。
实际上,旧的语音模式其实是先将用户的语音通过OpenAI的 Whisper模型转录成文本,再通过GPT-3.5/GPT-4进行处理和输出,最后再通过文本转语音模型将文本转录为语音。这么一通下来,也就不难理解之前ChatGPT语音回答之慢、语音交互体验之差的的原因了。
同时,这也是新的语音模式让人期待的核心原因。按照OpenAI的说法,GPT-4o则是跨文本、视觉和音频端到端训练的新模型,在新的语音模式下所有输入和输出都由同一个神经网络处理。甚至不只是文本和语音,新的语音模式还能基于手机摄像头的实时画面进行对话。
简单来说,原来ChatGPT回应你的语音必须要依序经过三个「脑」(模型)的处理和输出。而在即将到来的新模式下,ChatGPT只要经过一个同时支持文本、语音乃至图像的「大脑」(模型),效率提升也就自然可以想象了。
至于到底能不能实现OpenAI演示中的超低延迟回应,还是要等未来几周新模式的实装,届时小雷也会在第一时间进行体验。
写在最后
诚然,在GPT-4发布以来的一年里,全球大模型还在疯狂涌现和迭代,与GPT-4之间的差距也在不断拉小,甚至一度超越(Claude 3 Opus)。但从权威基准测试、对战PK排行榜以及大量用户的反馈来看,GPT-4依然是全球最顶级的大模型之一。
更重要的是,技术塑造能力,产品塑造体验。GPT-4o再次证明了OpenAI依然在技术和产品上的绝对实力,而GPT-4o对于语音交互体验的迭代,恐怕还会再次消灭一批AI语聊、AI语音助手方向的创业公司。
但另一方面,我们也再次看到了人机语音交互发生质变的希望。
注:文/雷科技AI硬件组,文章来源:雷科技(公众号ID:leitech),本文为作者独立观点,不代表亿邦动力立场。
文章来源:雷科技