广告
加载中

零一万物:新增API开放平台 加速大模型应用落地

胡镤心 2024/03/14 17:34

【亿邦原创】2023被称为大模型元年,2024则是大模型的应用元年,如何用大模型构建一个智能对话助手,如何将大模型整合进工作流,如何用大模型构建超长上下文知识库?这些问题都亟待模型公司回答。

3月14日,大模型公司零一万物发布Yi大模型API开放平台,提供三款模型,可用于识别图片中存在的表格、文字,并进行深层次的问答,也可基于超长上下文模型构建知识库问答,用于客服、培训等特定知识的问答场景,分别是:

1)Yi-34B-Chat-0205:支持通用聊天、问答、对话、写作、翻译等功能。

2)Yi-34B-Chat-200K:200K上下文,多文档阅读理解、超长知识库构建小能手。

3)Yi-VL-Plus: 多模态模型,支持文本、视觉多模态输入,中文图表体验超过GPT-4V。

零一万物是我国大模型独角兽之一,成立于2023年3月,李开复博士为创始人兼CEO。2023年11月6日,零一万物发布了首款开源中英双语大模型“Yi”。

1、支持30万汉字输入,快速构建知识库

大模型正在加速进入长文本时代。本次零一万物发布的Yi-34B-Chat-200K模型,支持处理约30万个中英文字符,适合用于多篇文档内容理解、海量数据分析挖掘和跨领域知识融合。

比如,Yi-34B-Chat-200K对经典文学作品《呼啸山庄》进行复杂角色和角色关系的归纳总结。该小说篇幅庞大(中文字数约30万字),且人物关系错综复杂,Yi-34B-Chat-200K仍能精准地梳理和总结出人物之间的关系,理解并分析复杂的文本结构。

2、中文图表体验超过GPT-4V

本次开放的多模态模型Yi-VL-Plus,可支持文本、视觉多模态输入,面向实际应用场景大幅增强:

1)增强Charts、Table、Inforgraphics、Screenshot识别能力,支持复杂图表理解、信息提取、问答以及推理。中文图表体验超过GPT4V。

2)在Yi-VL基础上进一步提高了图片分辨率,模型支持1024*1024分辨率输入,显著提高生产力场景中的文字、数字OCR的准确性。

3)保持了LLM通用语言、知识、推理、指令跟随等能力。

比如,在中文图表识别功能评测中,Yi-VL-Plus模型能准确识别图表对应数据,而GPT-4V则识别错3处数据。

Yi-VL-Plus模型在一些中文图表理解场景,比GPT-4V准确率更高

长文本+多模态,能够理解并分析复杂论文与专业学科知识。

以上功能,不仅可以帮助消费者快速构建智能对话助手,还可以基于超长上下文模型构建知识库问答,用于客服、培训等特定知识的问答场景,金融分析师可以用它快速阅读报告并预测市场趋势、律师可以用它精准解读法律条文、科研人员可以用它高效提取论文要点、文学爱好者可以用它快速掌握作品精髓等,应用场景广泛。

同时,Yi大模型API与 OpenAI API完全兼容,只需修改少量代码,可以平滑迁移。

零一万物透露,近期将为开发者提供更多更强模型和AI开发框,包括:

1)推出一系列的模型API,覆盖更大的参数量、更强的多模态,更专业的代码/数学推理模型等。

2)突破更长的上下文,目标100万tokens;支持更快的推理速度,显著降低推理成本。

3)基于超长上下文能力,构建向量数据库、RAG、Agent架构在内的全新开发者AI框架。旨在提供更加丰富和灵活的开发工具,以适应多样化的应用场景。

文章来源:亿邦动力

广告
微信
朋友圈

这么好看,分享一下?

朋友圈 分享

APP内打开

+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭
收藏成功
发送
/140 0