【亿邦原创】2023被称为大模型元年,2024则是大模型的应用元年,如何用大模型构建一个智能对话助手,如何将大模型整合进工作流,如何用大模型构建超长上下文知识库?这些问题都亟待模型公司回答。
3月14日,大模型公司零一万物发布Yi大模型API开放平台,提供三款模型,可用于识别图片中存在的表格、文字,并进行深层次的问答,也可基于超长上下文模型构建知识库问答,用于客服、培训等特定知识的问答场景,分别是:
1)Yi-34B-Chat-0205:支持通用聊天、问答、对话、写作、翻译等功能。
2)Yi-34B-Chat-200K:200K上下文,多文档阅读理解、超长知识库构建小能手。
3)Yi-VL-Plus: 多模态模型,支持文本、视觉多模态输入,中文图表体验超过GPT-4V。
零一万物是我国大模型独角兽之一,成立于2023年3月,李开复博士为创始人兼CEO。2023年11月6日,零一万物发布了首款开源中英双语大模型“Yi”。
1、支持30万汉字输入,快速构建知识库
大模型正在加速进入长文本时代。本次零一万物发布的Yi-34B-Chat-200K模型,支持处理约30万个中英文字符,适合用于多篇文档内容理解、海量数据分析挖掘和跨领域知识融合。
比如,Yi-34B-Chat-200K对经典文学作品《呼啸山庄》进行复杂角色和角色关系的归纳总结。该小说篇幅庞大(中文字数约30万字),且人物关系错综复杂,Yi-34B-Chat-200K仍能精准地梳理和总结出人物之间的关系,理解并分析复杂的文本结构。
2、中文图表体验超过GPT-4V
本次开放的多模态模型Yi-VL-Plus,可支持文本、视觉多模态输入,面向实际应用场景大幅增强:
1)增强Charts、Table、Inforgraphics、Screenshot识别能力,支持复杂图表理解、信息提取、问答以及推理。中文图表体验超过GPT4V。
2)在Yi-VL基础上进一步提高了图片分辨率,模型支持1024*1024分辨率输入,显著提高生产力场景中的文字、数字OCR的准确性。
3)保持了LLM通用语言、知识、推理、指令跟随等能力。
比如,在中文图表识别功能评测中,Yi-VL-Plus模型能准确识别图表对应数据,而GPT-4V则识别错3处数据。
Yi-VL-Plus模型在一些中文图表理解场景,比GPT-4V准确率更高
长文本+多模态,能够理解并分析复杂论文与专业学科知识。
以上功能,不仅可以帮助消费者快速构建智能对话助手,还可以基于超长上下文模型构建知识库问答,用于客服、培训等特定知识的问答场景,金融分析师可以用它快速阅读报告并预测市场趋势、律师可以用它精准解读法律条文、科研人员可以用它高效提取论文要点、文学爱好者可以用它快速掌握作品精髓等,应用场景广泛。
同时,Yi大模型API与 OpenAI API完全兼容,只需修改少量代码,可以平滑迁移。
零一万物透露,近期将为开发者提供更多更强模型和AI开发框,包括:
1)推出一系列的模型API,覆盖更大的参数量、更强的多模态,更专业的代码/数学推理模型等。
2)突破更长的上下文,目标100万tokens;支持更快的推理速度,显著降低推理成本。
3)基于超长上下文能力,构建向量数据库、RAG、Agent架构在内的全新开发者AI框架。旨在提供更加丰富和灵活的开发工具,以适应多样化的应用场景。
文章来源:亿邦动力