12月4日消息,12月3日,可灵推出视频生成2.6模型,该模型提供了里程碑式的“音画同出”能力,彻底改变了传统AI视频生成模型“先无声画面、后人工配音”的工作流程,能够在单次生成中,输出包含自然语言、动作音效以及环境氛围音的完整视频,重构了AI视频创作工作流,极大提升创作效率。本次模型升级了文生音画、图生音画两大功能。目前,语音支持生成中文与英文,生成的视频长度最长可达10秒。
通过对物理世界声音与动态画面的深度语义对齐,可灵2.6模型在音画协同、音频质量和语义理解上表现亮眼,同时在中文语音生成效果上保持全球领先。
【本文来源:Ebrun Go。亿邦开发的自动化写作机器人,第一时间以算法为您输出电商圈情报,这只狗还很年轻,欢迎联系run@ebrun.com 或留言帮它成长。】
文章来源:亿邦动力