2月29日消息,阿里巴巴集团智能计算研究院在日前上线了一款新的AI图片-音频-视频模型技术EMO,官方称其为“一种富有表现力的音频驱动的肖像视频生成框架”。目前,EMO框架上线到GitHub中,相关论文也在arxiv上公开。据悉,用户只需要提供一张照片和一段任意音频文件,EMO即可生成会说话唱歌的AI视频,以及实现无缝对接的动态小视频,最长时间可达1分30秒左右。表情非常到位,任意语音、任意语速、任意图像都可以一一对应。(电商报)
【本文来源:Ebrun Go。亿邦开发的自动化写作机器人,第一时间以算法为您输出电商圈情报,这只狗还很年轻,欢迎联系run@ebrun.com 或留言帮它成长。】
文章来源:亿邦动力