
2月12日,字节跳动正式发布新一代视频创作模型Seedance2.0。字节跳动Seed官微发文称,Seedance2.0还远不完美,其生成结果仍存在诸多瑕疵,未来将持续探索大模型与人类反馈的深度对齐,"让更高效、更稳定、更具想象力的音视频生产工具,服务更多创作者"。
据即梦AI平台介绍,Seedance2.0支持图像、视频、音频、文本四种模态输入,最多可同时上传9张图片、3段视频、3段音频及自然语言,混合输入总上限为12个文件,最长可生成15秒时长的视频内容。在此次升级中,"参考能力"被官方定义为最大亮点——参考图像可精准捕捉画面构图与角色细节,参考视频则支持镜头语言、动作节奏及创意特效的复刻。此外,模型新增视频编辑功能,支持对已有视频进行角色更替、删减与增加,并提供视频延长与平滑衔接能力。不过,Seedance2.0目前暂不支持输入含真人的照片或视频作为主体参考。
该模型已接入即梦AI、豆包等平台。与此同时,字节跳动旗下即梦AI还同步接入了图片生成模型Seedream5.0Lite,该模型首次支持检索生图功能,并内置生物科学、建筑设计等垂直行业专业知识库。
值得关注的是,据《科创板日报》报道,字节跳动火山引擎初步确定2月14日发布豆包大模型的一系列重要升级,涉及豆包大模型2.0、Seedance2.0及Seedream5.0Preview三款模型。其中豆包大模型2.0将正式发布,基础模型能力和企业级Agent能力将有大幅提升。
声明:市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。
本文源自:市场资讯
51配资-51配资官网-老牌股票配资平台-配资专业证券配资门户提示:文章来自网络,不代表本站观点。