()11月1日 消息:腾讯和香港科技大学最近合作推出了一种全新的腾讯视频生成模型VideoCrafter,用于高质量视频生成。和香这个模型包括视频VAE和3D去噪U-net,港科经过在庞大的学开型数据集上进行了训练,其性能表现出色,源视南通出国劳务以色列超过了其他开源视频生成模型。频生出国劳务公司查询 该项目旨在创建一个高级且用户友好的成模r超视频生成模型 ,以满足研究和生产的开源需求,并为社区的模型发展做出贡献
。他们还设想了一个视频创作助手,腾讯能够通过视觉创作将想象的和香点子变为现实
。 项目地址:https://ailab-cvc.github.io/videocrafter/ VideoCrafter1提供了两种开放扩散模型
,港科分别用于文本到视频(T2V)和图像到视频(I2V)任务。学开型出国劳务公司需要什么资质T2V模型能够生成具有1024×576分辨率的源视逼真且具有电影质量的视频,在质量方面胜过其他开源T2V模型。频生而I2V模型则旨在生成与提供的参考图像内容严格一致的日本劳务视频,保留其内容 、结构和风格 。这是第一个能够将给定图像转化为视频剪辑并保持内容保存约束的开源I2V基础模型
。 该项目的视频扩散模型框架利用自动编码器的潜在空间中训练视频UNet ,以FPS作为条件来控制生成视频的运动速度。对于T2V模型
,只需将文本提示通过交叉关注(feed into the spatial transformer)输入即可,而对于I2V模型,则将文本和图像提示一同输入。 此外,他们提供了EvalCrafter进行综合评估。项目鼓励使用其代码 、模型和数据的研究引用 ,并采用Apache2.0许可分发其代码 、模型和数据
。