1. 文生视频与图生视频
1.1. 目前AI生成视频的类别
- 文生视频
- 写提示词直接生成视频
- 工具:stable diffusion的AnimateDiff插件
- 图生视频
- 先生成关键帧图片,再生成视频
- 工具:pika lab
- 视频转视频(未来工作流中详解)
1.2. 文生视频 SD AnimateDiff插件
1.2.1. 原理
- 生成若干张图,再拼到一起,形成视频
- 什么是帧:构成视频的单张图片
- 什么是关键帧
- 动画模型让多张图之间变化不大,并且有相关性
1.2.2. 安装方法
- 插件安装
- AnimateDiff
- prompt travel
- 环境安装
- 前置
- WebUI v1.6.0
- 不要关闭模型哈希计算
- ControlNet v1.1.410
- 要在设置里,把“补齐正负面提示词”参数勾选上
- 模型
- 文件名:animatediffMotion_v15V2.ckpt
- 安装地址:SD根目录\extensions\sd-webui-animatediff\model
- 网盘中
- 前置
- 注意点
- 大模型要用SD1.5的模型效果比较好
- 该插件还有bug,可能会导致报错
1.2.3. 参数设置
- 动画模型
- 让stable diffusion拥有动画的智能
- 唯一推荐:animatediffMotion_v15V2.ckpt
- 总帧数:一共生成多少张画面
- 上下文单批数量:建议设置为16
- 帧率
- 一秒钟生成多少张画面
- 注意:最好总帧数/帧率不要大于2,也就是说视频一次生成不要超过两秒
- 保存格式
- 可以保存为什么格式。主要是mp4格式和gif格式比较实用
- mp4格式的清晰度最高
- stable diffusion本来参数影响
- 宽度高度影响视频的结果
- 高清修复可以使用,会极大提高视频的分辨率,也会导致巨大的显存占用与时间使用
- 种子随机即可
- 可以使用lora与插件
- after detailer:会一帧一帧的修复脸
- 修改总批次数可以生成多个视频
- prompt travel(提示词穿梭)
- 格式
- 前置全局提示词:1girl, full body, standing,
- <关键帧位置>:<空格><提示词内容>
- 0: in summer,
- 16: in autumn
- 32: in winter,
- 后置全局提示词(可选):smile
- 注意点
- 可以使用lora
- 间隔最好是上下文单批数量的倍数:16最佳
- 总帧数大于最后一行的数字
- 格式
- 闭环
- 解决的问题:如何让生成的视频前后闭环,形成丝滑的循环播放
- 非提示词穿梭情况下
- N:生成的视频完全不会成为循环
- R-P:文生图成为循环
- R+P:文生图成为循环
- A:文生图成为循环
- 提示词穿梭情况下
- N:生成的视频完全不会成为循环
- R-P:文生图成为循环,程度较弱
- R+P:文生图成为循环,程度更强
- A:文生图成为循环,程度最强
- 步幅
- 作用:让画面产生跳跃的效果
- 参数设置注意点
- 只能为2^n次
- 绝大多数情况下默认为1
- 重叠
- 作用:上下文中重叠的帧数
- 参数设置注意点
- -1:代表默认,等同于上下文单批数量/4
- 一般默认就好影响不大
- 视频控制(不推荐使用)
- 作用:利用视频的每一帧控制controlNet
- 注意点:controlNet无需输入图片,只需要选择预处理器勾选启用就好了
1.2.4. ControlNet联动
- ip adapater
- 可以放入图片让SD参考
- 注意点
- 绝大多数controlnet使用后会导致画面下降,需要降低控制权重提高画质
1.2.5. 注意点
- 一定要关闭动态提示词插件
- 如果本来好好的突然出现报错,尝试重启往往能解决问题
- 生成视频的画质,是不如直接生成的图片的
1.2.6. 优缺点
- 优点
- 本地安装
- 可以根据大模型控制画面内容
- 缺点
- 对显卡的显存要求太高 12GB起步
- 无法生成大家想象中那种完美的视频,甚至单帧都不能达到一般出图的质量
1.2.7. 如何实现图生视频?
- 在图生图界面传入初始帧,重绘幅度0.3-0.8,其他的和文生图一样
- 注意点:重绘幅度高后,画面变化比较大
- 如何保证画面变化不大?
- 参数设置
- 保持图生图的图片与最后一帧的图片一致
- 开启controlNet tile模式
- 控制权重0.6-1:权重越高画面变化越小
- 控制模式改为更偏向提示词
- 注意点:完全固定不可能,怎么变化模型的能力
- 参数设置
1.3. 图生视频 pika lab(免费)
- 优点
- 免费
- 好用
- 如何进入:https://discord.com/guild-discovery
- 操作流程
- 进入discord pikalab服务器 地址:https://discord.com/invite/pika
- 私信pika机器人,避免人多太混乱
- 输入命令 /create,上传图片与提示词
- 提示词写作
- 提示词不要写的太多,画面主体、背景简单写一下就好
- 动作提示词不要写的太准确
- 多刷几次,下载生成的视频:在哪里可以看到自己被刷上去的视频?:收件箱
- 参数
- -ar <比例>
- 效果:决定视频的分辨率
- gs <整数>
- 效果:决定文本提示词对画面的影响程度
- 参数范围:8-24
- -neg <提示词>
- 效果:类似于SD反向提示词的效果,不要什么
- -seed <数字>
- 效果:相同的数字生成近乎相同的结果
- -motion <数字>
- 效果:改变画面动作幅度
- 参数范围:0/1/2/3/4
- -ar <比例>
- 注意点:更适合简单主体的小范围动效,或者一些漫画的光影变化之类
1.4. AI生视频效果总结
- 目前,AI文生视频、图生视频还处于非常初级的阶段,我们用AI做视频,要扬长避短
- 更进阶的玩法,工作流课程中体现