北京 建公司网站要多少钱最好网站建设制作是那个
北京 建公司网站要多少钱,最好网站建设制作是那个,框架型网站,怎么制作网站接口Stable Diffusion团队推出的开源模型Stable Video Diffusion#xff0c;支持生成约3秒的视频#xff0c;分辨率为5761024。通过测试视频展示了其令人瞩目的性能#xff0c;SVD模型是一个生成图像到视频的扩散模型#xff0c;通过对静止图像的条件化生成短视频。其特点主要包…Stable Diffusion团队推出的开源模型Stable Video Diffusion支持生成约3秒的视频分辨率为576×1024。通过测试视频展示了其令人瞩目的性能SVD模型是一个生成图像到视频的扩散模型通过对静止图像的条件化生成短视频。其特点主要包括 1、微调优化: 通过在特定条件下进行微调提高了视频输出的一致性和质量。 2、改进的生成性能: 在生成视频的清晰度、分辨率以及帧数方面可能有所改进提供更为流畅和高质量的视觉体验。 3、固定条件下的性能提升: 通过在固定条件下进行微调SVD在特定设置下展现出更优的性能。包括更好的运动一致性和视觉效果同时保持了条件的可调整性以适应不同的应用需求。 4、适应性和局限性:模型的生成视频较短可能存在一些局限性如生成视频中可能没有运动或摄像机移动缓慢。建议模型仅用于研究目的不适合用于生成真实人物或事件的内容。
下面就让我们一起来配置一台SVD的服务器试试他的效果吧
环境准备
在PVE4.17配置虚拟机一台
Ubuntu22.04内存32G内存太小不行运行过程中会意外中断。
N卡Nvidia P40
IP地址192.168.29.201
一克隆存储库
git clone https://github.com/Stability-AI/generative-models.git
二安装部署SVD
1、设置虚拟环境
conda create -n svd python3.10
conda activate svd
2、安装相关依赖
pip install -r requirements/pt2.txt
pip install pytorch-lightning
3、安装sgm
pip install .
4、安装ffmpeg
apt install ffmpeg 三下载模型
svd下载地址:https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt
两外模型的名称
1svd.safetensors
2svd_image_decoder.safetensors
svd_xt下载地址:https://huggingface.co/stabilityai/stable-video-diffusion-img2vid 两个模型的名称
1svd_xt.safetensors
2svd_xt_image_decoder.safetensors
放置位置 generative-models/checkpoints
其他两个模型下载地址 https://huggingface.co/laion/CLIP-ViT-H-14-laion2B-s32B-b79K/tree/main https://openaipublic.azureedge.net/clip/models/b8cca3fd41ae0c99ba7e8951adf17d267cdb84cd88be6f7c2e0eca1737a03836/ViT-L-14.pt
将这两个模型放在以下目录
1将models--laion--CLIP-ViT-H-14-laion2B-s32B-b79K.tar拷贝至
/root/.cache/huggingface/hub/models–laion–CLIP-ViT-H-14-laion2B-s32B-b79K.tar
然后执行tar -zxvf models--laion--CLIP-ViT-H-14-laion2B-s32B-b79K.tar
2将ViT-L-14.pt拷贝至/root/.cache/clip/ViT-L-14.pt
如果找不到这六个模型也可以从百度网盘下载
链接https://pan.baidu.com/s/188W1Ska5YSoIc8czjssjEQ?pwd9rvz 提取码9rvz
四运行
cd generative-models
streamlit run scripts/demo/video_sampling.py --server.address 192.168.29.201 --server.port 7862
如果发生报错ModuleNotFoundError: No module named scripts那么请执行
echo export PYTHONPATH/generative-models:$PYTHONPATH /root/.bashrc
source /root/.bashrc
或者重启服务器然后再执行运行指令。 五代码修改
cd generative-models
vim ./scripts/demo/streamlit_helpers.py#找到“cv2.VideoWriter_fourcc” 修改为writer cv2.VideoWriter(video_path,cv2.VideoWriter_fourcc(*m, p, 4 , v),fps,(vid.shape[-1], vid.shape[-2]),)
注意 那个【*】号不能少啊否则mp4v的生成视频无法显示。
六使用SVD
https://192.168.29.201:7862
1、加载模型 在四外模型中选择一个模型然后点Load Model加载模型。 出现报错是因为需要上传一张图片这里并没有错误。
2、选择一张图片用于生成动画。 上传图片后注意这个选项“Decodet frames at a time”这里测试过程中我只能选2也就是P40 24G最多也就只能处理2秒的视频如果你需要一次处理更多的视频就要换内存更大的N卡。点击【Sample】就可以生成动画视频了。 SVD可以做为ComfyUI的插件在ComfyUI管理下有更出色的内存管理我们接下来会探讨如何将SVD安装在ComfyUI下面有兴趣的小伙伴可关注意更新。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/90389.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!