❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦!
微信公众号|搜一搜:蚝油菜花
STAR 是由南京大学、字节跳动和西南大学联合推出的创新视频超分辨率(VSR)框架,能够从低分辨率(LR)视频生成高分辨率(HR)视频,同时保持细节清晰度和时间一致性。STAR 整合了强大的文本到视频(T2V)扩散模型,增强了视频的空间细节和时间建模能力。
STAR 引入了局部信息增强模块(LIEM),在全局注意力块之前丰富局部细节,减轻复杂退化引入的伪影问题。此外,STAR 还推出了动态频率(DF)损失,引导模型在不同扩散步骤中关注不同频率成分,提高恢复保真度。
git clone https://github.com/NJU-PCALab/STAR.git
cd STAR
conda create -n star python=3.10
conda activate star
pip install -r requirements.txt
sudo apt-get update && apt-get install ffmpeg libsm6 libxext6 -y
从 HuggingFace 下载预训练的 STAR 模型,并将其放入 pretrained_weight/
目录中。
将测试视频放入 input/video/
目录中。对于提示文本,可以选择不提供、自动生成或手动编写,并将其放入 input/text/
目录中。
在 video_super_resolution/scripts/inference_sr.sh
中修改路径,包括 video_folder_path
、txt_file_path
、model_path
和 save_dir
。
bash video_super_resolution/scripts/inference_sr.sh
如果遇到内存不足的问题,可以在 inference_sr.sh
中设置较小的 frame_length
。
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦!
微信公众号|搜一搜:蚝油菜花