TecoGAN是一个用于视频超分辨率的生成对抗网络(GAN),专注于生成具有时序一致性的高分辨率视频。该项目由慕尼黑工业大学的研究团队开发,旨在通过自监督学习提升视频生成中的时间连贯性。项目提供了推理、训练和下载训练数据的代码,并包含预训练模型。TecoGAN的生成能力在细节持久性和时空一致性方面表现出色,能够生成长时间保持细节的视频序列。
APISR是一个专注于动漫图像和视频的超分辨率模型,旨在通过提升画质分辨率来恢复和增强低质量、低分辨率的动漫图像和视频源。该项目特别针对真实场景中的各种退化问题,提供了多种超分辨率模型和权重,支持2x、4x等不同放大倍数的处理。APISR还提供了在线演示、本地Gradio推理、数据集处理、训练等功能,适用于动漫爱好者和研究人员。
EvTexture是一种基于事件相机的高频动态细节来提升视频纹理质量的新方法。通过多次迭代优化细节信息,确保在时间轴上每一帧的细节都能保持一致。该项目提供了Pytorch实现,并已在ICML 2024上发表。项目支持多种数据集,并提供了预训练模型和测试集,方便用户快速测试和使用。
STAR是由南京大学、字节跳动、西南大学联合推出的创新视频超分辨率框架,旨在从低分辨率视频生成高分辨率视频,同时保持细节清晰度和时间一致性。该项目整合了强大的文本到视频扩散模型,增强了视频的空间细节和时间建模能力。STAR引入了局部信息增强模块(LEM),在全局注意力块之前丰富局部细节,减轻复杂退化引入的伪影问题。此外,STAR还推出了动态频率(DF)损失,引导模型在不同扩散步骤中关注不同频率成分,从而提高恢复保真度。
TDAN(Temporally-Deformable Alignment Network for Video Super-Resolution)是一个专注于视频超分辨率的网络,通过时变对齐技术实现高质量的视频帧重建。它能够有效处理低分辨率视频,提升视频质量,适用于各种视频超分辨率任务。
VideoGigaGAN是一种视频超分辨率(VSR)方法,能够生成具有高频细节和时间一致性的视频,扩展自GigaGAN。该项目通过将视频放大8倍,显著提高上采样视频的时间一致性,确保生成的画面在细节和流畅度上都达到高标准。
FMA-Net是一个视频超分辨率和去模糊的联合学习方案,旨在将模糊、低质量的视频转变为清晰、高质量的视频。
一种通过记忆增强非局部注意力机制来提升视频超分辨率的方法,可以有效改善视频质量。
aimages AI是一个在线AI视频增强和放大器,允许用户通过人工智能提高视频和图像的质量,提供专业级的增强和放大功能,支持各种设备,无需安装,操作简单。
EyeQ是一家数字影像公司,提供自动照片修正和AI视频增强技术,旨在为企业提供高效、便捷的解决方案,以获得竞争优势。
UniFab All In One是一款由AI驱动的综合视频处理工具,能够将视频分辨率提升至4K,并将音频升级至DTS 7.1环绕声,全面提升视频和音频质量。
视频增强器是Vmake推出的一款在线工具,旨在通过将低分辨率视频转换为高质量视觉效果,提升视频的整体清晰度和外观,帮助用户恢复模糊或旧视频的生动感。
Fotor Video Enhancer AI 利用人工智能技术,自动优化视频的清晰度、色彩和亮度,帮助用户轻松提升视频质量,适合个人和专业人士使用。
HitPaw Video Enhancer是一款利用AI技术提升视频分辨率和质量的视频增强工具,支持多种视频类型的处理。用户只需上传视频,选择合适的AI模型,预览效果后即可导出增强后的视频。
Flawless AI 是一款领先的生成性AI工具,专为电影制作、内容创作和数字艺术设计,自动化视频后期制作的复杂过程,提升视频质量,让每一帧都能以最佳状态呈现。