FlipSketch 是一个基于文本引导的草图动画生成工具,能够将静态草图转换为动态动画。通过微调的文本到视频(T2V)模型,FlipSketch 可以根据输入的草图和文本描述生成相应的动画。其核心机制是通过将输入草图的参考噪声与模型的注意力机制相结合,实现从静态图像到动态视频的转换。项目提供了详细的安装和使用指南,并支持在 Hugging Face 平台上进行在线演示。
BioMedLM是由斯坦福大学和DataBricks团队合作开发的基于GPT风格的自回归语言模型,具有2.7亿参数,专门在PubMed摘要和全文上训练。该模型最初名为PubMedGPT,但由于NIH对'PubMed'商标的所有权,现已更名为BioMedLM。该项目提供了用于预训练和微调的代码,并可通过Hugging Face平台获取模型。