一个用于对话系统高效调优的框架,支持多轮对话,旨在提升对话系统的表现。
一个Python框架,用于构建基于LLM的应用,提供多智能体编程范式,智能体通过交换消息协同解决问题。
这是一个第三方Alexa技能,通过说'Alexa, open ChatGPT'或'Alexa, ask ChatGPT how tall the Eiffel tower is'来启动。它允许用户进行长时间的对话,支持多种语言和声音,能够跨会话进行交互。
multi-agent-orchestrator是一个灵活且强大的框架,用于管理多个AI智能体并处理复杂的对话。它支持智能意图分类,双语言能力以及灵活的智能体响应和上下文管理,能够有效提升用户体验和交互质量。
VideoTuna是一个集成了多种视频生成模型的代码库,支持从文本到视频、图像到视频的生成,并提供了预训练、连续训练、对齐和微调等完整的视频生成流程。它支持多种视频生成模型,如CogVideoX、Open-Sora、VideoCrafter等,能够处理不同分辨率的生成任务。此外,VideoTuna还提供了丰富的后处理功能,如视频到视频的后处理和增强模块,并计划推出3D视频VAE和可控面部视频生成模型,进一步扩展应用场景。
OpenChit是一款支持文本和语音的原生AI聊天客户端,具有文本转语音播放功能(支持Siri和Azure TTS)。用户可以通过键入或语音命令与AI进行互动,并通过文本转语音功能收听AI的回复。
Inflection-2.5接近于GPT-4的性能,但训练所用计算资源仅为其40%。它结合了强大的能力和Inflection独特的个性化以及同理心的微调。
本项目探讨了一种名为‘模型融合(blending)’的方法,通过整合多个较小的对话人工智能模型,以实现与单一大模型相媲美或更优的性能,避免计算需求激增,适用于中等规模模型的协同融合。