AI交流(进群备注:MLC-MiniCPM)

基于 MLC-LLM 开发,将 MiniCPM 和 MiniCPM-V 在 Android 手机端上运行,具备优化的内存管理和计算性能,提供用户友好的接口,支持多种语言模型。
MLC-MiniCPM的特点:
1. 支持在 Android 平台上高效运行 MiniCPM 和 MiniCPM-V
2. 优化的内存管理和计算性能
3. 用户友好的接口,易于使用
4. 支持多种语言模型
MLC-MiniCPM的功能:
1. 在 Android 设备上运行 MiniCPM 模型
2. 使用 MiniCPM-V 实现更复杂的任务
3. 通过 GitHub 获取最新的更新和支持
相关导航

提出一种高效的基于Intel GPU的LLM推理解决方案。通过简化LLM解码器层的结构,融合数据移动和逐元素操作,降低内存访问频率和系统延迟。同时,提出一种段KV缓存策略,将请求和响应token的键/值存储在不同的物理内存中,以有效管理设备内存,提高运行批处理大小和系统吞吐量。在Intel GPU上实现了该解决方案,并与标准的HuggingFace实现进行了比较,对于一些流行的LLM模型,在Intel GPU上实现的解决方案的令牌延迟降低了7倍,吞吐量提高了27倍。

AI-Waifu-Vtuber是一个基于VoiceVox Engine、DeepL、Whisper OpenAI、Seliro TTS和VtubeStudio等技术构建的AI伴侣虚拟YouTuber项目。该项目的功能包括生成具备人工智能语音和表情交互能力的虚拟YouTuber角色,支持在流媒体平台上进行直播并与观众互动。其中,VoiceVox Engine用于实现自然的语音合成,DeepL用于机器翻译,Whisper OpenAI用于自然语言处理和对话生成,Seliro TTS用于将文本转化为自然流畅的语音输出,VtubeStudio用于虚拟YouTuber角色的动作捕捉和控制,使其能够进行逼真的表情和动作交互。