在ESP32微控制器上运行大型语言模型(LLM),探索其在资源受限环境下的可能性,特色包括使用tinyllamas模型和对llama.2c的优化以提高性能。
深言科技联合清华大学NLP实验室开源的语鲸-8B模型,其能力大致介于ChatGLM2和3之间。该模型支持多种自然语言处理任务,适用于各种应用场景。
这个开源项目的目的是模拟 openai api 并将其移植到手机端,使得用户可以更方便地利用该功能,实现物尽其用的效果。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
MinT 是一个轻量级、可扩展的Transformer库,专为自然语言处理任务而设计,提供易于使用的API,支持多种预训练模型,能够高效地进行模型训练和推理。
这是一个名为"Superpower ChatGPT"的Chrome扩展开源项目,其主要功能包括ChatGPT文件夹、搜索和社区提示等,与机器学习有关。
Dromedary是IBM开源的一个基于LLaMA的大语言模型,旨在通过最少的人工监督训练实现高效的自然语言处理,结合基于原则的推理与LLMs的生成能力,致力于解决人类监督在质量和可靠性方面的问题。
Robi AI是一家前沿的人工智能初创公司,致力于通过创新技术转变各个行业并增强人类体验。我们的专家团队专注于开发能够自我学习、适应和改进的AI解决方案。
中文Guanaco(原驼)大语言模型,支持QLora量化训练,可在本地CPU/GPU上高效部署,旨在优化大语言模型的效率,适用于低资源环境的训练和应用。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型