PRODIGY是一个支持基于图的上下文学习的项目,具备实时学习能力,旨在通过图形交互实现动态数据训练和模型优化。
一个用于语言信息思维的计算框架,通过概率程序与自然语言相结合,破解世界模型。
在本地计算机上微调 LLAMA-v2(或任何其他 LLM)的最简单方法,提供用户友好的界面和高效的训练过程,支持多种语言模型,方便用户上传数据并进行微调。
ReLLM是一个平台,可在几分钟内为您的应用提供权限敏感的上下文,允许您为大型语言模型(如chatGPT)提供长期记忆。通过签署账户并集成ReLLM,您可以为用户提供上下文,该上下文可用于生成响应。ReLLM将为您处理聊天历史和消息链,让您专注于客户。
基于Triton语言实现的Flash Attention, 采用OpenAI团队发布的Fused Attention代码,优化了注意力机制,适用于大规模数据处理,支持快速训练和推理,兼容多种深度学习框架。
这是一个精心整理的关于上下文学习相关论文的列表,旨在为研究人员和学者提供便利。
该项目旨在理解词嵌入,由达姆施塔特工业大学和莫斯科国立大学的研究人员开发。