书生项目是由上海人工智能实验室开发的开源AI大模型系列,涵盖自然语言处理、3D重建、教育辅助等多个领域。项目包括书生·浦语、书生·天际和书生·浦语灵笔等多个模型,旨在通过高质量开源资源促进AI技术创新和应用。书生系列模型具有超长文本处理、强化推理、自主信息搜索等功能,并提供免费商用授权,适应多样化应用需求。
Exa & Deepseek Chat App 是一个开源的智能聊天应用,结合了Exa的API进行网页搜索和Deepseek R1进行推理,使得聊天更加智能和高效。通过Exa API,该应用能够快速搜索并获取最新的网页信息,而Deepseek R1则提供了强大的推理能力,确保回答的准确性和智能性。作为一个开源项目,用户可以自由定制和扩展该应用,以满足不同的需求。
PALBERT是一个旨在提升ALBERT模型推理能力的项目。通过改进ALBERT的思考方式,PALBERT增强了模型在处理复杂问题时的推理能力,使其在自然语言处理任务中表现更加出色。
OpenThought ARC-AGI-2是一个开源项目,旨在构建认知核心,以解决人工智能领域中的各种挑战。该项目专注于开发能够自我改进和进行推理的智能系统,为推动人工智能的进步提供基础。
SciBench旨在评估语言模型在复杂科学问题解决中的推理能力。通过开放和封闭数据集的深入基准测试,研究发现当前的语言模型在整体性能方面表现不佳,仅得到35.80%的分数。
该研究定义了一种风格的语言模型代理,该代理具有推理和运用外部知识的能力,通过对先前轨迹的迭代训练来提升其性能。
该项目能够自回归地完成复杂的标记序列,包括从随机过程中生成的任意序列到更丰富的空间模式。使用语言大模型驱动的策略可能会为词汇模式转化为动作提供新思路,但目前由于延迟、上下文限制和计算成本等问题,还难以在真实系统中部署。这些可以促进领域的发展,为更广泛的任务和应用提供基础和启示。
检索增强大语言模型指南,旨在提供有关如何构建和使用检索增强的语言模型的全面信息和工具。
一种特殊的神经网络架构,可以在不增加推理成本的情况下,为语言大模型(LLM)增加可学习的参数。该研究发现模型比密集模型更能从指令调优中获益,因此提出将MoE和指令调优结合起来。
检索增强生成(RAG)是指在大型语言模型回答问题之前,从外部知识库中检索相关信息,以提高答案的准确性和减少模型的幻觉现象。该方法结合了参数化知识与非参数化外部知识库,能够引用来源,从而增加答案的透明度,并支持知识的更新和特定领域知识的引入。
Self-Translate是一种技术,通过利用多语言语言模型的少样本翻译能力,能够有效地提高多语言语言模型的性能,克服对外部翻译系统的依赖,尤其在非英语输入场景下表现优越。
该项目旨在实现稀疏和稳健的预训练语言模型,以提高语言理解的能力和效率。
OpenICL是一个开源的框架,旨在支持上下文学习,提供多种算法和灵活的接口,便于集成到现有的自然语言处理模型中。
ReDel是一个工具包,旨在帮助研究人员和开发者构建、迭代和分析递归多智能体系统。
高级文本生成工具,旨在提高语言模型输出的质量和多样性,通过动态调整和回溯机制来减少指定的过度使用词汇和短语(即 'GPT slop')的生成概率
AskVideo.ai是一个免费的在线工具,允许用户与任何YouTube视频进行对话。它利用视频的转录文本,使用户能够与视频内容互动并进行讨论。用户只需访问网站,搜索想要聊天的YouTube视频,工具将基于视频的转录生成聊天界面,用户可以提问,发现洞察,并探索视频中的精彩瞬间。
ByteBookMan是一个基于AI的互动平台,允许用户使用GPT-3.5技术与PDF文件进行对话。用户可以高亮、注释和分享PDF,同时在其中搜索关键词和短语。
AI Wrytr是由Amraks Technologies开发的AI内容生成器,旨在帮助用户轻松创建独特且引人入胜的内容,从而提高转化率和推动销售。通过AI Wrytr,企业和个人可以简化内容创作流程,在几秒钟内生成高质量的内容。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型