这是一个关于科学大型语言模型(Sci-LLMs)的全面调查,重点关注生物学和化学领域,提供深入的分析与比较,以助于研究人员更好地了解和应用这些模型。
这是一个精心策划的资源列表,涵盖了有关在不进行昂贵再训练的情况下更新大型语言模型(LLMs)的优秀论文和资源,基于EMNLP'23的调查结果。
Tonic Validate Metrics 是一个开源的评估指标包,旨在为生成模型的输出提供多种评估指标,支持模型性能对比,易于集成到机器学习工作流,并兼容多种数据格式和输入类型。
llm-papers 是一个专注于大型语言模型(LLM)相关文献的项目,汇集了大量研究论文,并提供文献分类、标签、重要算法和模型的详细信息。同时,用户可以提交和推荐新的文献,促进研究交流。
这是一个与大型语言模型评估相关的论文和资源集合,旨在为研究人员和从业者提供全面的参考资料,定期更新新发现和资源。
Awesome_Multimodal是一个精心策划的GitHub项目,提供关于多模态大语言模型(MLLM)的全面资源集合。
本项目对大型语言模型中的上下文长度扩展进行了详细调研,讨论了现有策略、评估复杂性及研究者面临的挑战。
本项目对零阶优化技术进行了基准研究,重点关注在微调大型语言模型时的内存效率。
图神经网络(GNN)时间序列分析相关论文列表,提供了两种分类方式:基于任务的分类和基于模型的分类。
Transformer语言模型域自适应工具包,用于将基于Transformer的语言模型适应于新的文本领域。该工具包支持多种预训练模型,并提供灵活的配置选项,使得用户能够轻松调整和评估模型在特定领域的表现,从而有效提升自然语言处理任务的效果。