该项目深入探讨了John Ousterhout的《A Philosophy of Software Design》与Robert Martin的《Clean Code》之间的差异,通过两位大师的思想碰撞,揭示了软件设计中的关键问题,如方法长度、注释和测试驱动开发等,并提供了丰富的代码示例和实践建议。
这是一个为自然语言处理和计算语言学研究者及从业者提供的伦理相关资源列表。
本项目为国立台湾大学2023年秋季开设的《深度学习在音乐分析与生成》课程的教学材料,致力于帮助学生掌握深度学习技术在音乐领域的应用。
这是一个用C语言编写的简单操作系统,旨在帮助人们学习操作系统的基本概念和实现。
这是由加州大学洛杉矶分校自然语言处理团队整理的公平性研究论文集合,涵盖了自然语言处理中的公平性各个方面,提供了对偏见检测、缓解策略和伦理考量的深入研究。该项目定期更新,以包含该领域最新的研究成果,并按主题对论文进行分类,便于查找相关文献。
LLMPapers是一个专注于大型语言模型(如ChatGPT、GPT-3、Codex等)的文献和研究论文资源平台,旨在为研究人员和开发者提供丰富的参考资料。该项目定期更新,涵盖最新的研究成果和技术进展,同时鼓励用户贡献新的文献资源。
这是一个包含2000个大语言模型提示的终极集合,旨在帮助任何对大语言模型感兴趣的人。它提供了各种提示,以便在不同背景下进行实验和理解其应用。
该项目是对多模态大语言模型的全面调查,涵盖最新进展、模型比较和评估以及多种应用场景,信息更新频繁,确保时效性。
该项目是一份多模态大语言模型相关论文和资源的阅读清单,旨在汇集、分类和整理最新的研究成果,帮助研究人员和开发者了解多模态LLM的进展和最佳实践。
该项目是一个多模态大语言模型在数学、STEM及编程领域的论文集合,旨在整合和分享最新的研究成果,推动相关领域的创新与发展。
MM-LLM是一个增强现有大型语言模型的框架,支持多模态输入和输出,同时保持其推理和决策能力。该项目提供全面的模型架构和训练管道设计,并回顾了在主流基准上的表现,旨在推动多模态任务的发展。
Awesome_Multimodal是一个精心策划的GitHub项目,提供关于多模态大语言模型(MLLM)的全面资源集合。
该项目提供系统化的深度学习学习资料,专注于大语言模型的对齐,涵盖多种深度学习技术和方法,适合不同水平的学习者。
以爱丽丝漫游“可微分”仙境为比喻,向读者介绍神经网络领域的入门书,涵盖自动微分优化函数、序列、图、文本和音频处理的设计技术。
大型语言模型研究资源库,专注于OpenAI o1和推理技术,持续更新以追踪LLM推理的最新进展
该项目收集了关于具身多模态大型语言模型(VLA模型)的研究论文,旨在为研究人员和开发者提供最新的研究进展和相关文献资源,帮助大家获取前沿信息,推动该领域的发展。
一个专注于挖掘多模态视觉语言模型潜力的开源项目,支持从2B到34B不同规模的密集和MoE大型语言模型,具备图像理解、推理和生成的能力。
为视觉-语言模型(例如CLIP)提供精心策划的Prompt/Adapter学习方法列表,包含最新的研究进展和代码实现,促进模型的高效学习和应用
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型