一个致力于探索搜索和学习两大通用方法在人工智能领域强大潜力的项目,旨在展示通用搜索和学习方法在大规模计算下的强大能力,特别是在优化大型语言模型的测试时计算方面。
phi-1.5是微软发布的一个具有13亿参数的语言模型,在自然语言处理和复杂推理任务上表现优异,其性能可与体量大5倍的模型相媲美。该模型遵循‘教科书就是你需要的一切’的原则,并且不使用爬虫爬取的互联网数据。
本项目对大型语言模型中的上下文长度扩展进行了详细调研,讨论了现有策略、评估复杂性及研究者面临的挑战。
该项目提供edX和Databricks Academy的大型语言模型课程资料和幻灯片,旨在帮助学生和教师深入理解大型语言模型的基本原理和应用。
这篇综述系统性地梳理了强化学习从价值驱动到模型思维的范式转变,探讨了强化学习的未来发展方向以及与大语言模型的结合。
FlagPerf是一个开源软件平台,用于评测AI芯片的性能,旨在通过Zhiyuan Institute与AI硬件制造商的合作开发。
本书首先介绍了经典鲁棒优化和分布鲁棒优化的基本内容,随后介绍了多阶段问题及如何运用线性决策规则和鲁棒优化对多阶段问题近似求解,同时也囊括了鲁棒性优化和机器学习等最新的一些研究方向,旨在对鲁棒优化进行框架性地梳理,为有志于运用鲁棒优化解决实际问题和从事鲁棒优化学术研究的同学提供概念性和框架性的入门。