Warning: Undefined variable $main_title in /www/wwwroot/msbd/wp-content/themes/onenav/sidebar-sitestop.php on line 26
AI交流(进群备注:)

LLM Compiler是由Meta开发的一款基于大语言模型(LLMs)的代码优化工具。它通过将代码转换为中间表示(如LLVM IR或汇编代码),利用LLMs分析代码的语义和结构,探索优化方案,最终生成优化后的代码。该项目提供了两个预训练模型:7B和13B参数,训练数据包含5460亿个LLVM-IR和汇编代码的token,使其能够深入理解编译器技术和优化策略。LLM Compiler支持研究和商业用途,用户可以通过Hugging Face访问模型,或下载模型权重进行本地部署。
LLM Compiler的特点:
- 1. 提供7B和13B两种模型大小,支持代码优化和反汇编任务
- 2. 训练数据包含5460亿个LLVM-IR、x86_64、ARM和CUDA汇编代码的token
- 3. 支持代码大小优化,7B FTD和13B FTD模型的代码大小优化率分别为4.77%和4.88%
- 4. 支持反汇编任务,7B FTD和13B FTD模型的Round-trip BLEU得分分别为0.95和0.96
- 5. 与Code Llama和GPT-4 Turbo相比,在代码优化和反汇编任务中表现更优
LLM Compiler的功能:
- 1. 通过Hugging Face API进行无服务器推理
- 2. 下载模型权重进行本地部署,适用于支持LLM的框架
- 3. 使用提供的demo代码进行集成和测试
- 4. 用于研究和商业用途,优化程序性能和代码大小
- 5. 用于反汇编任务,支持逆向工程和代码维护
相关导航
暂无评论...