AI交流(进群备注:SLICES)

SLICES 是一个基于 AI 的材料设计工具,提供图形界面和可视化操作,简化材料设计流程。它支持本地和 Docker 安装,内置任务管理系统,默认支持 8 线程并行计算,并具备早停机制、多目标逆向设计、结构新颖性检查优化等功能,大幅提升计算效率。
SLICES的特点:
- 1. 本地安装与 Docker 安装的统一使用体验
- 2. 内置简洁任务管理系统,默认支持 8 线程并行计算
- 3. 早停机制 (Early Stop):训练过程中自动提前停止训练
- 4. 多目标逆向设计:原生支持 1-N 个性质的逆向设计需求
- 5. 结构新颖性检查优化:分离 SLICES 解码与结构新颖性检查功能
- 6. 支持数据文件分片处理,大幅提升计算效率
SLICES的功能:
- 1. 通过 GitHub 下载最新 repo 体验
- 2. 本地安装模式,轻松上手
- 3. 使用任务管理系统进行并行计算
- 4. 利用早停机制节省训练时间与资源
- 5. 进行多目标逆向设计,无需修改核心代码
- 6. 优化结构新颖性检查,提升计算效率
相关导航

Forgetting Transformer (FoX)开源 – 改进的Transformer,增强长文本处理
Forgetting Transformer (FoX) 是一种改进的 Transformer 模型,通过在 Softmax 注意力机制中加入遗忘门,增强了处理长文本和序列任务的能力。它的设计目标是提升长文本建模、长度外推和短文本任务的性能,同时保持长上下文处理能力,并解决标准 Transformer 缺乏显式数据依赖遗忘机制的问题。FoX 通过数据依赖的方式下调未归一化的注意力分数,命名为“遗忘注意力”(Forgetting Attention)。研究表明,FoX 在长上下文语言建模、长度外推和短上下文下游任务上优于标准 Transformer,而在长上下文下游任务上表现相当。此外,FoX 兼容 Flash Attention 算法,且无需位置嵌入,保留了 Transformer 相对于循环序列模型(如 Mamba-2、HGRN2 和 DeltaNet)在长上下文能力上的优势。
暂无评论...