TransDLANet 是一个基于 Transformer 的文档布局检测模型,通过自适应元素匹配机制增强查询向量与文档实例之间的关联,从而更好地理解不同布局元素之间的空间和全局依赖关系。该模型包括 CNN 基础网络、Transformer 编码器、动态解码器和共享多层感知机(MLP)分支,支持多任务学习,如分类置信度、边界框坐标和文档实例区域的分割掩码。在 MDoc 数据集上,TransDLANet 达到了 64.5% 的平均精度(mAP),表现优于现有技术。
TSNet是由哈佛大学研究人员开发的一种神经网络架构,旨在根据输入数据高效地在不同计算路径之间切换。该架构能够动态调整计算流程,适用于处理多种类型的输入数据,并且具有可扩展性,能够应对大规模数据集。TSNet与TensorFlow无缝集成,支持多任务学习场景,为复杂的机器学习项目提供了灵活的解决方案。
该项目专注于对独立成分进行对齐,以改善多任务学习的效果。通过利用独立成分分析技术,提升多任务学习场景中的性能,适用于多种机器学习任务。
该项目旨在通过多任务语言建模统一分子和文本表示,提升化学和语言处理的结合能力。
AI Docs是一个平台,允许用户塑造和训练多个语言学习模型(LLM),以自动化各种任务。这些模型可以导出为API、Telegram机器人或WhatsApp机器人。用户可以使用提供的工具和资源创建和训练自己的LLM,指定所需功能并相应地训练模型。一旦训练完成,LLM可以被导出并集成到不同的应用程序或平台中。
GPT-3 是一个具有 1750 亿参数的强大语言模型,展示了更大的模型在多种实际任务中表现更好的现象。它在自然语言处理领域具有显著的优势,能够理解和生成多种形式的文本。
Isaax是一个由AGX人工智能驱动的AI助手,提供文本和图像生成工具,以简化内容创作并提高生产力。它具备文本摘要、写作/重写、语法检查、SEO优化、创意生成等多种功能。
UltraChat是由清华团队基于Scalable Diverse方法构建的开源对话语言模型,凭借其在多轮对话中的卓越表现,在斯坦福大学的评测榜单中脱颖而出,成为得分超过80的唯一开源模型。该模型利用大规模、高质量、高度多样化的多轮指令数据进行训练,并在AlpacaEval评测集及自建评测集上表现出色,最高胜率可达98%。UltraChat致力于推动大模型对齐技术的发展,为各种自然语言处理任务提供强有力的支持。
gptshare是一个GPTs目录服务,帮助用户找到最适合自己的GPT工具,推动人类工作与生活的变革。