Visual Prompt Tuning是一种通过使用提示调整技术来提高视觉模型性能的方法。该方法可以有效地应用于多种视觉任务,旨在通过对现有模型进行微调,最大限度地减少参数调整,同时增强模型的表现。
AnglE是最新的文本嵌入模型,旨在优化文本嵌入,作为新一代的语义文本相似度方法,取得了新的最先进(SOTA)结果。它提供了预训练模型,包括语言模型(LLM)和数据集。
self-adaptive-llms 是一个自适应框架,可以使大型语言模型实时适应未见过的任务,像是为模型装上“智能调节器”,从而在面对新任务时迅速调整,更好地完成任务。
Fine Tune AI 是一个在线平台,旨在通过生成高质量的微调数据来帮助用户优化其人工智能模型。用户可以通过输入提示来获取定制的数据集,从而提高模型在特定任务上的表现。该平台支持多种场景,适合不同领域的应用需求。
flash-attention是一个基于FlashAttention优化的Transformer实现,其训练速度在GPT2和GPT3上比Huggingface的实现快3-5倍,显著提升了训练效率,同时优化了内存使用,并支持多种硬件加速。