标签:深度学习
Transformer架构驱动下的AI芯片革命:从ASIC到端侧智能的未来
本文探讨了Transformer架构如何推动AI芯片技术革新,从ASIC芯片的崛起打破GPU垄断,到端侧智能的快速发展。文章分析了ASIC芯片在功耗、成本上的优势,以及Tra...
ASIC芯片:AI推理与训练的新引擎,打破GPU垄断的利器
本文探讨了ASIC芯片在AI推理与训练中的广泛应用前景,分析了其如何打破GPU垄断,并在功耗、成本方面展现出显著优势。文章还结合多家公司和机构的观点,深入剖...
时空联合编码技术:全息成像的未来与突破
微软的NeuralHolography全息计算框架通过深度学习算法显著提升了8K全息成像的效率,将传统耗时从47分钟压缩至0.8秒。该技术在医疗影像、消费电子和文物保护等...
LSTM在多变量时序预测中的应用与优化策略
本文深入探讨了LSTM在多变量时序预测中的应用,分析了CNN-LSTM、CNN-LSTM-Attention、WOA-CNN-LSTM和WOA-CNN-LSTM-Attention四种模型的优缺点,并提出了优化...
LeNet-5:从手写数字识别到深度学习的里程碑
本文深入探讨了LeNet-5在计算机视觉领域的开创性作用,从其手写数字识别的起源到卷积神经网络的设计,再到其在现代深度学习中的应用与扩展。文章还分析了LeNe...
OpenMMLab:从实验室到全球影响力的AI开源力量
香港中文大学教授汤晓鸥在世界人工智能大会上分享了其学生林达华主导的OpenMMLab开源项目的成就。OpenMMLab作为全球最具影响力的视觉算法开源体系之一,用户...
SigLIP2:Google改进的视觉-语言模型在跨模态任务中的突破
本文深入探讨了Google改进的视觉-语言模型SigLIP2,该模型在原始SigLIP架构基础上进行了多项优化,包括更高效的训练方法、改进的损失函数和扩展的数据集使用...
从Masker AutoEncoder到AI前沿:汤晓鸥与学生的创新之旅
香港中文大学教授汤晓鸥在世界人工智能大会上分享了其学生王晓刚、何恺明和林达华在AI领域的杰出贡献。从深度学习初期的ImageNet竞赛夺冠,到ResNet和Mask R-...
从ResNet到Mask R-CNN:何恺明的AI创新之路
本文深入探讨了何恺明在AI领域的杰出贡献,特别是他在ResNet和Mask R-CNN方面的创新。这些技术不仅推动了计算机视觉的发展,还在自动驾驶和图像处理等领域展...
ResNet革命:从何恺明的突破到AI技术的未来
本文探讨了ResNet在深度学习领域的革命性影响,从何恺明的突破性研究到其在图像匹配和计算机视觉中的应用。文章还分析了ResNet在极端天气条件下的表现,以及...