标签:AI安全性
OpenAI o1模型:推理能力与安全性的双重挑战
OpenAI o1模型在推理能力上取得了显著突破,但其安全机制面临严峻挑战。杜克大学的研究揭示了思维链劫持(H-CoT)攻击对模型安全性的威胁,导致模型拒绝率从9...
Claude 3.7 Sonnet:AI领域的推理与创新之星
Claude 3.7 Sonnet作为Anthropic最新推出的AI模型,凭借其“扩展思考模式”和强大的推理能力,在代码生成、长文本处理和高风险领域的安全性评估中表现突出。本...
GPT-4.5:OpenAI史上最大規模語言模型的突破與挑戰
本文深入解析OpenAI最新發布的GPT-4.5,探討其技術特點、性能提升與安全性評估。作為OpenAI史上最大規模的語言模型,GPT-4.5通過教師無監督學習和創新訓練方...
OpenAI o3-mini:革新推理模型,开启AI新纪元
OpenAI推出全新推理模型o3-mini,首次向免费用户开放,具备强大的科学、数学和编码能力,同时维持低成本和低延迟特性。CEO Sam Altman罕见承认开源策略失误,...
人工智能联盟成立:科技巨头携手推动AI创新
全球50家机构联合成立人工智能联盟(AI Alliance),旨在加速人工智能技术的负责任创新与发展。该联盟由美国主导,欧盟和日本参与,成员包括英特尔、AMD、IBM...
Mira Murati与ChatGPT:从OpenAI到Thinking Machines Lab的AI探索之旅
本文探讨了OpenAI前CTO Mira Murati在AI领域的贡献,特别是她在ChatGPT开发中的关键角色,以及她新创立的Thinking Machines Lab如何致力于推动AI技术的可访问...
视觉生成模型安全对齐:AI技术的未来挑战与突破
本文探讨了视觉生成模型在安全对齐方面的最新进展与挑战,重点分析了RealSafe-R1模型和Ovis架构的创新,以及如何通过技术手段提升AI系统的安全性与可靠性。