思想克隆训练框架:人工智能代理通过模仿人类在行动时大声思考的思想和行动,学习像人类一样“思考”和行动,从而提高性能、效率、泛化性、人工智能安全性和可解释性。
该项目旨在研究大模型是否具备自省能力,通过实验验证模型是否能够利用自身内部状态来预测自身行为,从而深入理解模型的认知过程。
CitrusX是一个先进的AI平台,旨在增强机器学习模型的透明度和可解释性,适用于从数据科学家到高管等不同利益相关者,提供确保AI部署的稳健性、公平性和合规性所需的工具。CitrusX关注于使AI决策更加易于理解,并减轻潜在的偏见,从而促进AI系统的信任和问责。
AGI Memory System 是一个复杂的数据库设计,旨在为人工通用智能 (AGI) 提供记忆管理。该系统实现了多种类型的记忆存储和检索机制,灵感来源于人类的认知架构,旨在提高记忆的效率和灵活性。
用于稳健弹道预报的可解释自感知神经网络,旨在提高神经网络对分布外数据的认知不确定性估计,以适应安全关键型应用,如自动驾驶汽车。
Cerbrec Graphbook 是一个图示平台,旨在让数据科学家专注于模型架构,而非基础设施和软件工程。用户可以从原子级别查看和编辑模型架构,提供透明的AI建模,避免黑箱问题。此外,Graphbook还支持实时检查数据类型和形状,简化模型调试过程,快速识别和修复错误。该平台还抽象了软件依赖关系和环境配置,使用户能够专注于模型架构和数据流。
项目的目标是创造一个能自主学习和自我决策的人工智能系统,通过给AI提供合适的工具,让它能实时进化和学习新的能力,这样的AI系统有望成为通用人工智能。
Credal是一个为企业提供安全利用AI的平台,允许用户在确保数据保护的前提下使用他们喜爱的AI应用。Credal的API、安全聊天界面和Slack机器人预先集成了数据,并强制执行访问政策、敏感数据掩码和可接受使用政策。该平台为企业安全地采用AI提供了安全环境。