PANews 6月6日消息,据OpenAI官方博客,OpenAI今日详细介绍了其用于安全训练先进AI模型的研究基础设施架构。OpenAI运营着世界上最大的AI训练超级计算机,旨在推进AI领域的前沿并确保安全。这些基础设施的核心任务是保护模型权重和算法秘密等敏感资产。为实现这一目标,OpenAI的架构包括多个关键安全组件:

  1. 身份基础:利用Azure Entra ID进行身份验证和授权管理,确保会话创建时的风险验证和异常登录检测。

  2. Kubernetes架构:使用Kubernetes管理和编排工作负载,通过RBAC(基于角色的访问控制)和Admission Controller策略保护研究环境。

  3. 敏感数据存储:通过密钥管理服务保护凭证和其他敏感信息,仅授权工作负载和用户可访问这些数据。

  4. 身份与访问管理(IAM):采用“最小权限”访问策略,通过内部开发的AccessManager服务管理研究人员和开发人员的访问权限,并引入多方审批机制来控制对敏感资源的访问。

  5. CI/CD安全:严格控制CI/CD管道的访问,确保基础设施代码配置的一致性和安全性。

OpenAI还实施了多层次的安全控制来防止模型权重的泄露,并使用内部和外部红队来测试安全性。此外,OpenAI正在探索AI系统特有的安全和合规标准,以应对保护AI技术的独特挑战。