PANews 12月19日消息,OpenAI發布名為「準備框架」(Preparedness Framework)的新規則,旨在確保前沿人工智慧模型的安全。根據此規則,OpenAI將對所有前沿模型進行評估並不斷更新其「記分卡」。此外,OpenAI還將定義觸發基準安全措施的風險閾值,其規定了四個安全風險等級,只有緩解後得分在「中」或以下的模型才能部署;只有緩解後得分在「高」或以下的模型才能進一步開發。另外,OpenAI還將針對高風險或臨界(緩解前)風險等級的模型實施額外的安全措施。

值得注意的是,OpenAI表示,“我們正在建立一個跨職能的安全諮詢小組,審查所有報告,並將報告同時提交領導層和董事會。雖然領導層是決策者,但董事會擁有逆轉決策的權利。”目前,該框架仍處於初始Beta版本。