PANews 4月6日消息,ChatGPT開發公司OpenAI在官網中發布了題為《Our approach to AI safety》(《我們保障AI 安全的方法》)的文章,介紹了該公司確保AI模型安全性的部署。 OpenAI認為,強大的AI系統應該接受嚴格的安全評估。需要監管以確保採用此類做法,並積極與官方合作,制定最佳監管形式。此外,OpenAI要求用戶必須年滿18周歲,或年滿13周歲經父母批准,才能使用其AI工具,該公司正在研究驗證選項。 OpenAI不允許其技術用於生成仇恨、騷擾、暴力或成人類別的內容,並阻止兒童性虐待等材料上傳到其圖片工具中等。