據(jù) OpenAI 官方網(wǎng)站支持頁(yè)面上周發(fā)布的一則消息顯示,該公司可能很快會(huì)要求組織完成身份驗(yàn)證流程,才能使用某些未來的 AI 模型。
IT之家注意到,該驗(yàn)證流程名為“經(jīng)驗(yàn)證的組織(Verified Organization)”,頁(yè)面上稱其為“開發(fā)者解鎖 OpenAI 平臺(tái)最先進(jìn)模型和功能的一種新方式”。驗(yàn)證需要提供來自 OpenAI API 所支持國(guó)家的政府頒發(fā)的身份證明文件。一個(gè)身份證明文件每 90 天只能驗(yàn)證一個(gè)組織,且并非所有組織都有資格進(jìn)行驗(yàn)證。
頁(yè)面中提到:“在 OpenAI,我們深知自身肩負(fù)的責(zé)任,要確保人工智能既廣泛可及,又能安全使用。然而,少數(shù)開發(fā)者故意違反 OpenAI 的使用政策,不當(dāng)使用 OpenAI API。為減少人工智能的不安全使用,同時(shí)繼續(xù)向更廣泛的開發(fā)者群體提供先進(jìn)模型,OpenAI 增加了這一驗(yàn)證流程。”
隨著 OpenAI 產(chǎn)品變得愈發(fā)復(fù)雜且功能強(qiáng)大,新的驗(yàn)證流程或許旨在加強(qiáng)其產(chǎn)品的安全性。該公司曾發(fā)布多份報(bào)告,闡述其在檢測(cè)和減少模型惡意使用方面的努力。