美國生成式人工智能協(xié)會 (Association for Generative AI)計算機器全球技術(shù)政策委員會 (ACM TPC) 日前發(fā)布了《生成式人工智能技術(shù)的開發(fā)、部署和使用原則》,日前已經(jīng)由 ACM 的美國技術(shù)政策委員會(USTPC)和歐洲技術(shù)政策委員會(Europe TPC)通過。
據(jù)悉,該原則旨在促進有關(guān)生成和所有其他人工智能技術(shù)的公平、準(zhǔn)確和有益的決策。不過 ACM 方面并未就此敦促推行具體的立法。
ACM 美國技術(shù)政策委員會主席 Jeremy Epstein 表示,“我們會直接回應(yīng)立法機構(gòu)的意見征詢,但不會對法案或其中的部分內(nèi)容公開表態(tài)。”
ACM 成立于 1947 年,號稱是“世界上最大的科學(xué)和教育計算協(xié)會”,擁有約 110000 名學(xué)生和專業(yè)會員。他們認為,生成式 AI 日益強大,或?qū)ι鐣䴓?gòu)成嚴(yán)重風(fēng)險,目前的技術(shù)安全使用指南不足,因此需要建立新標(biāo)準(zhǔn),以確?梢(guī)避該技術(shù)可能帶來的危害。
▲ 圖源 美國人工智能協(xié)會
此次發(fā)布的原則中,有四項原則專門針對生成式 AI,另外四項原則改編自 TPC 2022 年的 《負責(zé)任的算法系統(tǒng)聲明》原則,IT之家將原則全文置于下方:
生成式 AI 特定原則
部署和使用的限制和指南: 應(yīng)與所有利益相關(guān)者協(xié)商,審查和應(yīng)用書面或修訂的法律和法規(guī),以在需要時限制生成人工智能技術(shù)的部署和使用,以最大程度地減少危害。如果沒有明確和充分的保障措施,包括 “human in the loop” 以及相關(guān)利益相關(guān)者之間的明確共識,即該系統(tǒng)的好處將大大超過其潛在的負面影響,則不應(yīng)允許任何高風(fēng)險的人工智能系統(tǒng)運行。一種方法是定義風(fēng)險等級,最高級別為不可接受的風(fēng)險,最低級別為最小風(fēng)險。
所有權(quán):知識產(chǎn)權(quán) (IP) 法律和法規(guī)尚未充分考慮生成式人工智能系統(tǒng)的結(jié)構(gòu)和功能的固有方面。
個人數(shù)據(jù)控制: 生成式人工智能系統(tǒng)應(yīng)該允許人們選擇不使用他們的數(shù)據(jù)來訓(xùn)練系統(tǒng)或促進其信息生成。
可糾正性: 生成人工智能系統(tǒng)的提供者應(yīng)創(chuàng)建和維護公共存儲庫,可以記錄系統(tǒng)所犯的錯誤,并可以選擇進行更正。
改編的先前原則
透明度: 任何使用生成式人工智能的應(yīng)用程序或系統(tǒng)都應(yīng)向適當(dāng)?shù)睦嫦嚓P(guān)者明確披露。
可審計性和可質(zhì)疑性: 生成人工智能系統(tǒng)的提供者應(yīng)確保盡可能記錄系統(tǒng)模型、算法、數(shù)據(jù)和輸出(適當(dāng)考慮隱私),以便在適當(dāng)?shù)那闆r下對其進行審計和 / 或質(zhì)疑。
限制環(huán)境影響:鑒于生成式人工智能模型對環(huán)境的巨大影響,建議就方法論達成共識,以衡量、歸因并積極減少此類影響。
更高的安全性和隱私性:生成式人工智能系統(tǒng)容易受到各種新的安全和隱私風(fēng)險的影響,包括新的攻擊向量和惡意數(shù)據(jù)泄露等。