英美等國聯(lián)合企業(yè)發(fā)布《AI 系統(tǒng)開發(fā)指引》,號稱“全球首份相關安全標準”
IT之家 11 月 28 日消息,美國網(wǎng)絡安全兼基礎架構安全管理署(CISA)及英國國家網(wǎng)絡安全中心(NCSC)日前正式發(fā)布《安全 AI 系統(tǒng)開發(fā)指引》(Guidelines for Secure AI System Development)白皮書。
本文引用地址:http://2s4d.com/article/202311/453372.htm該白皮書號稱“首份全球 AI 安全標準”,旨在從設計階段強化 AI 系統(tǒng)的安全性,以防范可能的安全風險。
據(jù)悉,這份指引是由包括美、英、德、法、日、韓、新加坡在內 18 國,并聯(lián)合微軟、谷歌、OpenAI、Anthropic、Scale AI 等 23 個網(wǎng)絡安全組織參與制定。
▲ 圖源英國相關部門
具體而言,指引包含 4 個主要部分:安全設計、安全開發(fā)、安全部署及安全運營(operation and maintenance),指引為每一個部分都提出可能的安全風險及避免方法,以協(xié)助開發(fā)人員從源頭降低相關安全風險。
▲ 圖源英國相關部門
IT之家注意到,該指引主要提供 AI 系統(tǒng)開發(fā)的必要建議,并表明開發(fā) AI 系統(tǒng)應遵循安全設計(Secure by Design)的原則。英國 CISA 指出,這份指引強調把客戶安全、透明度及責任、以及建立“安全設計”的組織結構列為優(yōu)先事項。
這份指引適用于所有類型的 AI 系統(tǒng),除了涵蓋行業(yè)內的“尖端模型”,也包含其他利用外部代管的模型或是 API 系統(tǒng)。
評論