OpenAI 等死里逃生:加州 AI 法案剛剛被斃,LeCun 李飛飛吳恩達(dá)狂喜
SB-1047 沒有考慮到 AI 系統(tǒng)是否部署在高風(fēng)險(xiǎn)環(huán)境中、是否涉及關(guān)鍵決策,或敏感數(shù)據(jù)使用。相反,法案對(duì)最基本的功能 —— 部署大模型系統(tǒng),也應(yīng)用了嚴(yán)格的標(biāo)準(zhǔn)。在 SB-1047 被否決的過程中,AI 教母李飛飛起到的作用不容忽視。斯坦福教授李飛飛開心地表示,自己能和 StanfordHAI 一起,為加州負(fù)責(zé)任的 AI 治理鋪平道路,深感榮幸。AI 泰斗吳恩達(dá)也感謝了李飛飛對(duì)于 SB-1047 的公開反對(duì),稱她的努力能推動(dòng)更理性的 AI 政策,從而保護(hù)研究和創(chuàng)新。就在前幾天,SB-1047 法案即將塵埃落定之際,吳恩達(dá)和 LeCun 還在焦急地奔走呼吁、發(fā)起投票,擔(dān)心一旦通過,開源 AI 和整個(gè) AI 生態(tài)系統(tǒng)都會(huì)產(chǎn)生寒蟬效應(yīng)。如今,全加州的 AI 公司們終于松了一口氣。州長否決信:不予簽署
「本人謹(jǐn)此退回參議院法案 1047,不予簽署?!?/span>全文地址:https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf在信中,州長承認(rèn),SB-1047 對(duì)于 AI 部署可能帶來的威脅過于放大了。而且,法案僅關(guān)注最昂貴的大規(guī)模模型,其實(shí)是給了公眾一種「錯(cuò)誤的安全感」。他指出,即使是較小的專有模型,可能也會(huì)一樣危險(xiǎn)。總之,法案對(duì) AI 實(shí)施的監(jiān)管,是以「遏制利于公眾利益的創(chuàng)新」為代價(jià)的。州長表示,法案對(duì)最基本的功能,也適用最嚴(yán)格的標(biāo)準(zhǔn),這并不是保護(hù)公眾買免受 AI 技術(shù)威脅的最佳辦法。而最好的解決辦法是,是一個(gè)不以 AI 系統(tǒng)和能力的實(shí)證發(fā)展軌跡分析為依據(jù)的方案。AI 大佬深惡痛絕
這樣的結(jié)局,對(duì)于除了 Bengio、Hinton 的絕大多數(shù)人,都可謂非常圓滿。提到 SB-1047,一眾大佬們是深惡痛絕。事情的來龍去脈是這樣的。去年,加州州長簽署了一項(xiàng)行政命令,強(qiáng)調(diào)加州面對(duì) GenAI 態(tài)度要更加審慎,讓 AI 更加道德、透明、可信。而今年 2 月,加州直接擬定了法案,名為《SB-1047 前沿 AI 大模型安全創(chuàng)新法案》,對(duì)于大模型安全、透明的使用給出了更具體的條例。法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047然而,其中有多項(xiàng)不合理內(nèi)容,簡(jiǎn)直是指名道姓地給某些公司卡脖子。成本超 1 億的模型,得防止造成「重大傷害」比如有一條規(guī)定,開發(fā)、訓(xùn)練成本超 1 億美元,且浮點(diǎn)運(yùn)算超過 10^26 次的大模型,一旦開源后被有人用來做非法的事,那么模型開發(fā)商也會(huì)受到嚴(yán)重處罰。要知道,Meta 的 Llama 3 模型,谷歌的 Gemma 模型等,都符合這個(gè)條件。這個(gè)規(guī)定顯然極有爭(zhēng)議。比如,如果有人入侵自動(dòng)駕駛系統(tǒng)并導(dǎo)致事故,開發(fā)該系統(tǒng)的公司也要被追責(zé)嗎?按照法案的說法,開發(fā)者需要評(píng)估其模型的衍生產(chǎn)品、防止他們可能造成的任何傷害,包括客戶微調(diào)模型、以其他方式修改模型(越獄)或與其他軟件組合。然而一旦開源軟件發(fā)布,人們可以直接將模型下載到個(gè)人設(shè)備上,因此開發(fā)者根本無從得知其他開發(fā)者或客戶的具體操作。另外,法案中也有多處定義模糊。比如 AI 模型的「關(guān)鍵傷害」,被描述為大量傷亡、超過 5 億美元的損失或其他「同等嚴(yán)重」的傷害,但開發(fā)者在什么條件下要被追責(zé)?要承擔(dān)何種責(zé)任?法案對(duì)此都語焉不詳。并且,法案適用于花費(fèi)超過 1 億美元訓(xùn)練的 AI 模型,或花費(fèi)超過 1000 萬美元微調(diào)現(xiàn)有模型的開發(fā)者,也就讓許多小型科技公司落入被打擊范圍。SB-1047 還有一些不合理規(guī)定,比如如果公司開放模型給其他國家使用,還得提交客戶的所有資料,包括客戶的身份證、****號(hào)、賬號(hào)等。開發(fā)者還必須創(chuàng)建能夠解決 AI 模型風(fēng)險(xiǎn)的測(cè)試程序,并且必須每年聘請(qǐng)第三方審計(jì)員來評(píng)估其 AI 安全實(shí)踐。對(duì)于那些基于模型打造的 AI 產(chǎn)品,則需要制定相應(yīng)的安全協(xié)議來防止濫用,包括一個(gè)關(guān)閉整個(gè) AI 模型的「緊急停止」按鈕。法案被詬?。簩?duì)真正的風(fēng)險(xiǎn)視而不見更多批評(píng)者認(rèn)為,這個(gè)法案實(shí)在是過于杞人憂天了。它不僅會(huì)阻礙 AI 的創(chuàng)新,而且對(duì)當(dāng)今 AI 的安全性也沒有幫助。更諷刺的是,法案用所謂的「緊急開關(guān)」預(yù)防世界末日,但對(duì) Deepfake、虛假信息等已出現(xiàn)的安全風(fēng)險(xiǎn)卻視而不見。雖然后來的修正案在措辭上更加寬松,減少了加州政府追究 AI 實(shí)驗(yàn)室責(zé)任的權(quán)力。但即便如此,SB-1047 也會(huì)給 OpenAI、Meta、谷歌等大廠帶來不小的影響。而對(duì)一些初創(chuàng)企業(yè)來說,這種打擊甚至?xí)菤缧缘摹?/span>如今塵埃落地,大公司和小初創(chuàng)們都可以長出一口氣了。圖靈巨頭決裂SB-1047,甚至讓圖靈三巨頭為此「決裂」。LeCun、李飛飛、吳恩達(dá)為代表的大佬們,多次公開反對(duì)不滿。甚至,LeCun 還照搬了之前要求暫停 AI 研究時(shí)的原梗 —— 請(qǐng)暫停 AI 立法六個(gè)月!而圖靈三巨頭中的另外兩位 —— Yoshua Bengio 和 Geoffrey Hinton,卻出人意料地強(qiáng)烈支持這項(xiàng)法案通過。甚至還覺得,現(xiàn)在的條款定得有些太過寬松了。
作為高級(jí)人工智能技術(shù)和政策研究人員,我們寫信表達(dá)對(duì)加州參議院法案 1047 的強(qiáng)烈支持。SB 1047 概述了對(duì)這種技術(shù)進(jìn)行有效監(jiān)管的基本要求。它沒有實(shí)施許可制度,不要求公司在訓(xùn)練或部署模型之前獲得政府機(jī)構(gòu)的許可,它依賴于公司自行評(píng)估風(fēng)險(xiǎn),甚至在發(fā)生災(zāi)難時(shí)也不對(duì)公司嚴(yán)格追責(zé)。相對(duì)于我們面臨的風(fēng)險(xiǎn)規(guī)模,這是一項(xiàng)相對(duì)寬松的立法。取消該法案的基本措施將是一個(gè)歷史性的錯(cuò)誤 —— 這一錯(cuò)誤將在一年內(nèi)變得更加明顯,因?yàn)橄乱淮鼜?qiáng)大的 AI 系統(tǒng)將被發(fā)布。但 Bengio 和 Hinton 顯然不是主流。總結(jié)來說,各家科技巨頭和一眾大佬對(duì)此的立場(chǎng)如下。
來源:新智元
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。