ChatGPT 太猖狂?OpenAI 欲打假并研發(fā)“文本水印”,網(wǎng)友吐槽:太“雞肋”!
出品 | CSDN(ID:CSDNnews)
這到底是人干的,還是 AI 干的?
隨著 AIGC 的爆火,在 ChatGPT、Stable Diffusion 模型的推動(dòng)下,當(dāng)下想要辨別我們所見(jiàn)的代碼、圖像、文章、小說(shuō)、腳本、詩(shī)句、Debug 程序等內(nèi)容究竟是「真」還是「假」時(shí),那可太難了。
只要其背后的“主謀”不外揚(yáng),外人也幾乎看不出來(lái)作品究竟是出自誰(shuí)手。然而,往往越是這樣,就越容易造成學(xué)術(shù)造假、藝術(shù)界的混亂、版權(quán)的爭(zhēng)議等多種亂象。
為了減少這種情況的出現(xiàn),ChatGPT 的創(chuàng)建者 OpenAI 終究還是準(zhǔn)備站出來(lái)填坑了。計(jì)算機(jī)科學(xué)教授 Scott Aaronson (目前是 OpenAI 的客座研究員)在德克薩斯大學(xué)奧斯汀分校的一次演講中透露,OpenAI 正在開(kāi)發(fā)一種工具,用于對(duì) AI 系統(tǒng)生成的內(nèi)容加個(gè)水印。每當(dāng)系統(tǒng)(如 ChatGPT)生成文本時(shí),該工具就會(huì)嵌入一個(gè)“不易察覺(jué)的水印”,以此顯示文本的來(lái)源。
人工智能需要束縛
事實(shí)證明,要控制像 ChatGPT 這樣的系統(tǒng)是很困難的。作為開(kāi)發(fā)商,雖然 OpenAI 在 ChatGPT 政策規(guī)定寫(xiě)道,當(dāng)從其系統(tǒng)共享內(nèi)容時(shí),用戶應(yīng)明確表明它是由人工智能生成的,但現(xiàn)實(shí)使用過(guò)程中,OpenAI 可以控制 ChatGPT 不生成暴力、血腥有害的內(nèi)容,但是卻無(wú)法掌控它的使用者會(huì)將其應(yīng)用到何處。
幾天前,知名編程問(wèn)答網(wǎng)站 Stack Overflow 決定“封殺” ChatGPT,稱 ChatGPT 答案的正確率非常低,對(duì)整個(gè)網(wǎng)站以及尋求正確答案的用戶來(lái)說(shuō)是有害的。例如,要求 ChatGPT 寫(xiě)一個(gè)公眾人物的傳記,它可能會(huì)很自信地插入不正確的傳記數(shù)據(jù)。再比如要求它解釋如何為特定功能編寫(xiě)軟件程序,它同樣可以生成可信但最終不正確的代碼。如果用戶被發(fā)現(xiàn)使用 ChatGPT 回答問(wèn)題,他們可能會(huì)受到禁止繼續(xù)發(fā)帖的懲罰。
除此之外,與之前的許多文本生成系統(tǒng)一樣,ChatGPT 也會(huì)被用于編寫(xiě)高質(zhì)量的網(wǎng)絡(luò)釣魚(yú)郵件和有害的惡意軟件,甚至?xí)挥糜诳荚囎鞅椎鹊取?/span>
因此,但凡 ChatGPT 所到之處,便亟須這樣一款工具進(jìn)行束縛。
加水印的工作原理
過(guò)去,OpenAI 已經(jīng)有一種方法可以標(biāo)記 DALL-E 生成的內(nèi)容 ,并在它生成的每個(gè)圖像中嵌入簽名。但是如今想要追蹤文本的來(lái)源,實(shí)則要困難得多。
那如何在文字上面加上追蹤或打上“水印”?
Scott Aaronson 教授認(rèn)為,最有前途的方法是密碼學(xué)。
Scott Aaronson 表示,他在今年春天的學(xué)術(shù)休假期間,一直在 OpenAI 研究為 GPT 等文本模型的輸出內(nèi)容添加水印的工具。
對(duì)于“AI 水印”的設(shè)想,Scott Aaronson 在自己的博客中進(jìn)行了詳解。其表示,“我們希望每當(dāng) GPT 生成一些長(zhǎng)文本時(shí),能夠在它的選詞上有一個(gè)不易察覺(jué)的秘密標(biāo)記,你可以用它來(lái)證明,這是來(lái)自 GPT 生成的內(nèi)容。”
那么這種水印到底是如何實(shí)現(xiàn)的?
Scott Aaronson 教授稱,對(duì)于 GPT 來(lái)說(shuō),每一個(gè)輸入和輸出都是一串 token(標(biāo)記),可以是單詞,也可以是標(biāo)點(diǎn)符號(hào)、單詞的一部分,或者更多--總共有大約 10 萬(wàn)個(gè) token。GPT 的核心是以先前 token 的字符串為條件,不斷地生成下一個(gè)要生成的 token 的概率分布。在神經(jīng)網(wǎng)絡(luò)生成分布后,OpenAI 服務(wù)器實(shí)際上會(huì)根據(jù)該分布或該分布的某些修改版本進(jìn)行采樣,這取決于一個(gè)名為 "temperature"的參數(shù)。不過(guò),只要 temperature 參數(shù)不為零,下一個(gè) token 的選擇通常會(huì)有一些隨機(jī)性,這也是為什么你對(duì) GPT 用同一段話提問(wèn),會(huì)得到不同的答案的主要原因。
「OpenAI 的水印工具就像現(xiàn)有文本生成系統(tǒng)的一個(gè) "包裝",利用在服務(wù)器層面運(yùn)行的加密功能,"偽隨機(jī) "地選擇下一個(gè)標(biāo)記」,Scott Aaronson 說(shuō)道。
從理論上講,這個(gè)系統(tǒng)生成的文本對(duì)大家而言都是隨機(jī)的,但是任何擁有加密功能“鑰匙”的人能夠發(fā)現(xiàn)水印。
也許有人會(huì)好奇:如果 OpenAI 控制了服務(wù)器,那么為什么要費(fèi)盡心思去做水?。繛槭裁床恢苯訉?GPT 的所有輸出存儲(chǔ)在一個(gè)巨大的數(shù)據(jù)庫(kù)中,然后如果大家想知道某些東西是否來(lái)自 GPT,就可以查閱該數(shù)據(jù)庫(kù)?
Scott Aaronson 贊同地說(shuō)道,這樣的確可以做到的,甚至可能在涉及執(zhí)法或其他方面的高風(fēng)險(xiǎn)案件中必須這樣做。但這將引起一些嚴(yán)重的隱私問(wèn)題,譬如你可以揭示 GPT 是否生成或未生成給定的候選文本,而不可能揭示其他人是如何使用 GPT 的?數(shù)據(jù)庫(kù)方法在區(qū)分 GPT 唯一生成的文本和僅僅因?yàn)樗哂泻芨吒怕识傻奈谋荆ɡ?,前一百個(gè)素?cái)?shù)的列表)方面也存在困難。
當(dāng)前,來(lái)自 OpenAI 工程師 Hendrik Kirchner 已經(jīng)構(gòu)建了一個(gè)工作原型,并希望將其構(gòu)建到未來(lái) OpenAI 開(kāi)發(fā)的系統(tǒng)中。
截至目前,據(jù)外媒 Techcrunch 報(bào)道,OpenAI 和 Aaronson 并未透露過(guò)多關(guān)于“水印原型”的信息,只是稱水印是他們正在探索的幾種 "注明出處技術(shù) "之一,以檢測(cè)人工智能產(chǎn)生的產(chǎn)出。
“水印”功能很“雞肋”?
不過(guò)對(duì)于這種技術(shù),業(yè)界也頗有爭(zhēng)議。
有人認(rèn)為,該工具是基于服務(wù)器端的,這意味著它不一定適用于所有文本生成系統(tǒng)。他們認(rèn)為,對(duì)于競(jìng)爭(zhēng)對(duì)手來(lái)說(shuō),繞過(guò)它是微不足道的。
來(lái)自麻省理工學(xué)院的計(jì)算機(jī)科學(xué)教授 Srini Devadas 認(rèn)為:"通過(guò)重新措辭、使用同義詞等來(lái)繞過(guò)它的篩查是相當(dāng)容易的。"
OpenAI 的競(jìng)爭(zhēng)對(duì)手 AI21 實(shí)驗(yàn)室的聯(lián)合創(chuàng)始人兼聯(lián)合首席執(zhí)行官 Yoav Shoham 認(rèn)為,水印并不足以幫助識(shí)別 AI 生成文本的來(lái)源。他呼吁采用一種 "更全面 "的方法,包括差異化水印,即對(duì)文本的不同部分進(jìn)行不同的水印,以及更準(zhǔn)確地引用事實(shí)文本來(lái)源的 AI 系統(tǒng)。
艾倫人工智能研究所的研究科學(xué)家 Jack Hessel 指出,很難在不知不覺(jué)中對(duì)人工智能生成的文本進(jìn)行加注“水印”,因?yàn)槊總€(gè) token 都是一個(gè)離散的選擇。太明顯的“水印”可能會(huì)導(dǎo)致選擇奇怪的詞,從而降低流暢性。不過(guò),一個(gè)理想的“水印”是人類讀者無(wú)法辨別的,并能實(shí)現(xiàn)高度檢測(cè)。根據(jù)它的設(shè)置方式,由于“簽名”過(guò)程的運(yùn)作方式,OpenAI 自己可能是唯一能夠自信地提供這種檢測(cè)的一方。
Scott Aaronson 也表示,該計(jì)劃只有在像 OpenAI 這樣的公司在擴(kuò)展最先進(jìn)系統(tǒng)方面處于領(lǐng)先地位的世界中才會(huì)真正起作用——而且他們都同意成為負(fù)責(zé)任的參與者。即使 OpenAI 與其他文本生成系統(tǒng)提供商(如 Cohere 和 AI21Labs)共享水印工具,也不會(huì)阻止其他人選擇不使用它。
雖然 OpenAI 帶來(lái)了 ChatGPT、GPT-3、Dell-2 這些極具創(chuàng)新性的產(chǎn)品,引發(fā)用戶的狂歡,但不少網(wǎng)友仍質(zhì)疑“AI 水印”的必要性:
@knaik94:
這似乎是在浪費(fèi)能源。倘若一次生成的文本內(nèi)容很短,根本無(wú)法判斷它是否是由 AI 生成的。此外,我想在生成的內(nèi)容中再多走一步,如改寫(xiě)某些內(nèi)容、使用同義詞和短語(yǔ)替換、統(tǒng)一標(biāo)點(diǎn)符號(hào)或者一些輔助語(yǔ)法檢查/修飾符等工具,都可以逃避“AI 水印”的檢測(cè)。
況且行業(yè)也有一些開(kāi)放性的替代方案,如 GPT2,已經(jīng)在 MIT 許可下發(fā)布。在 NSFW 文本上訓(xùn)練的社區(qū)語(yǔ)言模型也已經(jīng)存在。在我看來(lái),OpenAI 這樣的舉動(dòng)從長(zhǎng)遠(yuǎn)來(lái)看只會(huì)把大多數(shù)人趕走。如果在未經(jīng)審查的足夠好模型和經(jīng)過(guò)審查的優(yōu)秀模型之間進(jìn)行選擇,我會(huì)為 99% 的長(zhǎng)期項(xiàng)目選擇足夠好的模型。
@norwalkbear :
現(xiàn)在很多人看到了人工智能的潛力。如果你限制太多,人們會(huì)開(kāi)發(fā)自己的 AI 模型,甚至迫切需要 OpenAI 的開(kāi)源替代品。
最后,看到 OpenAI 正在研發(fā)這樣的工具,也有網(wǎng)友強(qiáng)烈呼吁 OpenAI 遲幾年再推出,譬如等到 2026 年 5 月,因?yàn)檫@個(gè)時(shí)候,他剛好畢業(yè)了。
你覺(jué)得給 AI 生成的內(nèi)容、作品加上水印能阻止濫用情況的發(fā)生嗎?
參考資料:
https://news.ycombinator.com/item?id=33892587
https://techcrunch.com/2022/12/10/openais-attempts-to-watermark-ai-text-hit-limits/
https://scottaaronson.blog/?p=6823
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。
電容式觸摸屏相關(guān)文章:電容式觸摸屏原理 電容屏相關(guān)文章:電容屏原理