新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 科技公司史上第一次:Meta開源GPT3參數(shù)大小的AI模型

科技公司史上第一次:Meta開源GPT3參數(shù)大小的AI模型

作者: 時間:2022-05-07 來源:網(wǎng)易科技 收藏

  在生成文本段落、模擬人類對話及解決數(shù)學(xué)問題表現(xiàn)驚人的大型語言模型,顯然是這幾年發(fā)展最熱門的領(lǐng)域之一。但這樣的大型語言模型不僅能夠自行生成有害內(nèi)容,還可以將這樣的內(nèi)容通過在其上構(gòu)建的下游應(yīng)用程序傳播開來。

本文引用地址:http://2s4d.com/article/202205/433816.htm

  理論上,更多人的參與對問題的解決應(yīng)該會有所幫助。然而,由于語言模型的訓(xùn)練需要大量的數(shù)據(jù)和計算能力,迄今為止,它們?nèi)匀恢皇谴笮涂萍脊镜奶赜许椖?。而在更廣泛的群體如學(xué)界,以及擔心人工智能濫用的倫理學(xué)家和社會科學(xué)家中,只有旁觀的選項。

  “我相信建立信任的唯一方法是極度透明。” 的常務(wù)董事喬爾·皮諾(Joelle Pineau)說。當?shù)貢r間5月3日, 開放了擁有1750億參數(shù)的大語言模型OPT-175B(Open Pretrained Transformer,OPT)。

對于大型科技公司來說,這是一個前所未有的舉動。即使是在大語言模型歷史上,這也是第一次毫無保留,把預(yù)訓(xùn)練模型、訓(xùn)練代碼以及使用代碼全部公開。

  “我們中的很多人都是大學(xué)的研究人員,”皮諾說,“我們知道大學(xué)和行業(yè)在建立這些模式的能力方面存在明顯的差距。讓研究人員共同討論這一技術(shù)的好處是顯而易見的?!彼M渌四茏屑氀芯克麄兊墓ぷ鳎瑢ζ溥M行拆解分析,或者在此基礎(chǔ)上構(gòu)建。她認為,當更多的人參與進來時,突破就會更快實現(xiàn)。

  OPT語言模型中約有1750億個參數(shù)(這些參數(shù)是神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中可以被調(diào)整的參數(shù)),與OpenAI開創(chuàng)性的神經(jīng)網(wǎng)絡(luò)GPT-3規(guī)?;鞠嗤瑫r具有付費服務(wù)GPT-3的非凡能力和不可避免的缺陷。

  皮諾不諱言,“這是經(jīng)過精心設(shè)計的”,該團隊在建立OPT時就考慮在語言任務(wù)的準確性和有害性方面與GPT-3相匹配。OPT是為了給研究人員提供一個類似的語言模型來進行研究。

  OpenAI拒絕了對的聲明發(fā)表評論。

  OpenAI的母公司谷歌正在探索在其搜索產(chǎn)品中使用大型語言模型,但也因為缺乏透明度而受到批評。谷歌在這方面受到諸多爭議,其曾在人工智能倫理研究員Timnit Gebru想要發(fā)表一篇有關(guān)谷歌在當時的語言系統(tǒng)可能會從網(wǎng)站上學(xué)習包含偏見和仇恨言論的論文后辭退他,最近又解雇一位對已發(fā)表研究提出異議的員工。

  那么,Meta為什么要這樣做呢?畢竟Meta也是一家很少提及臉書和Instagram背后算法工作原理的科技公司,還曾以讓其內(nèi)部研究團隊隱瞞對其不利的問題而聞名。

  《麻省理工科技評論》認為,Meta采取不同方法的一個重要原因是皮諾本人,她多年來一直在推動人工智能研發(fā)過程中的透明度。

  在核心學(xué)術(shù)會議發(fā)表研究的方式上,皮諾要求研究人員必須將包括代碼和有關(guān)如何進行實驗的詳細信息與結(jié)果一起提交。她自2017年加入Meta(當時的Facebook)以來,一直在其人工智能實驗室倡導(dǎo)這種文化。

  “Meta對開放科學(xué)的承諾是我在這里的原因,”皮諾說,“我不會因為其他條件來到這里工作?!?/p>

  除了代碼外,Meta也公布了開發(fā)日志。日志包含團隊成員對于數(shù)據(jù)訓(xùn)練的每日更新:如何將其添加到模型中,以及何時、哪些有效、哪些無效。在100多頁的筆記中,研究人員記錄了從2021年10月到2022年1月不間斷運行的三個月訓(xùn)練過程中的每個錯誤、崩潰和重啟。

  斯坦福大學(xué)基礎(chǔ)模型研究中心主任Percy Liang將大模型的開放程度總結(jié)成4個層次:

  第一層論文開放,證明一些設(shè)想的可行性,并提供構(gòu)建思路;第二層API開放,允許研究人員探索和評估現(xiàn)有模型的能力(如推理能力)和限制(如偏見);第三層模型權(quán)重開放和訓(xùn)練數(shù)據(jù)開放,允許研究人員逐步改進現(xiàn)有模型,開發(fā)更深入的可解釋性技術(shù)和更有效的微調(diào)方法,讓研究人員更好地理解訓(xùn)練數(shù)據(jù)在模型行為中的作用;第四層計算能力開放,允許研究人員嘗試新的體系結(jié)構(gòu)、訓(xùn)練目標和過程、進行數(shù)據(jù)融合,并在不同的領(lǐng)域開發(fā)全新的模型。

  “更高層次的開放能讓研究者專注于更深的問題,也同時會帶來更多風險?!盤ercy Liang明確指出這一點。

  Meta此次以這樣的程度開源其大型語言模型是一個非常大膽的舉措,可能會產(chǎn)生當下想象不到的風險。這也是OpenAI對于不發(fā)布GPT-3的前身GPT-2給出的原因。

  “我不能告訴你,這種模型不會產(chǎn)生其他可怕的風險。”皮諾駁斥了“僅僅是因為它太危險”,所以不應(yīng)該發(fā)布模型的想法。她說道,“我理解這些模型的弱點,但這不是一種研究心態(tài)。”

  據(jù)《麻省理工科技評論》,曾在被谷歌因“違反了其行為準則”辭退的人工智能倫理研究員瑪格麗特·米切爾(Margaret Mitchell)認為,OPT的發(fā)布是一個積極的舉措。但她認為透明度是有限度的。她提問道,“語言模型是否經(jīng)過了足夠嚴格的測試?可預(yù)見的好處是否超過了其可預(yù)見的危害?在這個過程中如何避免錯誤信息的產(chǎn)生,或種族主義和厭惡女性的語言?“

  華盛頓大學(xué)的計算語言學(xué)家艾米麗·M·本德(Emily M.Bender)曾在谷歌中心與米切爾共同合作過相關(guān)研究,她也擔心著如何處理潛在的危害。“降低任何機器學(xué)習技術(shù)風險的真正關(guān)鍵是要在特定用例中進行評估和探索,例如這個系統(tǒng)是用來做什么的?誰將使用它?系統(tǒng)輸出將如何呈現(xiàn)給他們?”

  對于皮諾來說,這些擔憂應(yīng)該通過更多的公開討論來解決,而不是減少溝通。“世界各地的人們對于什么樣的對話是合適的有不同的看法,而人工智能是對話的一部分,”皮諾并不是希望語言模型能說出令每個人都同意的話,“但我們該如何應(yīng)對呢?那就是在討論過程中多去聽卻他人的聲音”。



關(guān)鍵詞: Meta AI

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉