博客專欄

EEPW首頁 > 博客 > ACL 2021 | 百度NLP開源語言與視覺一體的統(tǒng)一模態(tài)預(yù)訓(xùn)練方法,登頂各類榜單

ACL 2021 | 百度NLP開源語言與視覺一體的統(tǒng)一模態(tài)預(yù)訓(xùn)練方法,登頂各類榜單

發(fā)布人:機(jī)器之心 時間:2021-08-15 來源:工程師 發(fā)布文章

百度首創(chuàng)地提出了語言與視覺一體的預(yù)訓(xùn)練方法 UNIMO,提供了一種新的統(tǒng)一模態(tài)學(xué)習(xí)范式,打破了文本、圖像和圖文對等數(shù)據(jù)間的邊界,讓機(jī)器可以像人一樣利用大規(guī)模異構(gòu)模態(tài)數(shù)據(jù),學(xué)習(xí)語言知識與視覺知識并相互增強(qiáng),從而實現(xiàn)感知與認(rèn)知一體的通用 AI 能力。

百度在 2021 年深度學(xué)習(xí)開發(fā)者峰會 WAVE SUMMIT 上開源了語言與視覺一體的預(yù)訓(xùn)練模型 ERNIE-UNIMO,其核心方法 UNIMO 已經(jīng)被 NLP 頂級會議 ACL 2021 主會正式錄用為 oral 長文。

在機(jī)器之心 7 月 31 日舉辦的 ACL 2021 論文分享會上,本文第一作者李偉詳細(xì)介紹了他們的這項研究成果,感興趣的同學(xué)可以點擊閱讀原文查看回顧視頻。

AI 系統(tǒng)能否像人一樣,使用一個統(tǒng)一的大腦模型,實現(xiàn)感知認(rèn)知一體的通用能力?基于此出發(fā)點,百度提出的 UNIMO 試圖構(gòu)建面向各種不同模態(tài)的統(tǒng)一預(yù)訓(xùn)練模型。

1.png

論文地址:https://arxiv.org/abs/2012.15409

代碼地址:https://github.com/PaddlePaddle/ERNIE/tree/develop/ernie-unimo

此方法首創(chuàng)的同時還能學(xué)習(xí)大量的文本、圖像、圖文對數(shù)據(jù),通過跨模態(tài)對比學(xué)習(xí),有效的讓語言知識與視覺知識進(jìn)行統(tǒng)一表示和相互增強(qiáng)。UNIMO 在語言理解與生成、跨模態(tài)理解與生成,4 類場景共 13 個任務(wù)上超越主流的文本預(yù)訓(xùn)練模型和跨模態(tài)預(yù)訓(xùn)練模型,同時登頂視覺問答榜單 VQA、文本推理榜單 aNLI 等權(quán)威榜單,首次驗證了通過非平行的文本與圖像等單一模態(tài)數(shù)據(jù),能夠讓語言知識與視覺知識相互增強(qiáng)。目前 UNIMO 已經(jīng)逐步在百度的產(chǎn)品中落地應(yīng)用。

2.png

UNIMO 方法介紹

大數(shù)據(jù)是深度學(xué)習(xí)取得成功的關(guān)鍵基礎(chǔ)之一。根據(jù)應(yīng)用數(shù)據(jù)的模態(tài)不同,深度學(xué)習(xí)應(yīng)用領(lǐng)域大體包括:在文本數(shù)據(jù)上進(jìn)行自然語言處理,在視覺數(shù)據(jù)上進(jìn)行視覺應(yīng)用,在圖文數(shù)據(jù)上進(jìn)行跨模態(tài)應(yīng)用。顯然,人類大腦對各種模態(tài)數(shù)據(jù)的學(xué)習(xí)并非獨立的,比如,人類大腦在看到圖片之后能夠自動聯(lián)想到相關(guān)的語言知識,反之亦然。對各種模態(tài)數(shù)據(jù)的融會貫通,使得人類能夠充分學(xué)習(xí)各類語言、視覺、語音知識并相互增強(qiáng),通過統(tǒng)一的模型展現(xiàn)出強(qiáng)大的智能水平。那么,基于深度學(xué)習(xí)的 AI 系統(tǒng)是否也能像人一樣同時學(xué)習(xí)異構(gòu)模態(tài)數(shù)據(jù)呢?如果能夠?qū)崿F(xiàn),無疑將進(jìn)一步打開深度學(xué)習(xí)對大規(guī)模數(shù)據(jù)利用的邊界,從而進(jìn)一步提升 AI 系統(tǒng)的感知與認(rèn)知一體的通用 AI 能力。

為此,百度提出面向異構(gòu)模態(tài)數(shù)據(jù)的統(tǒng)一預(yù)訓(xùn)練方法 UNIMO,同時使用文本、圖像和圖文對數(shù)據(jù)進(jìn)行訓(xùn)練,學(xué)習(xí)文本和圖像的統(tǒng)一語義表示,從而具備同時處理多種單一模態(tài)和跨模態(tài)下游任務(wù)的能力。UNIMO 的核心模塊是一個 Transformer 網(wǎng)絡(luò),在具體訓(xùn)練過程中,文本、圖像和圖文對三種模態(tài)數(shù)據(jù)隨機(jī)混合在一起,其中圖像被轉(zhuǎn)換為目標(biāo)(object)序列,文本被轉(zhuǎn)換為詞(token)序列,圖文對被轉(zhuǎn)換為目標(biāo)序列和詞序列的拼接。UNIMO 對三種類型數(shù)據(jù)進(jìn)行統(tǒng)一處理,在目標(biāo)序列或者詞序列上基于掩碼預(yù)測進(jìn)行自監(jiān)督學(xué)習(xí),并且基于圖文對數(shù)據(jù)進(jìn)行跨模態(tài)對比學(xué)習(xí),從而實現(xiàn)圖像與文本的統(tǒng)一表示學(xué)習(xí)。進(jìn)一步的,這種聯(lián)合學(xué)習(xí)方法也讓文本知識和視覺知識互相增強(qiáng),從而有效提升文本語義表示和視覺語義表示的能力。

3.png

異構(gòu)模態(tài)的統(tǒng)一預(yù)訓(xùn)練最大的挑戰(zhàn)是如何跨越不同模態(tài)間的語義鴻溝從而實現(xiàn)語義表示的統(tǒng)一。如下圖所示,UNIMO 提出了創(chuàng)新的跨模態(tài)對比學(xué)習(xí)方法,同時引入相關(guān)聯(lián)的圖文對數(shù)據(jù)、文本數(shù)據(jù)和圖像數(shù)據(jù)進(jìn)行聯(lián)合對比學(xué)習(xí)。具體地,UNIMO 通過文本改寫的方式,對圖文對進(jìn)行數(shù)據(jù)增廣,獲得大量的正例和強(qiáng)負(fù)例圖文對數(shù)據(jù)。同時為了更好的利用文本和圖像數(shù)據(jù),UNIMO 通過文本與圖像檢索,獲得相關(guān)的圖像和文本作為正例。這樣利用擴(kuò)充后的多種類型的正例以及高質(zhì)量強(qiáng)負(fù)例,UNIMO 在統(tǒng)一的語義空間上進(jìn)行聯(lián)想對比,從而能夠?qū)W習(xí)到精確對齊的跨模態(tài)語義表示。

4.png

UNIMO 實驗結(jié)果

在實驗方面,UNIMO 使用了大量的文本、圖像和圖文數(shù)據(jù)進(jìn)行聯(lián)合學(xué)習(xí),同時在各種單一模態(tài)和跨模態(tài)下游任務(wù)上進(jìn)行驗證。預(yù)訓(xùn)練數(shù)據(jù)部分,文本語料包括 Wikipedia、BookCorpus、OpenWebText 等共 54G 語料;圖像數(shù)據(jù)是從互聯(lián)網(wǎng)爬取的 170 萬張圖像;而圖文對數(shù)據(jù)則包括 COCO Caption、Visual Genome、Conceptual Caption、SBU Caption。下游任務(wù)既包括圖文搜索、視覺問答、圖描述生成、視覺推斷等跨模態(tài)任務(wù),也包括文本分類、閱讀理解、文本摘要、問題生成等各種文本任務(wù)。模型上,Base 基于 12 層的 Transformer,而 Large 使用 24 層。

在跨模態(tài)任務(wù)上,論文主要對比 ViLBERT、UNITER、Oscar、Villa 等最新的跨模態(tài)預(yù)訓(xùn)練模型。實驗結(jié)果表明,UNIMO 在圖文檢索 Flick、視覺推斷 SNLI-VE、視覺問答 VQA、圖描述生成 CoCo Caption 上均穩(wěn)定地超過此前的各種預(yù)訓(xùn)練模型,充分說明了統(tǒng)一預(yù)訓(xùn)練 UNIMO 模型能夠有效地處理各種跨模態(tài)任務(wù)。

5.png

特別地,UNIMO 同時還能處理純文本任務(wù)。此前的跨模態(tài)預(yù)訓(xùn)練模型,在處理純文本任務(wù)的時候效果急劇下降,部分任務(wù)下降幅度甚至超過 10-20 個點。而 UNIMO 在各類文本理解和生成任務(wù)上,包括文本分類、文本推斷、文本摘要、閱讀理解和問題生成,均取得不錯的效果,超過 RoBERTa、XLNet、UniLM 等經(jīng)典文本模型。

6.png

為了驗證 UNIMO 進(jìn)行單一模態(tài)和跨模態(tài)統(tǒng)一學(xué)習(xí)的必要性,論文進(jìn)行了分離實驗。實驗結(jié)果表明,當(dāng)不使用文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練的時候,UNIMO 在跨模態(tài)任務(wù)上效果有所下降。而當(dāng)不使用圖文對數(shù)據(jù)和圖像數(shù)據(jù)的時候,UNIMO 在文本任務(wù)上同樣會下降。這充分說明,UNIMO 統(tǒng)一學(xué)習(xí)的方式,能夠讓文本知識與視覺知識相互增強(qiáng),有效提升任務(wù)效果。

7.png8.png

UNIMO 應(yīng)用

UNIMO 可以支持各類文本與跨模態(tài)任務(wù),既可以支持以文搜圖和以圖搜文,也能支持根據(jù)圖片生成文字描述、根據(jù)文字描述自動生成圖片,還支持對圖片內(nèi)容進(jìn)行問答。當(dāng)然,UNIMO 也支持純語言的任務(wù),如文本推理、閱讀理解、文本生成等。從實際應(yīng)用任務(wù)的結(jié)果來看,研究發(fā)現(xiàn) UNIMO 能夠讓視覺和語言互相增強(qiáng),從而實現(xiàn)更好的應(yīng)用效果。目前部分技術(shù)已經(jīng)開始在百度搜索中落地,幫助用戶獲取更符合需求的圖片、視頻。這里看下實際任務(wù)上的樣例效果。

跨模態(tài)檢索:以文搜圖、以圖搜文

UNIMO 能夠根據(jù)文字描述搜索相關(guān)圖片,或者根據(jù)圖片搜索相關(guān)文本描述。從結(jié)果上看,UNIMO 能夠更準(zhǔn)確的理解文字或圖片的語義,檢索出更匹配的圖片或文字。

9.png

跨模態(tài)問答:

UNIMO 也支持使用自然語言對圖片內(nèi)容進(jìn)行提問。UNIMO 能理解圖片中的內(nèi)容和概念,并結(jié)合模型學(xué)習(xí)到的背景知識,準(zhǔn)確的進(jìn)行推理回答。

10.png

跨模態(tài)生成:根據(jù)文字生成圖片

UNIMO 能夠根據(jù)文字描述生成對應(yīng)的圖片。從結(jié)果中,我們可以發(fā)現(xiàn) UNIMO 能夠很好的對齊視覺和語言的屬性和概念,從而生成準(zhǔn)確清晰的圖片。

11.png

百度首創(chuàng)地提出了語言與視覺一體的預(yù)訓(xùn)練方法 UNIMO,提供了一種新的統(tǒng)一模態(tài)學(xué)習(xí)范式,打破了文本、圖像和圖文對等數(shù)據(jù)間的邊界,讓機(jī)器可以像人一樣利用大規(guī)模異構(gòu)模態(tài)數(shù)據(jù),學(xué)習(xí)語言知識與視覺知識并相互增強(qiáng),從而實現(xiàn)感知與認(rèn)知一體的通用 AI 能力。或許,異構(gòu)模態(tài)的統(tǒng)一學(xué)習(xí)是邁向通用人工智能的關(guān)鍵節(jié)點之一。未來百度將在統(tǒng)一模態(tài)學(xué)習(xí)上做出更多工作和應(yīng)用,敬請期待。

*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。

電度表相關(guān)文章:電度表原理




關(guān)鍵詞: 深度學(xué)習(xí)

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉