久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

專欄中心

EEPW首頁 > 專欄 > “目標檢測”+“視覺理解”實現(xiàn)對輸入圖像的理解及翻譯

“目標檢測”+“視覺理解”實現(xiàn)對輸入圖像的理解及翻譯

發(fā)布人:CV研究院 時間:2022-07-23 來源:工程師 發(fā)布文章

提出了GLIPv2,一種基于VL的理解模型,它服務(wù)于localization任務(wù)例如,目標檢測、實例分割)和視覺語言(VL)理解任務(wù)(例如,VQA、圖像字幕)。


01

概述


GLIPv2優(yōu)雅地將localization預(yù)訓(xùn)練和視覺語言預(yù)訓(xùn)練 (VLP) 與三個預(yù)訓(xùn)練任務(wù)相結(jié)合:phrase grounding作為檢測任務(wù)的VL重構(gòu),區(qū)域-詞對比學(xué)習(xí)作為新的區(qū)域-詞級對比學(xué)習(xí)任務(wù)和掩碼語言建模。這種統(tǒng)一不僅簡化了之前的多階段VLP程序,而且實現(xiàn)了定位和理解任務(wù)之間的互惠互利。實驗結(jié)果表明,單個GLIPv2模型(所有模型權(quán)重共享)在各種定位和理解任務(wù)上實現(xiàn)了接近SoTA的性能。該模型還展示了:

  • 在開放詞匯目標檢測任務(wù)上的強大的零樣本和少樣本自適應(yīng)性能;
  • 在 VL 理解任務(wù)上的出色grounding能力

02

背景


最近,人們普遍關(guān)注構(gòu)建通用視覺系統(tǒng),也稱為視覺基礎(chǔ)模型,它可以同時解決各種視覺任務(wù),例如圖像分類、物體檢測,以及視覺語言 (VL) 理解。特別感興趣的是定位任務(wù)(例如,目標檢測和分割)和VL理解任務(wù)(例如,VQA和圖像字幕)之間的統(tǒng)一。

localization預(yù)訓(xùn)練有利于VL任務(wù),“l(fā)ocalization->VLP”兩階段預(yù)訓(xùn)練過程是VL社區(qū)。一個長期存在的挑戰(zhàn)是localization和理解的統(tǒng)一,旨在這兩種任務(wù)之間互惠互利,簡化預(yù)訓(xùn)練程序并降低預(yù)訓(xùn)練成本。

然而,這兩種任務(wù)似乎有很大的不同:定位任務(wù)僅是視覺任務(wù),需要細粒度的輸出(例如,邊界框或像素掩碼),而VL理解任務(wù)強調(diào)兩種模式之間的融合,需要高級語義輸出。例如,答案或標題)。


03

新框架


圖片

Left: GLIPv2, a pre-trained grounded VL understanding model, unifies various localization and VL understanding tasks. These two kinds of tasks mutually benefit each other, and enables new capabilities such as language-guided detection/segmentation and grounded VQA/captioning. Right: Additional examples from ODinW (detection), LVIS (segmentation), VQA, and COCO Captioning.

A Unified VL Formulation and Architecture

GLIPv2統(tǒng)一公式的核心是分類匹配技巧,它將任何特定于任務(wù)的固定詞匯分類問題重新表述為與任務(wù)無關(guān)的開放詞匯視覺語言匹配問題。最好的例子是在CLIP中將圖像分類重新表述為圖像-文本匹配,這使模型能夠直接從原始圖像-文本數(shù)據(jù)中學(xué)習(xí),并在開放詞匯分類任務(wù)上實現(xiàn)強大的零樣本結(jié)果。在GLIPv2 中,我們用視覺語言匹配點積層替換了傳統(tǒng)單模態(tài)視覺模型中的每個語義分類線性層。

圖片

GLIPv2 Pre-training

GLIPv2使用三個預(yù)訓(xùn)練損失進行預(yù)訓(xùn)練:來自目標檢測任務(wù)的視覺語言重構(gòu)的phrase grounding損失Lground、來自新的區(qū)域單詞級別對比學(xué)習(xí)任務(wù)的區(qū)域單詞對比損失 Linter,以及標準掩碼BERT中提出的語言建模損失Lmlm。

圖片

Transfer GLIPv2 to Localization and VL Tasks

我們引入了兩種輕松將GLIPv2傳輸?shù)礁鞣N下游任務(wù)的方法。此外,GLIPv2可以在本地化的同時執(zhí)行傳統(tǒng)的VL任務(wù)(例如VQA),有效地使我們認為的每項任務(wù)都成為“基礎(chǔ)的VL理解”任務(wù)。

圖片

GLIPv2 pre-training losses: the intra-image alignment loss Lintra (right) takes features after VL fusion and compute loss over region-word pairs within each image-text pair; the inter-image contrastive loss (left) Linter takes features before VL fusion and compute loss over all region-word pairs across a batch of image-text pairs. Label propagation is used to determine the off-diagonal blocks of the Linter target matrix.


04

實驗及可視化


圖片

圖片

圖片

圖片


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。

關(guān)鍵詞: AI

相關(guān)推薦

芯片互連初創(chuàng)企業(yè)Kandou AI完成2.25億美元融資

基于Microchip MCU的AI/ML培訓(xùn)教程3

視頻 2025-11-12

盡管與亞馬遜達成芯片合作,英偉達股價仍下跌 3%,油價與加息擔憂沖擊 AI 交易

尼吉康的事業(yè)介紹

視頻 2025-07-25

邊緣 AI 加速的 Arm? Cortex??M0+ MCU 如何為電子產(chǎn)品注入更強智能

嵌入式系統(tǒng) 2026-03-25

Gartner發(fā)布三大AI價值實現(xiàn)路徑

英偉達 Groq 3:AI 推理時代已至

基于Microchip MCU的AI/ML培訓(xùn)教程2

視頻 2025-11-12

EEPW2018年6月刊(5G)

資源下載 2018-06-11

CSR8670CSR8675智能語音Alexa藍牙方案開發(fā)

資源下載 2017-12-14

基于Microchip MCU的AI/ML培訓(xùn)教程1

視頻 2025-11-12

賦能AI與新能源時代的高動態(tài)MW級負載平臺

AI狂潮 半導(dǎo)體通膨壓力重重

TI 攜手 NVIDIA 推出面向下一代 AI 數(shù)據(jù)中心的完整 800 VDC 電源架構(gòu)

在工業(yè)自動化和智能家用電器設(shè)計中實現(xiàn)支持邊緣 AI 的電機控制

EEPW2018年3月刊(工業(yè)物聯(lián)網(wǎng))

電子元件培訓(xùn)教材

AI正在成為美國軍事系統(tǒng)核心

2026-03-24

PowiGaN for AI Data Centers: Unmatched Power Density and Reliability

視頻 2025-12-19
更多 培訓(xùn)課堂
更多 焦點
更多 視頻

技術(shù)專區(qū)