英偉達的STEAL AI讓神經(jīng)網(wǎng)絡擁有更好的計算機視覺
來自英偉達(Nvidia)、多倫多大學(University of Toronto)和多倫多矢量人工智能研究所(Vector Institute for Artificial Intelligence)的研究人員規(guī)劃了一種方式,可以更精確地探測和預測物體的起點和終點。這些知識可以改進現(xiàn)有計算機視覺模型的推理,并為未來的模型標記訓練數(shù)據(jù)。在研究人員的實驗中,語義細化的邊緣對齊學習(steal)能夠?qū)⒆钕冗M的casenet語義邊界預測模型的精度提升4%。更精確地識別物體的邊界可以使用于計算機視覺任務,從圖像生成到三維重建到物體檢測。STEAL可用于改進現(xiàn)有的CNNs或邊界檢測模型,但研究人員還認為它可以幫助他們更有效地標記或注釋計算機視覺模型的數(shù)據(jù)。為證明這一點,STEAL方式用于改進城市景觀,這是2016年首次在計算機視覺和模式識別(CVPR)會議上引入的城市環(huán)境數(shù)據(jù)集。在GitHub上,STEAL框架以像素為單位學習和預測對象邊緣,研究人員稱之為“主動對齊”。“在訓練過程中對注釋噪聲進行明確的推理,以及為網(wǎng)絡提供一個從端到端排列不當?shù)臉撕炛袑W習的分級公式,也有助于產(chǎn)生結(jié)果?!睋?jù)arXiv報道,研究者在4月發(fā)表的一篇論文中說:“我們進一步表明,我們預測的邊界比最新的DeepLab-v3分割輸出得到的邊界顯著更好,同時運用了更輕量級的架構(gòu)?!辈⒃?月9日進行了修訂?!澳Ч砭驮谶吘墸簭泥须s的注釋中學習語義邊界”將在本周于加州長灘舉行的CVPR 2019年會議上分享。英偉達在今天的一篇博客文章中說,近12篇部分由英偉達研究公司撰寫的研究論文將在會議上以口頭陳述的形式分享。
Q:這個文檔的類型是什么?
A:資訊。
Q:研究人員來自哪些機構(gòu)?
A:研究人員來自英偉達(Nvidia)、多倫多大學(University of Toronto)和多倫多矢量人工智能研究所(Vector Institute for Artificial Intelligence)。
Q:STEAL 的作用是什么?
A:STEAL 可以更精確地探測和預測物體的起點和終點,提升現(xiàn)有計算機視覺模型的精度,改進現(xiàn)有 CNNs 或邊界檢測模型,還可以幫助更有效地標記或注釋計算機視覺模型的數(shù)據(jù)。
Q:STEAL 在哪些方面進行了應用?
A:用于改進城市景觀,從圖像生成到三維重建到物體檢測等計算機視覺任務。
Q:STEAL 將最先進的 casenet 語義邊界預測模型的精度提升了多少?
A:提升了 4%。
Q:STEAL 在 GitHub 上有什么特點?
A:在 GitHub 上,STEAL 框架以像素為單位學習和預測對象邊緣,被研究人員稱為“主動對齊”。
Q:研究人員在論文中說了什么?
A:“在訓練過程中對注釋噪聲進行明確的推理,以及為網(wǎng)絡提供一個從端到端排列不當?shù)臉撕炛袑W習的分級公式,也有助于產(chǎn)生結(jié)果?!薄拔覀冞M一步表明,我們預測的邊界比最新的 DeepLab-v3 分割輸出得到的邊界顯著更好,同時運用了更輕量級的架構(gòu)?!?br>Q:論文什么時候修訂的?
A:6 月 9 日。
Q:“魔鬼就在邊緣:從嘈雜的注釋中學習語義邊界”將在哪里分享?
A:將在本周于加州長灘舉行的 CVPR2019 年會議上分享。
Q:有多少篇部分由英偉達研究公司撰寫的研究論文將在會議上以口頭陳述的形式分享?
A:近 12 篇。