ICCV2017有什麼令人關注的文章?

時間 2021-05-06 22:08:32

1樓:

Makeup-Go: Blind Reversion of Portrait Edit

以後化妝要把痘印蓋仔細了,有點痕跡就會被makeup go

2樓:何宜暉

[1707.06168] Channel Pruning for Accelerating Very Deep Neural Networks

By Yihui He, Xiangyu Zhang, Jian Sun

覺得CNN執行太慢?

我們通過對CNN每個卷積層channels削減,簡潔有效地化簡和加速網路。

效果可以達到:

VGG-164倍加速, Top-5 accuracy 下降0.0Xception-50, 2倍加速, Top-5 accuracy 下降1.0Faster RCNN, 2倍加速mmAP 下降0.

0

在GitHub上公布了Code : yihui-he/channel-pruning

3樓:

人類與機器的最大區別是:人類可以通過聯想獲得新知識,而機器不能。比如,當人類知道白色的椅子和紅色的桌子長什麼樣,就能聯想出白色的桌子的樣貌。

創造=把多模態的知識屬性打亂,並重新整理Semantic Image Synthesis via Adversarial Learning 一文就是想實現"組合性創造",創造出訓練集中不存在的資料。

結果圖:

全卷積網路,防止損失原圖的空間資訊:對抗損失函式:

這部分有點繞,包括匹配的句子,不匹配的句子,以及語言相關的句子。

插值變換圖:

第三方實現:woozzu/dong_iccv_2017我的實現等我有空整理好了,再放出來~

4樓:taokongcn

大家快來圍觀Kaiming, Ross的新作品

Focal Loss for Dense Object Detection

Focal Loss for Dense Object Detection

解釋一下為什麼:

目標的檢測和定位中乙個很困難的問題是如何從數以萬計的候選視窗中挑選中包含目標物的物體,只有候選視窗足夠多,才能保證模型的Recall。目前的目標檢測框架主要有兩種,一種是one-stage的,例如YOLO、SSD等,這一類方法速度很快,但識別精度沒有two-stage的高,其中乙個很重要的原因是利用乙個classifier很難一方面把負樣本抑制掉,另一方面把目標分類好。另外一種是two-stage的,以Faster RCNN為代表,這一類方法識別準確度和定位精度很高,但存在著計算效率低,資源占用大的問題。

如何能在保證識別效率的前提下提高識別的準確度和定位效能成為乙個重要的研究方向,我們在CVPR2017有乙個工作(RON: Reverse Connection with Objectness Prior Networks for Object Detection)試圖將兩種方法結合來達到這個目的,但仍然存在著訓練不夠好的問題。

而Focal Loss從優化函式的角度上來解決這個問題,而且實驗結果非常solid,很讚的工作。

5樓:「已登出」

MSRA Visual Computing Group:

Deformable Convolutional Networks可形變卷積kernal,自帶attention效果

Flow-Guided Feature Aggregation for Video Object DetectionVideo中detection結合flowNet,大大提高了效能,看了yichen wei的talk,很solid的工作

FAIR:

Mask R-CNN

前段時間大火的工作,ICCV 2017 oralCUHK:

Learning Feature Pyramids for Human Pose Estimation在卷積網路中學習特徵金字塔, 並修正了現有的網路引數初始化方法, 在人體姿態估計中state of the art

話說現在各種網路都是Pyramid arch,都快被玩壞了

6樓:Lyken

NIPS還沒出,ICCV基本是GAN主場作戰了,印象最深的是cycle consistency + GAN的孿生三兄弟

DualGAN from University of Newfoundland & Simon Fraser University

CycleGAN from University of California Berkely

DiscoGAN from SKT-brain.

都利用到了兩個domain之間的cycle consistency,乙個最早在 [1611.00179] Dual Learning for Machine Translation 提出概念,即從X轉換到Y,從Y再轉換到Z,要求X和Z盡可能相似。運用到GAN裡,就是 和 盡可能小。

乙個在NLP裡率先提出來的概念,不到三個月就被快速運用到CV裡,然後在乙個conference上同台出場,真是被大家的勤奮給嚇到了。

ICCV 2021有什麼值得關注的新研究?

可以看到,在VOC和ImageNet上超過了MoCo大於0.5個點!PR文 上表顯示了不同資料集上的MaskCo和MoCo v2的效能對比,本文方法在ImageNet上和MoCo v2效能差不多,但是在COCO和CC資料集上比MoCo v2效能高。再來看看更多的結果,可以看到,MoCo v2遙遙領先...

CVPR 2017 有什麼值得關注的亮點

林小白 GAIR大課堂 CVPR哈工大深圳專場 地點 深圳市西麗大學城哈工大校區A棟104教室嘉賓 左旺孟 哈爾濱工業大學計算機學院教授 博士生導師黃偉林 碼隆科技首席科學家 陳曉智 大疆創新演算法工程師 李琛 深圳大疆創新演算法工程師Matt Scott 碼隆科技聯合創始人兼CTO 王大錘 我是做...

NIPS 2017 有什麼值得關注的亮點?

Jason Dou 1705.09886 Convergence Analysis of Two layer Neural Networks with ReLU Activation 其實我覺得在知乎上問與回答這種問題不好。1.從CVPR到ICCV到NIPS,總有這種問題,到最後就變成了實名的推銷自...