1樓:川彙金城武
直接使用concat拼接張量的效果應該不佳吧,周文罡教授Collaborative Index Embedding for Image Retrieval文章裡提到的方法效果怎麼樣?您實驗了嗎
2樓:王華
實時模型融合,也叫做多輸入模型,用keras就是下面這樣搭建:
defmulti_input_model():
# 78代表第乙個模型輸入維度
input1_ = Input(shape=(78,), name='input1')
# 1代表第而箇模型輸入維度
input2_ = Input(shape=(1,), name='input2')
print(input1_.shape)
x1 = Dense(15, activation='relu')(input1_)
# x2 = Dense(16, activation='relu')(input2_)
x2=input2_
x = concatenate([x1, x2])
# x1 = Dense(16, activation='relu')(x1)
# x2 = Dense(16, activation='relu')(x2)
print(x1.shape)
print(x2.shape)
x = Dense(16, activation='relu')(x)
output_ = Dense(1, activation='sigmoid', name='output')(x)
model = Model(inputs=[input1_, input2_], outputs=[output_])
returnmodel
3樓:Zhang Bin
一般可以直接在卷積層鋪平後的向量,與傳統視覺特徵向量直接Concat,然後再接到全連線網路,進而通過全連線層對特徵進行選擇和分配。
深度學習做影象去躁,增強,重建,分類,哪個簡單呀?
老王 如果是選擇研究方向,可以對這些進行融合,例如可以將去噪和分類進行一體化,或者說,將去噪作為分類演算法的乙個步驟。這樣做的原因在於,很多資料集含有大量噪音 或者冗餘資訊,會對分類演算法的效能造成不利影響。例如,深度殘差收縮網路就是這樣的一種演算法,將訊號降噪演算法中常用的軟閾值化,與分類演算法進...
用深度學習來做物體分類和場景分類,有什麼區別,兩者分別應該選擇怎樣的網路,哪個問題更難?
迪天才 物體分類 你看到貓就是貓,你看到狗就是狗 輸出你看到啥,非常直觀。場景分類 你看到貓可能是在家裡看到的,可能是在寵物店看到的,也可能是大街上看到的 同樣看到是貓,需要判斷是在何種場景下,這是乙個更難的問題。 Wayne 最近讀了一些場景分類的文獻,說一些個人的看法。之前一直從細粒度影象分類的...
現在讀深度學習方向的博,是做遙感影象(SAR影象),醫療影象,還是純計算機視覺比較好?
灰質 看個人興趣,建議做垂直領域的CV。純理論是科學家,類似於hinton那種大神,尋求更好的共性基礎解決問題的方法。但是從商業化和就業等方面的現實考量,垂直領域的機會更多一些,畢竟可以無縫對接產業界。但是國內稀缺純理論方面啃硬骨頭的人,功利性較強。僅供參考。 Liuhr 個人認為的話這兩個方向並沒...