元學習(Meta Learning)與遷移學習(Transfer Learning)的區別聯絡是什麼?

時間 2021-05-11 23:19:08

1樓:滄桑飲馬

瞎jr寫的,53234323

元學習是對任務空間的本質的抽象,可以認為一種具有洞察力的學習能力。

遷移是利用任務空間中兩點的相關性而做的細節插值,學習就是進一步的優化了。

也是學習並總結了高讚答主寫的回答,我這也算元學習了呀

2樓:Jotline

聯絡:共享引數,meta learning和遷移學習一樣,都要有大量的資料進行學習,然後新的任務共享學習到的引數,這樣才能做到few shot learning甚至one shot learning。

不同:相較於遷移學習元學習模型的泛化不依賴於資料量,遷移學習的finetune階段同樣需要用大量資料去學習的(至少相對於元學習是大量資料)

非常贊同 @王晉東不在家 大佬的回答,很多概念其實都是殊途同歸的。不能割裂的來看。

3樓:市民王先生

元學習和遷移學習的概念其實有點混了,不如把它們按照遷移的內容劃分更合適。比如遷移模型架構的、遷移模型引數的、遷移模型引數初值的、遷移模型訓練優化器的等等。

4樓:

實際上元學習經常與另乙個話題更相關,就是多工學習,兩者之間經常是形影不離。多工學習屬於parallel transfer learning,而一般意義的遷移學習是sequential transfer learning。多工學習中的知識遷移,是並行進行的,多個任務的學習沒有先後關係。

而一般情況的遷移學習中的知識遷移,是序列進行的,即多個任務的學習過程存在先後關係。

需要說的是,不少的多工學習模型背後都有著元學習的影子,但這些多工學習的研究往往不會從元學習的角度去解釋和思考問題。實際上,元學習也啟發了不少多工學習模型,可以從元學習的角度去解釋多工學習的有效性。

5樓:

某些task上就是一回事。

比如MAML等一眾optimization based 的meta learning方法做few shot learning,被 tansfer learning (finetune最後幾層)吊打,但是實驗又不想比這個baseline怎麼辦,換個名字唄。

6樓:荷戟彷徨

區別:元學習的重點在meta上,其思想是通過一系列相似任務歸納這些任務的共同特性,借助這些資訊靜進行新任務的快速學習。遷移學習是另外乙個路子:

通過乙個普遍性的資料集讓神經網路獲得常識性的資訊,之後通過表達特定任務的小樣本資料集把需要專業的部分強化。

7樓:小鵬

個人理解,可能和現有的具體定義有些偏差:

我們將每個任務比做一道數學題,那麼遷移學習就是給你一道題和其解題過程,然後再給你一道類似的題(可能就改個數字,改個情景等),讓你依照剛才給你的資料求解這個題。而元學習就是給你一堆這樣的數學題,讓你不停的做(meta train),做完看答案總結(meta test),久而久之你學會了如何求解這類數學題,那麼再給你一道類似的題你也可以很快做出來。

8樓:海瑞先生

遷移學習(transfer learning)是將已知task學到的模型遷移到類似的task。遷移的可以是模型引數,資料等。通常是已知task上積累了大量的資料可以用於訓練,新的task往往資料較少,無法直接建模,常見的方式是pre-train+fine-tune。

元學習(meta learning)的核心思想是learning to learning,即學會學習的能力,可從以往的經歷中沉澱知識及經驗用來指導新任務的學習。學習可以來自很多包含少量樣本的task。

9樓:20200406

遷移學習和元學習共同點就是泛化到沒訓過的任務上,或者是特定資料一些沒見過的類。但是現在有關元學習文章寫的都很迷,大家都把條件設定改了,各種預訓練都用來漲點,但根據傳統機器學習訓練測試條件一致的原則,元學習或者主要是小樣本學習更應該強調每個任務用少量樣本從頭訓練,這也不禁也有點懷疑李飛飛提出小樣本場景的合理性,測試時用遷移方法的預訓練模型結果肯定會好一點,但從頭開始用小樣本訓練豈不是丟棄了更好的先驗知識,正如」機器學習模型在學習了一定類別的大量資料後,對於新的類別,只需要少量的樣本就能快速學習,這就是 Few-shot Learning 要解決的問題」,那麼在大量資料用小樣本的訓練方式是否合理,也就是遷移和元學習主要的區別了

10樓:

我個人的淺薄理解是,如果已知要 transfer 過去的 task,那就是 transfer learning,如果要往未知的 task 去 transfer knowledge,那就是 meta-learning。

11樓:aluea

瀉藥兩者乙個是字面上的遷移學習,乙個是學會學習。

遷移學習簡單來說就是,我以前訓練了乙個模型,現在我面臨乙個新的任務,我仍想要用上那個模型。

元學習完全不拘泥於模型,我以前學過一些東西,現在我面臨乙個新的任務,我得用上它們。

從定義上來看,使用遷移學習來實現元學習是乙個天然直觀的想法,這就是兩者的關係。

如果題主一定要拘泥於深度學習,也可以這麼理解。

眾所周知,深度學習擬合了一條曲線。

那麼兩條曲線是否可以疊加成為另一條曲線呢。

答案是肯定的,目標檢測就是將分類和回歸混合起來的任務,分類和回歸各自的曲線加上一條用做膠水的曲線共同疊加成為目標檢測的曲線。相應的,分類和回歸的曲線也是由許許多多子任務的曲線疊加而成。

對於遷移學習,我們已經有了一條曲線A,現在想要一條新的曲線B,只要獲得B-A這條曲線即可,在類似分布的情況下B-A對於元學習,我們已經有了A,B,C三條曲線和一些膠水曲線,為了得到D模型要去組合這些曲線找到一條與D最相近的曲線S,然後訓練D-S。如果S與D相差過大,那麼D-S≈D,元學習退化成普通的擬合。所以元學習已知的曲線越多越全面,D-S≈D這種情況就會越少,模型學習速度就越快,越擅長處理新任務。

12樓:[已重置]

我自己的理解,如果把乙個深度網路對應的對映流程看作一條對映空間的曲線,那麼大致說,遷移學習是如何把一條曲線的特徵用於指導尋找另一條臨近曲線,是尋找樣本曲線個體之間的變換關係;元學習則更多在統計意義上,偏重於尋找一類相似曲線的共同的統計分布特徵和建模,元學習過程可以通過對網路結構、引數、代價函式的設計,使得一類問題的對應曲線具有乙個統一的可引數化描述的分布。

13樓:橘 吉野

遷移學習(Transfer Learning):就是指利用已經訓練好的開源網路模型比如常見的VGG系列、Resnet系列、GoogleNet系列、MobileNet等,利用這些網路和其已經在其他大型資料集上訓練好的權重引數,將自己的任務資料集在這些遷移過來的網路上進行訓練或者微調。這裡遷移是指遷移網路模型和網路預訓練的權重。

當然,在網路和其權重遷移過來後,還可以在後面加上其他的網路模組,構成新的網路模型。舉個例子:Unet16的左分支就是VGG16的網路結構,其左分支權重在初始化時使用的是VGG16的預訓練權重;faster r-cnn 是2階段的目標檢測網路,第一階段的特徵提取網路通常用訓練好的Resnet101等。

元學習(Meta Learning)是指:元學習也叫做「學會學習」(Learning to learn),它是要「學會如何學習」,即利用以往的知識經驗來指導新任務的學習,具有學會學習的能力。

當前的深度學習大部分情況下只能從頭開始訓練。使用Fine-tune來學習新任務,效果往往不好,而Meta Learning 就是研究如何讓神經網路很好的利用以往的知識,使得能根據新任務的調整自己。

傳統的機器學習研究模式是:獲取特定任務的大型資料集,然後用這個資料集從頭開始訓練模型。很明顯,這和人類利用以往經驗,僅僅通過少量樣本就迅速完成學習的情況相差甚遠。

(人類可以從少量樣本中快速學習獲取很大的認知能力,但演算法模型則需要在大規模的資料集上得到訓練才有可能達到人的識別能力)

乙個良好的元學習模型能夠很好地推廣到在訓練期間從未遇到過的新任務和新環境。最終,改編的模型可以完成新任務。這就是元學習也被稱為學習如何學習學習的原因。

元學習有三種常見的方法:1)學習有效的距離度量(基於度量); 2)使用(迴圈)網路與外部或內部儲存器(基於模型); 3)明確優化模型引數以進行快速學習(基於優化)。

有乙個典型的Meta learning問題,也就是Few-Shot Learning少樣本學習,可參考:小樣本學習(Few-shot Learning)綜述 小樣本學習(Few-shot Learning)綜述

如何系統學習有限元技術?

阿宇66666 推薦朱伯芳院士的 有限元基本原理與應用 由淺入深,講的特別好!誰看誰知道。建議看前學個最簡單的程式設計比如matlab,做做例題,事半功倍!然後就不用系統學習有限元了,因為當你這麼做並把書看完三分之一的時候,你發現自己已經深刻掌握了。關鍵是你不需要很高的門檻,甚至很多數學基本理論你不...

學習日語周圍會有很多2次元妹子嗎?

法亞小語種 日語圈還是相對比其他地方二次元妹子要多很多。當然日語圈多半是因為追星 追劇。我身邊有個妹子,深度二次元腐宅類,就是在我賬號下更 推薦好看的日漫 回答的妹子,無論是少女漫 熱血漫 體育番或者是科幻 機械類的,無不涉及。她經常就是喜歡去漫展,會做一些簡單的cos。題主也可以多去逛逛漫展,能多...

請問深度學習中「啟用」神經元的數值含義是什麼?

智雲檢視 深度學習中資訊從乙個神經元進入,經過非線性的啟用函式,傳入到下一層神經元 再經過該層神經元的啟用,繼續往下傳遞,如此迴圈往復,直到輸出層。因此啟用函式決定了某個神經元是否被啟用,這個神經元接受到的資訊是否是有用的,是否該留下或者是該拋棄。 藍天森林小樹 ReLU啟用函式最符合你的描述 大於...