機器學習中Inference 和predict的區別是什麼

時間 2021-05-07 22:21:17

1樓:我是水

例句記錄。

[1] Skip-Thought VectorsThe paragraph vector of [7] is an alternative to the above models in that it can learn unsupervised sentence representations by introducing a distributed sentence indicator as part of a neural language model. The downside is at test time,inferenceneeds to be performed to compute a new vector.

釋義:反向傳播、調節輸入引數的過程。

-----邊看邊更------

2樓:斤木

貝葉斯體系中,learning是在一堆data points上擬合乙個latent variable的分布,inference是在乙個給定data point上得到乙個具體variable的值。比如給定x, y去infer theta的值, 當然你也可以用x和theta去infer y的值。

大多數深度學習場景下,由於deterministic model沒有latent variable的概念,所以learning就變成了給定一堆data points得到theta的值, 也就是training. 而對每個data point去得到y, 也就變成了inference的新定義,唯一的區別是整個過程沒有latent variables.

至於prediction, 我個人覺得是一種更針對具體任務的叫法,和inference可以輪換使用。

如何理解機器學習中說深度學習和整合學習是黑箱模型?

Ada 深度學習和整合學習都是機器學習裡面的分支,裡面主要涉及到的技術就是神經網路。而之所以說它們是黑箱模型,主要是因為它們所使用的神經網路技術的不可解釋性。神經網路是一種模擬人的大腦思考計算的演算法,裡面涉及到了很多的計算層級,每乙個層級裡面又有很多的計算節點,同一層級的各個節點之間,不同層級之間...

如何理解機器學習和統計中的AUC?

scikit learning裡面有介紹 1 sklearn.metrics.auc scikit learn 0.24.1 documentation 2 sklearn.metrics.roc auc score scikit learn 0.24.1 documentation Hasin C...

機器學習中的logistic regression的sigmoid函式如何解釋?為啥要用它?

壯哉我賈詡文和 為什麼要對對數機率進行建模?為什麼選用Sigmoid函式作為聯絡函式 link function 壯哉我賈詡文和 Logistic 回歸 對數機率回歸 直觀理解 回頭再補一下。 小周周的爸爸 1.機率服從 1 1 e f x 形式 2.類的條件分布服從指數族分布則 f x 可以表達成...