机器学习笔记(十)——Logistic Function AND Softmax Function
生活随笔
收集整理的這篇文章主要介紹了
机器学习笔记(十)——Logistic Function AND Softmax Function
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
一、說明
? ? ? ? 在邏輯回歸和一些機器學習算法中, Logistic函數和Softmax函數是常用到的,今天就先討論下這兩個函數。
二、Logistic Function
? ? ? ? Logistic function一般用于二分類問題,它的函數定義如下:
它的圖像如下:
由于logistic 函數的圖形很像S,所以也叫sigmod 曲線。下面求一下logistic函數的導數,它在機器學習算法的推導過程中可能用到。
即 f′(x)=f(x)[1?f(x)]
通過logistic函數,可以把變量 x映射到[0, 1]之間,在分類問題上,x是訓練集上數據和對應維度特征參數的組合:θTx+b, 具體會在后邊講到。
三、Softmax Function
Softmax function 是sigmod 函數的擴展,它可以用于多分類問題。它的定義如下所示:
其中, z往往是關于參數和樣本數據的復合函數,softmax 函數的目的是求使得Yk取值最大的 z中的參數,k表示有k個分類。
圖中的 P(t|z)表示對于給定的輸入 z,它屬于t的概率值。關于具體的推導,可參照文獻2. 但是注意,文獻2 中的?K=?ieβi, 有問題請隨時留言。
四、參考文獻
總結
以上是生活随笔為你收集整理的机器学习笔记(十)——Logistic Function AND Softmax Function的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: HDFS详解(架构设计、副本放置策略、读
- 下一篇: PS菜鸟入门 -- 添加滤镜