一、说明
在逻辑回归和一些机器学习算法中, Logistic函数和Softmax函数是常用到的,今天就先讨论下这两个函数。
二、Logistic Function
Logistic function一般用于二分类问题,它的函数定义如下:
f(x)=11+e−x(1)
它的图像如下:
由于logistic 函数的图形很像S,所以也叫sigmod 曲线。下面求一下logistic函数的导数,它在机器学习算法的推导过程中可能用到。
f′(x)=[(1+e−x)−1]′=−(1+e−x)−2∗e−x∗(−1)=e−x(1+e−x)2=11+e−xe−x1+e−x=11+e−x1+e−x−11+e−x=11+e−x(1−11+e−x)=f(x)[1−f(x)]
即 f′(x)=f(x)[1−f(x)]
通过logistic函数,可以把变量 x映射到[0, 1]之间,在分类问题上,x是训练集上数据和对应维度特征参数的组合:
三、Softmax Function
Softmax function 是sigmod 函数的扩展,它可以用于多分类问题。它的定义如下所示:
Yk=ϕ(zk)=ezk∑Ki=1ezi,k=1,2,…,K
其中, z往往是关于参数和样本数据的复合函数,softmax 函数的目的是求使得
图中的 P(t|z)表示对于给定的输入 z,它属于t的概率值。关于具体的推导,可参照文献2. 但是注意,文献2 中的
四、参考文献
- http://peterroelants.github.io/posts/neural_network_implementation_intermezzo02/
- http://blog.csdn.net/hejunqing14/article/details/48980321