EranKK

科技行业挑过水,金融行业搬过砖。媒体行业码过字,交易行业割过肉。

0%

RL-model-content-ml-01

练习一下自己的Markdown的公式书写速度

给定数据集 D=(x1,y1),(x2,y2),,(xm,ym),其中xi=xi1,xi2,,xin, yiR。 线性回归试图学得f(xi)=wxi+b,使f(xi)yi之间的差别尽可能小。如何确定wb,关键在于如何衡量f(xi)yi之间的差别,可以通过均方误差最小化
E(w,b)=i=1m(yif(xi))2
基于均方误差最小化来进行模型求解的方法称为“最小二乘法”
在现行回归中,最小二乘法就是试图找到一条直线,是所有样本到直线上的欧氏距离之和最小。

  1. 一元线性回归
    这里E(w,b)是关于wb的凸函数,当它关于wb的导数均为零时,得到wb的最优解。
    wb的偏导:
    E(w,b)w=2[wi=1mxi2i=1m(yib)xi]
    E(w,b)b=2[mbi=1m(yiwxi)]
    令偏导为0:
    $$
    w= \frac{\displaystyle \sum^{m}{i=1}y_i(x_i-\overline{x})}{\displaystyle \sum^m{i=1}x^2_i-\frac{1}{m}(\displaystyle \sum^m_{i=1}x_i)^2}
    $$

b=1mi=1myiwxi

  1. 多元线性回归

X=[X11X12X1n1 X21X22X2n1  Xm1Xm1Xmn1]
Y=[w1 w2  wn+1]
y=[y1 y2  ym]

矩阵X的每一行的前n个元素代表一条数据标签,共有m个数据。最后一行元素恒置为1,为了求导的方便,把wn+1当做现行模型中的偏置(bias)。即f(x)=XW
loss=i=1m(yixiw)2
注:由于 yixiw 是个实数c,
$loss=c1c1+c2c2+\cdots+cm*cm$ 。

可写成CTC。上式可改写成矩阵相乘的方式。
loss=(yXW)T(yXW)=yTyyTXWWTXTy+WTXTXW

我们要求loss最小时,w的取值,所以对w求偏导,使其为0。

注:补充矩阵求导的知识,熟记两个公式。
(ATWTB)W=BAT 这种情况是对带T的求导,左右两边互换位置,不加T

(ATWB)W=ABT 这种情况是 对不带T的求导,其他元素加T,不换位置

求偏导过程如下所示:
(yTXW)W=(yTX)T=XTy

(WTXTy)W=XTy

WTXTXWW=XTXW+(WTXTX)T=2XTXW

(yTyyXWWTXTy+WTXTXW)W=2XXW2XTY

故求得2XTXW=2XTYW=(XTX)1XTy
求得的W即为最优权值。

  1. 局部加权线性回归