5.4 多元线性回归

5.4.1 添加更多特征

之前我们举的根据气温预测冰激凌销量的例子里,只有一个feature,那就是气温。但实际情况中,影响冰激凌销量的因素还有很多,比如价格。

温度 价格(元) 销量(个)
10 3 60
20 3 85
25 3 100
28 2.5 120
30 2 140
35 2.5 145
40 2.5 163

现在我们就有了2个feature,一个偏置,一共3个参数需要优化。因为我们已经学了梯度下降算法,所以并不需要担心。下一节我们就动手实现梯度下降算法来找出最优的参数。

5.4.2 线性回归的一般表达式

一般线性回归的方程,或者说假设函数为:


hw(x)=w0+w1x1+w2x2++wnxnh_w(x)=w_0+w_1x_1+w_2x_2+\cdot\cdot\cdot+w_nx_n

其中:

  • w0w_0 是偏置。
  • w1,w2,...,wnw_1,w_2,...,w_n是模型参数。
  • x1,x2,...,xnx_1,x_2,...,x_n是特征。

线性回归的假设函数也可以表示为两个向量的点积:

其中参数ww向量为[w0,w1,...wn][w_0,w_1,...w_n]

特征xx向量在第一个位置增加一个1,和代表偏置的参数对应:[1,x1,x2,...,xn][1,x_1,x_2,...,x_n]

最终:


hw(x)=wxh_w(x)= w\cdot x

results matching ""

    No results matching ""