内容来自于机器学习课程
Multiple features
Linear regression with multiple variables is also known as multivariable linear regression

Gradient descent for multiple variables


Feature scaling
mean normalization
Learning rate
确定梯度下降 最终能导致正确的结果,损失函数越来越小
判断收敛的条件
对于足够小的学习率,损失函数应该每次迭代都会减小
学习率太小的话,梯度下降将会用很长时间才能收敛
学习率太大,可能不会每次迭代之后都下降,也可能不会收敛,也可能收敛很慢
Features and Polynomial Regression 多项式回归
特征的选择
多项式
Normal equation

用这种方法求解theta的话,Feature scaling不是很重要
梯度下降和Normal equation

Normal equation and non-invertibility

DanWang Blog