第一个学习算法:线性回归

 

SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。

机器学习---线性回归(二) 人工智能 第1张

m=训练样本的数量

x=输入变量/特征

y=输出变量/预测的目标变量

(x,y)——一个训练样本

(x1,y1)——样本的第多少行

 

房价数据集——学习算法——输出一个函数h(假设函数:把房子大小作为输入变量x,试着输出房价即输出变量y)

 

有了一些自变量、因变量的数据,拿一个数学函数Model(模型)去拟合(适配)这些数据,以便之后能根据这个模型,在自变量(条件)给出后,预测因变量的值。

机器学习---线性回归(二) 人工智能 第2张

 

代价函数:

 

机器学习---线性回归(二) 人工智能 第3张

 

目标:寻找一个θ1, θ0 使得预测值接近训练集中的样本

方法:预测值与ground truth求差的平方,对于所有样本的该值进行求和,最后除以2m(1/2为简化计算),形成代价函数。最小化该代价函数,得到对应的θ0和θ1

平方误差——解决回归问题的最常用手段

 

公式:

 

机器学习---线性回归(二) 人工智能 第4张

 

公式代表的含义:对所有的训练样本进行求和,将第i号对应的预测结果【也就是hθ(x)】减去第i号房子的实际价格,所得的差的平方相加得到总和,在除以样本数,并求出最小值。

因此,我们最重要找出来的就是找到对应的θ0和θ1

知识回顾:

 

假设函数:

机器学习---线性回归(二) 人工智能 第5张

 

2个参数:

机器学习---线性回归(二) 人工智能 第6张

 

代价函数:

机器学习---线性回归(二) 人工智能 第7张

 

优化目标:

机器学习---线性回归(二) 人工智能 第8张

 

把我们的假设函数简化一下:假设θ_0=0,那么就只剩下θ_1一个参数,我们的优化目标就变成了尽量减少J(θ_1)的值

 

用图像表示就是:

 

机器学习---线性回归(二) 人工智能 第9张

 

当θ_1=0时,y=0,体现在左图上就是深蓝色的线条

当θ_1=1时,y=x,体现在左图上就是浅蓝色的线条

当θ_1=0.5时,y=0.5x,体现在左图上就是粉红色线条

 

将所有的θ_1对应的J(θ_1)值的点在右图上标记出来,并且连成一条线,这条线就是右图中红色的函数曲线,也是J代价函数的直观效果

另外我们还开设了一个机器学习群,加我微信备注【免费】带领大家每天共读吴恩来的机器学习!!!

机器学习---线性回归(二) 人工智能 第10张

扫码关注我们
微信号:SRE实战
拒绝背锅 运筹帷幄