一个很简单的感知子最基本的原理 被某书作者跳步写的离奇的不行。

感知子通过感知预测数据符号与y的相同与不同决定是否更新自己。

SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。

然而这样做的话,最后一个数据的影响过于庞大。

这时就需要将每次产生的模型乘以他的存活轮数

活得久 话语权就大嘛。

在一个常规情况下 通过训练 我们有w1 w2。。。wk这k个模型及n个数据对(x,y)

理论上来说 我们应该对每个数据对都将现存的模型w输入进累计值里方便以后求平均

但这个太浪费时间了

简单的代数即可告诉我们 假设数据点(xj,yj)产生了更新,则delta j的影响会算入下一个w,又被算入下一个w直到最后

简单地说,第j个数据点的更新,都会对w产生(n-j+1)倍的影响,加1是因为j从1开始算的。

那么我们就可以将W写成对所有这些delta和对应权重的求和。

感知子平均算法 随笔 第1张

接下来再回到原作者提到的算法模型

感知子平均算法 随笔 第2张

我们可以发现算法中的c 对应了上面所说的i

整理可得

感知子平均算法 随笔 第3张

感知子平均算法 随笔 第4张

符合之前所提出的公式。

这个算法是通过常规更新获得了常规终极w和终极b及一个看上去很不好理解的含c权重(也就是含i)的和

根据我们图1的公式,和最后的公式,只需要w以及这个和,减一减除一除,我们就能获得含权重的感知子权重w了。

也就只是优化罢了。

 

扫码关注我们
微信号:SRE实战
拒绝背锅 运筹帷幄