Large scale machine learning(大规模机器学习)

Learning with large datasets(大型数据集学习)

“It’s not who has the best algorithm that wins. It’s who has the most data.”(高方差情况下)

Stochastic gradient descent(随机梯度下降)

机器学习---吴恩达---Week10(机器学习概述与单变量线性回归方程分析) 随笔 第1张

SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。

Mini-­‐batch gradient descent(小梯度离散下降)

机器学习---吴恩达---Week10(机器学习概述与单变量线性回归方程分析) 随笔 第2张

Stochastic gradient descent convergence(随机梯度下降收敛)

机器学习---吴恩达---Week10(机器学习概述与单变量线性回归方程分析) 随笔 第3张

Online learning(在线学习)

由在线新获得的数据更新参数,不需要人为收集大量训练数据集,实时性更强。

举例:

机器学习---吴恩达---Week10(机器学习概述与单变量线性回归方程分析) 随笔 第4张

Map-­‐reduce and data parallelism(映射化简和数据并行性)

使用前提:Many learning algorithms can be expressed as computing sums of functions over the training set.(许多学习算法可以表示为训练集上的函数的计算总和。)

举例:

机器学习---吴恩达---Week10(机器学习概述与单变量线性回归方程分析) 随笔 第5张

形式1:多台计算机通过网络结合

机器学习---吴恩达---Week10(机器学习概述与单变量线性回归方程分析) 随笔 第6张

形式2:单台计算机的多个内核

机器学习---吴恩达---Week10(机器学习概述与单变量线性回归方程分析) 随笔 第7张

 

扫码关注我们
微信号:SRE实战
拒绝背锅 运筹帷幄