TensorFlow机器学习实战指南之第一章
TensorFlow基础
一、TensorFlow算法的一般流程
1.导入/生成样本数据集
SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。2.转换和归一化数据:一般来讲,输入样本数据集并不符合TensorFlow期望的形状,所以需要转换数据格式以满足TensorFlow。
当数据集的维度或者类型不符合所用机器学习算法的要求时,需要在使用前进行数据转换。大部分机器学习算法期待的输入样本数据是归一化的数据。
TensorFlow具有内建函数来归一化数据,如下:
data = tf.nn.batch_norm_with_global_normalization()
3.划分样本数据集为训练样本集、测试样本集和验证样本集:一般要求机器学习算法的训练样本集和测
试样本集是不同的数据集。另外,许多机器学习算法要求超参数调优,所以需要验证样本集来决定最优的超
参数。
4.设置机器学习参数(超参数):机器学习经常要有一系列的常量参数。例如,迭代次数、学习率,或
者其他固定参数。约定俗成的习惯是一次性初始化所有的机器学习参数,读者经常看到的形式如下:
5.初始化变量和占位符:在求解最优化过程中(最小化损失函数),TensorFlow通过占位符获取数据,
并调整变量和权重/偏差。TensorFlow指定数据大小和数据类型初始化变量和占位符。使用方式如下:
6.定义模型结构:在获取样本数据集、初始化变量和占位符后,开始定义机器学习模型。TensorFlow通
过选择操作、变量和占位符的值来构建计算图。这里给出简单的线性模型:
7.声明损失函数:定义完模型后,需要声明损失函数来评估输出结果。损失函数能说明预测值与实际值
的差距:
8.初始化模型和训练模型:TensorFlow创建计算图实例,通过占位符赋值,维护变量的状态信息。下面
是初始化计算图的一种方式:
9.评估机器学习模型:一旦构建计算图,并训练机器学习模型后,需要寻找某种标准来评估机器学习模
型对新样本数据集的效果。通过对训练样本集和测试样本集的评估,可以确定机器学习模型是过拟合还是欠
拟合。
10.调优超参数:大部分情况下,机器学习者需要基于模型效果来回调整一些超参数。通过调整不同的
超参数来重复训练模型,并用验证样本集来评估机器学习模型。
11.发布/预测结果:所有机器学习模型一旦训练好,最后都用来预测新的、未知的数据。
二、声明张量
TensorFlow的主要数据结构是张量,它用张量来操作计算图。在TensorFlow里可以把变量或者占位符声
明为张量。首先,需要知道如何创建张量。
创建一个张量,声明其为一个变量。TensorFlow在计算图中可以创建多个图结构。这里需要指出,在
TensorFlow中创建一个张量,并不会立即在计算图中增加什么。只有把张量赋值给一个变量或者占位符,
TensorFlow才会把此张量增加到计算图。
这里将介绍在TensorFlow中创建张量的主要方法:
1.固定张量:
·创建指定维度的零张量。使用方式如下:
·创建指定维度的单位张量。使用方式如下:
·创建指定维度的常数填充的张量。使用方式如下:
·用已知常数张量创建一个张量。使用方式如下:
2.相似形状的张量:
·新建一个与给定的tensor类型大小一致的tensor,其所有元素为0或者1,使用方式如下:
3.序列张量:
·TensorFlow可以创建指定间隔的张量。下面的函数的输出跟range()函数和numpy的linspace()函数
的输出相似:
·返回的张量是[0.0,0.5,1.0]序列。注意,上面的函数结果中最后一个值是stop值。另外一个rang()
函数的使用方式如下:
·返回的张量是[6,9,12]。注意,这个函数结果不包括limit值。
4.随机张量:
·下面的tf.random_uniform()函数生成均匀分布的随机数
·tf.random_normal()函数生成正态分布的随机数:
·tf.truncated_normal()函数生成带有指定边界的正态分布的随机数,其正态分布的随机数位于指定均
值(期望)到两个标准差之间的区间:
·张量/数组的随机化。tf.random_shuffle()和tf,random_crop()可以实现此功能:
·张量的随机剪裁。tf.random_crop()可以实现对张量指定大小的随机剪裁。在本书的后面部分,会对
具有3通道颜色的图像(height,width,3)进行随机剪裁。为了固定剪裁结果的一个维度,需要在相应的维
度上赋其最大值:
一旦创建好张量,就可以通过tf.Variable()函数封装张量来作为变量。
注:
创建张量并不一定得用TensorFlow内建函数,可以使用tf.convert_to_tensor()函数将任意numpy数组转
换为Python列表,或者将常量转换为一个张量。注意,tf.convert_to_tensor()函数也可以接受张量作为输
入。
三、占位符和变量
使用TensorFlow计算图的关键工具是占位符和变量,也请读者务必理解两者的区别,以及什么地方该用
谁。
使用数据的关键点之一是搞清楚它是占位符还是变量。变量是TensorFlow机器学习算法的参数,
TensorFlow维护(调整)这些变量的状态来优化机器学习算法。占位符是TensorFlow对象,用于表示输入输
出数据的格式,允许传入指定类型和形状的数据,并依赖计算图的计算结果,比如,期望的计算结果。
在TensorFlow中,tf.Variable()函数创建变量,过程是输入一个张量,返回一个变量。声明变量后需要
初始化变量。下面是创建变量并初始化的例子:
占位符仅仅声明数据位置,用于传入数据到计算图。占位符通过会话的feed_dict参数获取数据。在计算
图中使用占位符时,必须在其上执行至少一个操作。在TensorFlow中,初始化计算图,声明一个占位符x,
定义y为x的identity操作。identity操作返回占位符传入的数据本身。结果图将在下节展示,代码如下:
矩阵的常用操作
In [3]:
import tensorflow as tf import numpy as npIn [4]:
sess = tf.Session() identity_matrix = tf.diag([1.0, 1.0, 1.0]) # 对角阵 print(sess.run(identity_matrix))
[[1. 0. 0.] [0. 1. 0.] [0. 0. 1.]]In [5]:
A = tf.truncated_normal([2, 3]) print(sess.run(A))
[[-0.5786329 1.4652022 0.5517408 ] [-0.98360574 0.66149354 -0.8040531 ]]In [6]:
B = tf.fill([2, 3], 5.0) print(sess.run(B))
[[5. 5. 5.] [5. 5. 5.]]In [7]:
C = tf.random_uniform([3, 2]) print(sess.run(C))
[[0.9898286 0.8746687 ] [0.8308246 0.46435404] [0.66066265 0.15331614]]In [8]:
# Create matrix from np array D = tf.convert_to_tensor(np.array([[1., 2., 3.], [-3., -7., -1.], [0., 5., -2.]])) print(sess.run(D))
[[ 1. 2. 3.] [-3. -7. -1.] [ 0. 5. -2.]]In [9]:
# Matrix addition/subtraction print(sess.run(A + B))
[[4.0406456 4.6771774 5.870362 ] [5.1844687 4.695226 5.8468685]]In [10]:
# Matrix Multiplication print(sess.run(tf.matmul(B, identity_matrix)))
[[5. 5. 5.] [5. 5. 5.]]In [11]:
# Matrix Transpose 矩阵转置 print(sess.run(tf.transpose(C))) # Again, new random variables
[[0.2655393 0.23314857 0.6464461 ] [0.5616721 0.39336514 0.9367839 ]]In [12]:
# Matrix Determinant 行列式 print(sess.run(tf.matrix_determinant(D)))
-37.99999999999999In [13]:
# Matrix Inverse 逆矩阵 print(sess.run(tf.matrix_inverse(D)))
[[-0.5 -0.5 -0.5 ] [ 0.15789474 0.05263158 0.21052632] [ 0.39473684 0.13157895 0.02631579]]In [14]:
# Cholesky Decomposition 矩阵分解 print(sess.run(tf.cholesky(identity_matrix)))
[[1. 0. 0.] [0. 1. 0.] [0. 0. 1.]]In [15]:
# Eigenvalues and Eigenvectors 矩阵特征值和特征向量 print(sess.run(tf.self_adjoint_eig(D)))
(array([-10.65907521, -0.22750691, 2.88658212]), array([[ 0.21749542, 0.63250104, -0.74339638], [ 0.84526515, 0.2587998 , 0.46749277], [-0.4880805 , 0.73004459, 0.47834331]]))In [16]:
# div() vs truediv() vs floordiv() print(sess.run(tf.div(3, 4))) # 直接向下取整
0In [17]:
print(sess.run(tf.truediv(3, 4))) # 小数表示
0.75In [18]:
print(sess.run(tf.floordiv(3.0, 4.0))) # 向下取整
0.0In [19]:
# Mod function print(sess.run(tf.mod(22.0, 5.0))) # 取余
2.0In [20]:
# Trig functions 三角函数,sin(π) print(sess.run(tf.sin(3.1416)))
-7.2399803e-06In [21]:
print(sess.run(tf.cos(3.1416))) # 三角函数,cos(π)
-1.0In [22]:
# Tangemt print(sess.run(tf.div(tf.sin(3.1416 / 4.), tf.cos(3.1416 / 4.))))
1.0000036
