单层的神经网络使用自定义的损失函数
代码是按照书上搬下来的,觉得书上的例子还是蛮不错的
import tensorflow as tf from numpy.random import RandomState batch_size=8 #首先定义输入和输出,分别是两个placeholder格式的占位符 x=tf.placeholder(tf.float32,shape=(None,2),name='x_input') y_=tf.placeholder(tf.float32,shape=(None,1),name='y_input') #定义神经网络的权重,并计算神经网络预测出来的结果值,但需要注意的是向量相乘时候的顺序 w1=tf.Variable(tf.random_normal([2,1],stddev=1.0,dtype=tf.float32,seed=1)) y=tf.matmul(x,w1) #这个例子中的损失函数是我们自己定义的损失函数 loss_less=10 loss_more=1 loss=tf.reduce_sum(tf.where(tf.greater(y,y_), (y-y_)*loss_more, (y_-y)*loss_less)) train_step=tf.train.AdadeltaOptimizer(0.001).minimize(loss) #通过随机数生成一个模拟的输入数据集,生成的都是1内的随机数,会随机的生成128个2维的tensor ram=RandomState(1) dataset_size=128 X=ram.rand(dataset_size,2) Y=[[x1+x2+ram.rand()/10.0-0.05] for (x1,x2) in X] with tf.Session() as sess: init_op=tf.global_variables_initializer() sess.run(init_op) print(sess.run(w1)) print('----------line------------') STEPS=5000 for i in range(STEPS): start=(i+batch_size)%dataset_size end=min(start+batch_size,dataset_size) sess.run(train_step,feed_dict={x:X[start:end],y_:Y[start:end]}) if(i%500==0): print(sess.run(w1))
SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。

更多精彩