第一节课
tensorboard–可以查看训练效果
安装ananconda(略)
tensorflow简介
tensorflow结构
是个数据流动的趋势,
graph1:默认图
graph2:W*x+b->ReLU
2-1 基本计算-会话的使用
import tensorflow as tf
# 创建一个常量op,1*2
m1=tf.constant([[3,3]])
# 2*1
m2=tf.constant([[2],[3]])
# 矩阵乘法2*3+3*3=15
product=tf.matmul(m1,m2)
print(product)
# Tensor("MatMul:0", shape=(1, 1), dtype=int32)
因为没有放到图和会话中,所以没有值
# 定义会话,会有一个默认的图,可以直接用
sess=tf.Session()
# 调用sess的run来执行矩阵乘法op
# run(product)触发了图的三个op
result=sess.run(product)
print(result)
sess.close()
# [[15]]
另一种启动会话的方式
with tf.Session() as sess:result = sess.run(product)print(result)# [[15]]
2-2 变量
import tensorflow as tfx=tf.Variable([1,2])
a=tf.constant([3,3])
# 增加一个减法op
sub=tf.subtract(x,a)
# 增加一个加法op
add=tf.add(x,sub)# 给所有变量初始化
# 不初始化的话,会报错
init=tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)#运行才会初始化result1 = sess.run(sub)print(result1)result = sess.run(add)print(result)
赋值不能直接赋值,自加如下
# 自加,state=0
state=tf.Variable(0,name='counter')#可以起名字
#state+1
new_value=tf.add(state,1)
# 赋值op state=state+1
update=tf.assign(state,new_value)
# 变量初始化
init=tf.global_variables_initializer()
with tf.Session() as sess:sess.run(init)#运行才会初始化result1 = sess.run(state)print(result1)for _ in range(5):sess.run(update)print(sess.run(state))
2-3 fetch and feed
Fetch
import tensorflow as tf
# fetch
input1=tf.constant(3.0)
input2=tf.constant(2.0)
input3=tf.constant(5.0)add=tf.add(input2,input3)
# input1*(input2+input3)
mul=tf.multiply(input1,add)with tf.Session() as sess:result=sess.run([mul,add])#这个叫fetch?可以同时运行多个print(result)# [21.0, 7.0]
feed
placeholder的变量是初始值待定的,feed以字典传入。
# feed
# 创建占位符
input1=tf.placeholder(tf.float32)
input2=tf.placeholder(tf.float32)
output=tf.multiply(input1,input2)
with tf.Session() as sess:# feed以字典形式传入print(sess.run(output,feed_dict={input1:[7.0],input2:[2.0]}))# [14.]
tensorflow的简单实用案例——最小二乘法
import tensorflow as tf
import numpy as np
# 使用numpy生成100个随机点
x_data=np.random.rand(100)
y_data=x_data*0.1+0.2# 构造一个线性模型
b=tf.Variable(0.)
k=tf.Variable(0.)
y=k*x_data+b# 定义一个二次代价函数
loss=tf.reduce_mean(tf.square(y_data-y))#(y_data-y)的平方然后求了个均值
# 定义一个梯度下降法来进行训练的优化器
optimizer=tf.train.GradientDescentOptimizer(0.2)#学习率=0.2
# 定义一个最小化代价函数
train=optimizer.minimize(loss)init=tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)for step in range(201):print(sess.run([train,k,b,loss]))# [None, 0.049395364, 0.09887357, 0.061785623]
# ……
# [None, 0.09999921, 0.20000039, 4.515499e-14]
# [None, 0.09999923, 0.20000039, 4.2725822e-14]