一个图(Graph)代表一个计算任务,且在模型运行时,需要把图放入会话(session)里被启动。一旦模型开始运行,图就无法修改了。TensorFlow把这种图一般称为静态图。
动态图是指在Python中代码被调用后,其操作立即被执行的计算。
它与静态图最大的区别是不需要使用session来建立会话。即在静态图中,需要在会话中调用run方法才可以获得某个张量、常量或变量的具体值,而在动态图里,在创建动态图的过程中,默认已经建立了一个session。所有的代码都在该session中进行,而且该session具有进程相同的生命周期。
使用动态图时,直接运行就可以计算得到 它们的具体值,甚至还可以和numpy数组混合计算。它使得TensorFlow的学习变得更简单,也使研发更直观。
Eager Execution是一种命令式编程环境,运行后返回具体的值。一般更多用于研究和实验。它的优点有:
①直观的界面,可以自然地组织代码结构并使用Python数据结构。快速迭代小模型和小型数据集
②更轻松的调试功能,直接调用操作以检查正在运行的模型并测试更改。使用标准Python调试工具可以进行即时错误报告
③自然控制流程。使用Python控制流程而不是图控制流程,简化了动态模型的规范
④适用于几乎所有可用的TensorFlow运算
⑤它还可以在GPU上运行,提高神经网络的训练速度
激活Eager模式
激活Eager模式的代码如下:
import tensorflow as tf
tf.enable_eager_execution()
如果程序的后面需要优化器,也可以在这里先定义:
tfe = tf.contrib.eager
注意:Eager模式在程序开始就要激活,并且不能与普通模式混用。一旦开启Eager模式便不能撤销,不能实现静态图中关闭session的功能,且只执行一次,无法实现多session操作。这也是动态图的不足之处。如果当前代码只需要一个session来完成的话,可以优先选择动态图Eager来实现。
使用Eager模式
示例代码如下:
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
tf.enable_eager_execution()import numpy as npa = tf.constant([[1,2],[3,4]])
print("a = ",a)b = tf.Variable(np.zeros((2,2)))
print("\n b = ",b)c = [[2.]]
m = tf.matmul(c,c)
print("hello,{}".format(m))
可以看到在Eager执行下,a和b操作后的返回值是tf.Tensor,其包含了具体值。不再像Graph模式下那样只是一个计算图节点的符号句柄。由于Eager模式可以立即看到结果,非常有助于程序debug。
Eager模式下的基本运算
TensorFlow提供了丰富的操作库,如tf.add,tf.matmul,tf.square等,使用它们生成的结果都是张量Tensor。在Eager模式下,可以直接使用这些操作输出运算结果。
示例代码如下:
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
tf.enable_eager_execution()print(tf.add(1,2))
print(tf.square(8))
print(tf.reduce_sum([1,2,3]))
print(tf.square(2) + tf.square(3))
动态控制流
在Eager模式下,TensorFlow也可以像Python定义函数一样,自定义函数,实现动态控制流。
示例代码如下:
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
tf.enable_eager_execution()def function(num):counter = tf.constant(0)num = tf.convert_to_tensor(num)for num in range(1,num.numpy() + 2):num = tf.constant(num)if int(num % 2) == 0 and int(num % 4) == 0:print("good")elif int(num % 2) == 0:print("hi")elif int(num % 4) == 0:print("hello")else:print(num.numpy())counter += 1function(16)
在实际的编程过程中,为了提高效率,也可以在Eager模式下训练模型。
示例代码如下:
import tensorflow as tf
tf.compat.v1.enable_eager_execution()#创建训练数据
Num_Test = 1000
train_X = tf.compat.v1.random_normal([Num_Test])
train_Y = train_X * 5 +2#搭建正向模型
#定义运算结构
def prediction(input,weight,bias):return input * weight + bias#搭建反向模型
def loss(weights,biases):error = prediction(train_X,weights,biases) - train_Yreturn tf.reduce_mean(tf.square(error))def grad(weights,biases):#前向计算,得到loss,同时将操作记录到tape上,用于计算梯度with tf.GradientTape() as tape:loss_value = loss(weights,biases)#反向播放tape,得到梯度return tape.gradient(loss_value,[weights,biases])#定义迭代参数和学习率
train_steps = 200
learning_rate = 0.01#定义学习参数的变量
W = tf.Variable(5.)
B = tf.Variable(10.)print("Initial loss:{:.3f}".format(loss(W,B)))#训练模型
for i in range(train_steps):dW,dB = grad(W,B)W.assign_sub(dW * learning_rate)B.assign_sub(dB * learning_rate)if i % 20 == 0:print("Loss at step {:03d}:{:.3f}".format(i,loss(W,B)))print("Final loss:{:.3f}".format(loss(W,B)))
print("W = {},B = {}".format(W.numpy(),B.numpy()))