TA的每日心情 | 开心 2019-11-4 13:48 |
---|
签到天数: 14 天 连续签到: 1 天 [LV.3]偶尔看看II
|
今天的内容,我们将介绍自动微分,这是优化机器学习模型的关键技术。
设置
- import tensorflow as tf
- tf.enable_eager_execution()
复制代码
梯度带
TensorFlow 提供用于自动微分的 tf.GradientTape API - 计算与其输入变量相关的计算梯度。TensorFlow 通过 tf.GradientTape “记录” 在上下文中执行的所有操作到 “磁带”(tape)上。然后,TensorFlow 使用该磁带和与每个记录操作相关联的梯度来计算使用反向模式微分的 “记录” 计算的梯度。
例如:
- x = tf.ones((2, 2))
-
- with tf.GradientTape() as t:
- t.watch(x)
- y = tf.reduce_sum(x)
- z = tf.multiply(y, y)
- # Derivative of z with respect to the original input tensor x
- dz_dx = t.gradient(z, x)
- for i in [0, 1]:
- for j in [0, 1]:
- assert dz_dx[i][j].numpy() == 8.0
复制代码
您还可以根据在 “记录” tf.GradientTape 上下文时计算的中间值请求输出的梯度。
- x = tf.ones((2, 2))
-
- with tf.GradientTape() as t:
- t.watch(x)
- y = tf.reduce_sum(x)
- z = tf.multiply(y, y)
- # Use the tape to compute the derivative of z with respect to the
- # intermediate value y.
- dz_dy = t.gradient(z, y)
- assert dz_dy.numpy() == 8.0
复制代码
默认情况下,GradientTape 持有的资源会在调用 GradientTape.gradient() 方法后立即释放。要在同一计算中计算多个梯度,创建一个持久的梯度带。这允许多次调用 gradient() 方法。当磁带对象 tape 被垃圾收集时释放资源。例如:
- x = tf.constant(3.0)
- with tf.GradientTape(persistent=True) as t:
- t.watch(x)
- y = x * x
- z = y * y
- dz_dx = t.gradient(z, x) # 108.0 (4*x^3 at x = 3)
- dy_dx = t.gradient(y, x) # 6.0
- del t # Drop the reference to the tape
复制代码
记录控制流
因为磁带(tape)在执行时记录操作,所以自然会处理 Python 控制流(例如使用 ifs 和 whiles):
- def f(x, y):
- output = 1.0
- for i in range(y):
- if i > 1 and i < 5:
- output = tf.multiply(output, x)
- return output
- def grad(x, y):
- with tf.GradientTape() as t:
- t.watch(x)
- out = f(x, y)
- return t.gradient(out, x)
- x = tf.convert_to_tensor(2.0)
- assert grad(x, 6).numpy() == 12.0
- assert grad(x, 5).numpy() == 12.0
- assert grad(x, 4).numpy() == 4.0
复制代码
高阶梯度
GradientTape 记录上下文管理器内部的操作以实现自动区分。如果梯度是在这个上下文中计算的,那么梯度计算也会被记录下来。因此,同样的 API 也适用于高阶梯度。例如:
- x = tf.Variable(1.0) # Create a Tensorflow variable initialized to 1.0
- with tf.GradientTape() as t:
- with tf.GradientTape() as t2:
- y = x * x * x
- # Compute the gradient inside the 't' context manager
- # which means the gradient computation is differentiable as well.
- dy_dx = t2.gradient(y, x)
- d2y_dx2 = t.gradient(dy_dx, x)
- assert dy_dx.numpy() == 3.0
- assert d2y_dx2.numpy() == 6.0
复制代码
以上教程中,我们介绍了 TensorFlow 中的梯度计算。有了这些,我们就有了足够的基本要素来构建和训练神经网络。
本文转载自 TensorFlow 公众号
|
|