- 博客(6)
- 收藏
- 关注
原创 numpy 定义一个rnn_cell_backward
参数解释: da_next上一个rnn_cell传回的梯度 先对复合函数求导,才能对函数里面的数求偏导: ,其中 所以 又梯度是由上一个rnn单元传回,所以 dtanh = dtanh*da_next #对应元素相乘 import numpy as np def softmax(x): e_x = np.exp(...
2019-07-16 17:02:48 214
原创 numpy 定义 lstm_forward(time-step=7)
遗忘门: 更新门: 输出门: 候选值: 记忆单元: 隐藏单元: import numpy as np def softmax(x): e_x = np.exp(x - np.max(x)) return e_x / e_x.sum(axis=0) def sigmoid(x): return 1 / (1 ...
2019-07-15 23:59:50 662
原创 numpy 定义 rnn_forward(time-step=4)
import numpy as np def softmax(x): e_x = np.exp(x - np.max(x)) return e_x / e_x.sum(axis=0) #一个rnn单元的前向运算 def rnn_cell_forward(xt, a_prev, parameters): Wax = parameters["Wax"] Waa =...
2019-07-15 23:17:23 420
原创 numpy 定义一个rnn_cell_forward
import numpy as np def softmax(x): e_x = np.exp(x - np.max(x)) return e_x / e_x.sum(axis=0) def rnn_cell_forward(xt, a_prev, parameters): Wax = parameters["Wax"] Waa = para...
2019-07-15 21:25:02 304
转载 tensorflow 2.0 学习笔记 数据类型及tensor 的创建
import tensorflow as tf import numpy as np ''' tensor 的类型 ''' a=tf.constant(1) #int型 b=tf.constant(1.) #float型 c=t...
2019-07-02 22:56:21 700
转载 tensorflow 2.0 学习笔记 索引与切片
import tensorflow as tf a=tf.random.normal([4,28,28,3]) a[1].shape a[1,2].shape a[1,2,3].shape a[1,2,3,2].shape ''' start:end ''' b=tf.range(10) b[-2:] b[:3] ''' : 的运用-->全选 ''' a[:,0,:,:]...
2019-07-02 22:39:46 191
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人