怎么在Tensorflow中使用dropout
今天就跟大家聊聊有关怎么在Tensorflow中使用dropout,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
tf.nn.dropout
defdropout(x,keep_prob,noise_shape=None,seed=None,name=None):
其中,x为浮点类型的tensor,keep_prob为浮点类型的scalar,范围在(0,1]之间,表示x中的元素被保留下来的概率,noise_shape为一维的tensor(int32类型),表示标记张量的形状(representing the shape for randomly generated keep/drop flags),并且noise_shape指定的形状必须对x的形状是可广播的。如果x的形状是[k, l, m, n],并且noise_shape为[k, l, m, n],那么x中的每一个元素是否保留都是独立,但如果x的形状是[k, l, m, n],并且noise_shape为[k, 1, 1, n],则x中的元素沿着第0个维度第3个维度以相互独立的概率保留或者丢弃,而元素沿着第1个维度和第2个维度要么同时保留,要么同时丢弃。
关于Tensorflow中的广播机制,可以参考《TensorFlow 和 NumPy 的 Broadcasting 机制探秘》
最终,会输出一个与x形状相同的张量ret,如果x中的元素被丢弃,则在ret中的对应位置元素为0,如果x中的元素被保留,则在ret中对应位置上的值为,这么做是为了使得ret中的元素之和等于x中的元素之和。
tf.layers.dropout
defdropout(inputs, rate=0.5, noise_shape=None, seed=None, training=False, name=None):
参数inputs为输入的张量,与tf.nn.dropout的参数keep_prob不同,rate指定元素被丢弃的概率,如果rate=0.1,则inputs中10%的元素将被丢弃,noise_shape与tf.nn.dropout的noise_shape一致,training参数用来指示当前阶段是出于训练阶段还是测试阶段,如果training为true(即训练阶段),则会进行dropout,否则不进行dropout,直接返回inputs。
自定义稀疏张量的dropout
上述的两种方法都是针对dense tensor的dropout,但有的时候,输入可能是稀疏张量,仿照tf.nn.dropout和tf.layers.dropout的内部实现原理,自定义稀疏张量的dropout。
defsparse_dropout(x,keep_prob,noise_shape): keep_tensor=keep_prob+tf.random_uniform(noise_shape) drop_mask=tf.cast(tf.floor(keep_tensor),dtype=tf.bool) out=tf.sparse_retain(x,drop_mask) returnout*(1.0/keep_prob)
其中,参数x和keep_prob与tf.nn.dropout一致,noise_shape为x中非空元素的个数,如果x中有4个非空值,则noise_shape为[4],keep_tensor的元素为[keep_prob, 1.0 + keep_prob)的均匀分布,通过tf.floor向下取整得到标记张量drop_mask,tf.sparse_retain用于在一个 SparseTensor 中保留指定的非空值。
案例
defnn_dropout(x,keep_prob,noise_shape): out=tf.nn.dropout(x,keep_prob,noise_shape) returnout deflayers_dropout(x,keep_prob,noise_shape,training=False): out=tf.layers.dropout(x,keep_prob,noise_shape,training=training) returnout defsparse_dropout(x,keep_prob,noise_shape): keep_tensor=keep_prob+tf.random_uniform(noise_shape) drop_mask=tf.cast(tf.floor(keep_tensor),dtype=tf.bool) out=tf.sparse_retain(x,drop_mask) returnout*(1.0/keep_prob) if__name__=='__main__': inputs1=tf.SparseTensor(indices=[[0,0],[0,2],[1,1],[1,2]],values=[1.0,2.0,3.0,4.0],dense_shape=[2,3]) inputs2=tf.sparse_tensor_to_dense(inputs1) nn_d_out=nn_dropout(inputs2,0.5,[2,3]) layers_d_out=layers_dropout(inputs2,0.5,[2,3],training=True) sparse_d_out=sparse_dropout(inputs1,0.5,[4]) withtf.Session()assess: sess.run(tf.global_variables_initializer()) (in1,in2)=sess.run([inputs1,inputs2]) print(in1) print(in2) (out1,out2,out3)=sess.run([nn_d_out,layers_d_out,sparse_d_out]) print(out1) print(out2) print(out3)
tensorflow中,稀疏张量为SparseTensor,稀疏张量的值为SparseTensorValue。3种dropout的输出如下,
SparseTensorValue(indices=array([[0,0], [0,2], [1,1], [1,2]],dtype=int64),values=array([1.,2.,3.,4.],dtype=float32),dense_shape=array([2,3],dtype=int64)) [[1.0.2.] [0.3.4.]] [[2.0.0.] [0.0.0.]] [[0.0.4.] [0.0.0.]] SparseTensorValue(indices=array([],shape=(0,2),dtype=int64),values=array([],dtype=float32),dense_shape=array([2,3],dtype=int64))
看完上述内容,你们对怎么在Tensorflow中使用dropout有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注恰卡编程网行业资讯频道,感谢大家的支持。
推荐阅读
-
如何使用TensorFlow创建CNN
-
Tensorflow中CNN入门的手写数字识别是怎样的
-
关于Keras 2.3.0 发布中的TensorFlow 2.0分析
关于Keras2.3.0发布中的TensorFlow2.0分析...
-
tensorflow怎么配置
tensorflow怎么配置这篇文章主要介绍“tensorflow...
-
tensorflow语义分割api之使用deeplab训练cityscapes的示例分析
这篇文章给大家分享的是有关tensorflow语义分割api之使用deeplab训练cityscapes的示例分析的内容。小编觉得...
-
TensorFlow tf.nn.conv2d如何实现卷积的方式
这篇文章主要介绍TensorFlowtf.nn.conv2d如何实现卷积的方式,文中介绍的非常详细,具有一定的参考价值,感兴趣的...
-
Tensorflow如何设置多线程
这篇文章给大家分享的是有关Tensorflow如何设置多线程的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看...
-
TensorFlow设置日志级别的方法有哪些
-
Tensorflow如何设置显存自适应,显存比例的操作
这篇文章将为大家详细讲解有关Tensorflow如何设置显存自适应,显存比例的操作,小编觉得挺实用的,因此分享给大家做个参考,希望...
-
如何在tensorflow中使用tf.concat()函数
这期内容当中小编将会给大家带来有关如何在tensorflow中使用tf.concat()函数,文章内容丰富且以专业的角度为大家分析...