- 博客(4)
- 收藏
- 关注
原创 深度学习专业名词
真值标签(ground-truth label)logits:softmax一般用于输出类别概率,logits就是softmax层的输入
2021-10-21 16:21:09 194
原创 深度学习技巧
加入resnet 加入batchnorm 为什么不对激活函数做BN,而是要放在激活函数前面做BN呢?这里面的原因并没有统一的说法,有时候我们放在后面也会起到不错的效果,事实上,实践证明,放在后面是更好的。https://blog.51cto.com/u_15057819/2568670 https://www.cnblogs.com/bonelee/p/8528722.html 减少特征的表征性瓶颈。直观上来说,当卷积不会大幅度改变输入维度时,神经网络可能会执行地更好。过多地减少维度可能会
2021-10-20 17:04:48 76
原创 度量学习DML—Deep Metric Learning
前言 生活中对于常用的度量有欧式距离、KL散度等,但是这些度量都是人工定义的。度量学习主要目标是训练神经网络使之成为一个度量,并且该度量并非人为定义而是从数据中学来(上面可能在胡说八道,不过某种意义上也可以理解为训练了一种度量,我感觉深度学习在其中就是做了一个网络嵌入,然后根据嵌入的特征向量计算欧氏距离或者其他的距离,当然训练的目标就是使得相近的样本的嵌入特征向量的距离更近,看完后面再来看这句话就知道了)。 &n
2021-10-05 00:10:35 938
原创 VAE—学后思考
VAE—学后思考 原始的自动编码机AE(网络较大)在生成图片时,容易过拟合,即输入的图片在经过encoder编码后仅仅是一个编号而已,decoder就根据这个编号来查找相应的图片信息,使得生成与encoder的输入一模一样的图片。主要原因是decoder过大,记住了所有训练集的图片信息,当输入一个编号,就能索引到对应的图片,如果输入一张训练集中没有的图片时,decoder没有见过这张图片,没有保存与之相关的信息,也就没法生成好的图片,这样的decoder仅仅是保存了训练集图像的信息,而没有探寻生成图像的
2021-09-23 19:59:36 453
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人