- 博客(10)
- 收藏
- 关注
原创 Mac安装caffe接口--关于protobuf的坑
用到的软件: Anaconda和PyCharm 大体操作步骤: https://segmentfault.com/a/1190000012731554 ,不再赘述。但是到了 make all 这一步总要报和protobuf相关的错,不知道为什么所有安装教程都没有提到这里需要2.5或2.6版本的protobuf,但是anaconda里只有3.7的,所以这里需要重新安装。 给出两种方法: 在Anac...
2019-08-14 10:29:33 296
原创 cs231-assignment2-总结-代码
cs231-assignment2-总结技巧 技巧 dx是和x形状一样全为0的矩阵,将dx里x>0的位置设为1 dx = np.zeros_like(x, dtype=float) dx[x > 0] = 1 把dx的形状变成x的形状 dx = np.reshape(dx, x.shape) batch norm是对特征值归一化,不是对图像归一化 计算出来的梯...
2019-08-06 16:16:20 581
原创 cs231n-assignment1-two layer nn-心得
c = exp_correct / exp_trans[i] loss_data[i] = float© 两个数组做除法,结果也是数组(一维数组),把它直接赋值给另一个数组是无效的。 np.zeros_like创建的array是int型的加上dtype=float,转换类型 normalization以及向量化 # Normalize the data: subtract the me...
2019-08-01 14:35:19 209
转载 cs231n-RNN
最后权重W的gradient是所有支路gradient的和 encod和decode的过程 https://blog.csdn.net/zhaojc1995/article/details/80572098
2019-07-26 15:43:09 220
原创 cs231n-网络结构
改进: 参数太多,所以加一个1*1的卷积层让输入数据的depth下降 网络不是越deep越好,主要的原因的deep的网络更难优化,ResNet改善了这个问题。 这条和传统网络相比多加入的线使得我们需要学习的模块成了残余项H(x)-x = F(x)。 没有FC layer,对于更深的网络,例如:ResNet-50也需要用bottleneck使维度降低。 ...
2019-07-25 15:19:33 98
转载 cs231以及迁移学习
Normalization的原因 以这个2元分类为例,不normalization的话,loss非常敏感,分类器稍微改变一下,对loss的影响很大。Normalization后问题得到解决。 在CNN中我们希望每层都normalization,可以用batch normalization learning rate是第一个需要调整的超参数,但当他调好之后再调其他参数 可能对learning r...
2019-07-23 15:42:41 266
转载 Python -Argparse模块讲解
https://www.jianshu.com/p/00425f6c0936 https://www.cnblogs.com/piperck/p/8446580.html
2019-07-22 17:16:40 115
转载 Pythorch的nn.functional和Parameter
Convolution函数 2D卷积 torch.nn.functional.conv2d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) 参数: input – 输入张量 (minibatch x in_channels x iH x iW) weight – 过滤器张量 (out_channels, ...
2019-07-22 17:09:18 151
转载 Pytorch的nn.module
包引入 import torch import numpy as np import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torch.autograd import Variable 定义类 class net(nn.Module): def __init__(self)...
2019-07-22 14:30:29 210
转载 Pytorch入门
Pytorch学习-1基础tensor基本语法(与NumPy相似)Tensor的运算一个简易神经网络导入包初始化权重定义训练次数和学习效率梯度下降优化神经网络的参数自动梯度torch.autograd和Variable导入包初始化权重定义训练次数和学习效率新的模型训练和参数优化自定义传播函数转载自 基础 tensor基本语法(与NumPy相似) torch.FloatTensor,传递给torc...
2019-07-20 18:14:00 897
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人