自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(36)
  • 资源 (1)
  • 收藏
  • 关注

原创 COCO数据集的介绍及使用

COCO数据集格式(只分析目标检测)现在使用coco数据集基本上是通过pycocotools来调用的,所以如果想自己构建coco数据集,那么最好阅读pycocotools源码,了解是通过什么方式调用image和annotationpycocotools源码解读class COCO: def __init__(self, annotation_file=None): ...

2020-02-18 16:14:15 5021

原创 Opencv

Ubuntu16.04 CUDA9.2安装opencv安装方式安装方式CUDA的安装:https://blog.csdn.net/zhang970187013/article/details/81012845opencv的安装:一开始下载opencv3.4,在cmake成功之后,make一直报错,没找到修改的方法,改为下载最新的opencv4.1成功安装。sudo apt-get inst...

2019-06-12 19:58:47 164

原创 mask_benchmark训练自己的数据集

maskrcnn_benchmarkmaskrcnn-benchmark的使用项目地址和安装步骤数据集使用数据集时的一些问题训练单GPU多GPU训练训练结果训练自己的coco-format数据集coco格式数据集的制作maskrcnn-benchmark的使用项目地址和安装步骤项目地址:https://github.com/facebookresearch/maskrcnn-benchma...

2019-03-12 16:12:01 1375 8

原创 RCNN发展史(不包括Mask RCNN)

花了一些时间整理了下RCNN,fast RCNN,faster RCNN的相关知识,尝试总结一下。RCNN发展RCNNFast RCNNFaster RCNNRCNN给定一张图片,RCNN先使用selective Search(解释: http://jermmy.xyz/2017/05/04/2017-5-4-paper-notes-selective-search/ )找到region p...

2018-12-13 16:37:28 1522

原创 CS231n Lecture11

Detection and SegmentationSemantic SegmentationunpoolingBed of NailsMax unpoolingTranspose ConvolutionClassification + LocationObject DetectionInstance Segmentation首先要区分计算机视觉中几个任务的概念。Semantic Segme...

2018-12-11 19:42:32 289

原创 CS231n Lecture10

Recurrent Neural Network Recurrent Neural Network的基本类别Recurrent Neural Network分析Image Captioning梯度消失和梯度爆炸在复习时,老师提到了ResNet的优点:添加了L2范数之后,会使得所有参数趋于0,从而使模型舍弃不需要的层;反向传播时可以通过残差网络使模型更快收敛。Recurrent Neural ...

2018-12-10 21:55:18 203

原创 CS231n assignment2

神经网络各层的底层实现Batch NormalizationReLUDropout卷积神经网络Pooling下面代码均来自:https://github.com/sharedeeply/cs231n-assignment-solutionBatch Normalizationbatch_normalization的前向通路实现,均值和方差是对所有样本同一位置上的值求均值和方差 。def b...

2018-12-05 15:29:24 265

原创 CS231n Lecture9

CNN ArchitectureAlexNetVGGGooLeNetResNetother architecturesNetwork in NetworkIdentity Mappings in Deep Residual NetworksWide Residual NetworksResNeXtDeep Networks with Stochastic DepthUltra-Deep Neura...

2018-12-03 14:58:46 186

原创 算法设计原则

参考 MIT6006 Recitation11, slides:http://courses.csail.mit.edu/6.006/fall11/rec/rec11.pdf根据随机创建的输入和足够的小范例得到相应输出,根据输入输出的关系理解算法的功能先不要考虑整天解决问题,想办法简化问题(例如对原问题添加一些限制条件),根据简单问题的解思考原问题的解决方案找一个与原问题相近的已知问题,对...

2018-11-28 15:50:32 2090

原创 CS231n Lectue7

Training Neural NetworkOptimization使用SGD时出现的问题解决方案SGD+ MomentumNesterov MomentumRMSpropAdamLearning rate的更新策略Second-Order OptimizationDrop outData AugmentationRegularization 的一些方法Transfer Learning首先在...

2018-11-27 16:48:43 156

原创 CS231n Lecture6

神经网路的训练Activation FunctionSigmoidtanhReLULeaky ReLUParametric Rectifier(PReLU)ELUMaxout NeuronTLDRData PreprocessingWeight initializationSmall random numbersBatch NormalizationBabysitting the learning...

2018-11-27 13:58:54 173

原创 CS231n Assignment1总结

lecture3一些关于链式法则的基本知识。下面是对assignment1的代码一些关键点或者有意思实现的总结参考答案:https://github.com/sharedeeply/cs231n-assignment-solution/blob/master/assignment1/数据集读取对于assigment1中使用的数据集,从其中读出来照片是一张被拉成一维向量的图片,所以输入X_t...

2018-11-21 14:49:28 1375

原创 CS231nlecture3

Loss function and optimizationLoss functionMulticlass SVM lossSoftmax两种方法对比Optimization更新值计算方法随机取值每次更新一个值analytic gradientGradient descentImage FeatureSIFT介绍Loss function损失函数是告诉我们目前分类器表现性能的好坏。给定数据集...

2018-11-18 15:47:14 144

原创 Machine Learning A-Z(1)

Data preprocessing数据获取地址:https://www.superdatascience.com/下载数据集/import numpy as npimport matplotlib.pyplot as pltimport pandas as pddataset = pd.read_csv('Data.csv')X = dataset.iloc[:,:-1].valu...

2018-11-17 20:23:20 787

原创 CS231n17lecture2

图像分类Image classification设计分类器Nearest Neighbor方法分析KNN超参数的设置方法对于图像的判别不适应Linear classification参考资料这节课讲解了一些基础的图像知识和几种很简单的分类方法Image classification一张图像对于机器来说是一个三维矩阵(如果是灰度图则是二维的)。人眼可以将同一个物体不同角度的照片归为同一类,但是...

2018-11-15 11:16:47 120

原创 下阶段的任务

目前吴恩达deaplearningAI还差最后一周的内容,但是由于长时间学习该课程导致最近效果不是很好,打算最后一周的课程先留一下。下一阶段准备继续学习MIT6006算法课程,然后新开fast.ai课程的学习。西瓜书中涉及到很多关于数学的知识有些难以理解(看集成学习和贝叶斯网络被血虐),准备先补一下,所以在udemy上找了一个机器学习的视频学习一下。fast.ai和MIT6006打算在1月之前完成...

2018-11-13 22:05:13 161

原创 吴恩达深度学习总结(15)

自然语言处理与词嵌入词汇表征基于迁移学习训练word embedding步骤类比推理算法Embedding matrixskip gramCBOW负采样GloVe(Global vectors for word representation)情绪分类除偏词汇表征之前我们表示一个词汇都是创建一个词典,然后基于词汇在词典中的位置创建一个在该位置为1其他位置为0的向量表示词汇。比如我们创建一个100...

2018-11-13 21:58:00 272

原创 吴恩达深度学习总结(14)

Recurrent Neural Networks循环神经网络的应用符号循环神经网络模型反向传播不同类型的循环神经网络语言模型(language modeling)训练取样GRU,LSTM梯度消失和梯度爆炸Gated Recurrent Unit(GRU)LSTMGRU 与 LSTM对比双向神经网络Deep RNN循环神经网络的应用1.会议识别:输入一段会议的语音信息,输出语音中的内容2. ...

2018-11-12 08:58:48 240

原创 吴恩达深度学习总结(13)

人脸识别和风格转换人脸识别分类One-shot learningSigmese networkTriplet lossFace verification和二分类Neural style transfer卷积神经网络可视化Content cost functionContentStyle1D 和 3D卷积核人脸识别分类Verification:一对一识别,给一张照片,看是否是给定的照片Re...

2018-11-10 19:59:31 401

原创 吴恩达深度学习总结(12)

Object detectionobject localizationObject detectionYOLO算法object位置的判断判定标准预测值的判断anchor box输出结果的判定Region proposals这一部分其实就是介绍了YOLO模型相关的一些知识object localization首先区分Image classification,classification wit...

2018-11-08 16:58:41 140

原创 吴恩达深度学习总结(11)

深度学习具体应用经典网络的学习LeNet-5AlexNetVGG-16Residual Network(残差网络)残差网络为什么有用Network in NetworkInception network迁移学习和数据增强迁移学习数据增强深度学习中一些小知识在竞赛上提高准确度的小方法经典网络的学习LeNet-5上图是LeNet-5的结构(来自吴恩达的课件,下面所有图片均来自于吴恩达课件),该...

2018-11-07 20:30:00 257

原创 吴恩达深度学习总结(10)

卷积神经网络computer vision边缘检测paddingstride convolution多个channel的卷积卷积层的实现PoolingFully connected (FC)为什么使用卷积computer vision针对图像任务不能和之前一样直接使用全连接进行,因为如果图片分辨率很高那么向量化之后需要的参数空间很大,不便于计算,于是引入了卷积计算边缘检测边缘检测分为垂直边...

2018-11-06 21:25:45 163

原创 吴恩达机器学习总结(9)

Error Analysis进行误差分析清除错误标记的数据针对一个新任务的处理方法训练集和验证集不同分布的处理方法数据分布不匹配的方差和偏差处理数据不匹配问题迁移学习多任务学习端到端的学习进行误差分析对在验证集上识别错误的图片分析对于一个deaplearning model,我们发现在验证集上有一些狗的图片被识别成了猫,针对这种情况,我们需要先获取验证数据集上所有错误标记的图片,统计其中误识...

2018-11-06 11:23:00 209

原创 吴恩达深度学习总结(8)

Introduce of ML strategyorthogonalization使损失函数在训练集上匹配使损失函数在验证集上匹配使损失函数在测试集上匹配使损失函数在真实情况下匹配单一数据作为评估标准训练集,验证集和测试集的划分评估标准的确定与人类的准确度进行比较可避免偏差目前机器识别超过人类识别的项目优化模型目的:选择最合适的策略来调节网络orthogonalization使得优化方法尽量...

2018-10-30 22:02:49 134

原创 吴恩达深度学习总结(7)

Hyprtparameter tuningTuning processUsing an appropriate scale to pick hyperparametersHyper parameters:Tuning in practiceBatch Normalization实现为什么batch-normalization有用测试softmaxTuning process在一个范围内对超参数...

2018-10-30 15:37:00 127

原创 吴恩达深度学习总结(6)

optimization algorithmmini-batch gradient descent定义优点Gradient Descent with momentum基本思想流程加权指数平均介绍直观理解RMSprop(Root Mean Square prop)基本思想流程Adam optimization algorithm学习率衰减原因衰减方法局部最优点mini-batch gradient...

2018-10-25 15:15:11 247

原创 吴恩达深度学习总结(5)

深度学习的实用层面数据的划分bias和variance模型训练的基本观点regularization添加范数为什么添加范数可以防止过拟合Dropout定义实现方法优势其他regularization的方法normalization梯度消失和梯度爆炸数据的划分给定一堆数据,我们需要将数据划分为训练集,验证集和测试集。训练集用于训练模型,验证集用于从不同的模型中选出最优的结构,测试集用于检测模型的...

2018-10-23 09:29:00 131

原创 周志华机器学习总结第6章

支持向量机间隔与支持向量对偶问题对偶问题求解核函数软间隔与正则化间隔与支持向量对于存在可以将两类训练样本分开的多个划分超平面,划分超平面距离样本的距离越远,那么这个划分超平面产生的分类结果是最鲁棒的,对未见示例的泛化能力越强。超平面的表述:ωTx+b=0\boldsymbol{\omega}^T\boldsymbol{x} + b = 0ωTx+b=0ω\boldsymbol{\omeg...

2018-10-21 10:51:48 523

原创 周志华机器学习总结第四章

决策树基本流程目的简介特殊情况划分选择目的划分标准信息增益信息熵(information entropy)信息增益(information gain)应用实例注意增益率应用实例基尼系数(Gini index)应用实例剪枝处理目的判断标准预剪枝定义优缺点后剪枝定义优缺点连续与缺失值连续值的处理缺失值的处理基本流程目的产生一棵泛化能力强,处理未见实力能力强的决策树简介一棵决策树包括一个根节点...

2018-10-20 20:21:06 433

原创 吴恩达深度学习总结(4)

DeaplearningAI01weak4深层神经网络神经网络每一层参数的维度为什么要使用深层神经网络Parameters 和 Hyper parameter深层神经网络对于deaplearning而言,隐藏层的数目越多,表明神经网络越深。logistic regression是没有隐藏层的。神经网络每一层参数的维度神经网络共有 LLL 层,n[l]n^{[l]}n[l] 表示每一层节点...

2018-10-18 17:14:30 195

原创 周志华机器学习总结第二章

模型评估与选择经验误差与过拟合评估方法生成测试集与训练集的方法留出法(hold-out)交叉验证法(cross validation)自助法(bootstrapping)调参与最终模型性能度量P 和 R根据P-R曲线比较学习器性能ROC和AUC代价敏感错误率和代价曲线下面所有的 #()\#()#()表示括号内元素的个数经验误差与过拟合错误率:错误分类的样本数占总样本数的比例精度:1-错误...

2018-10-16 09:25:12 1192

原创 吴恩达深度学习总结(2)

DeaplearningAI01.weak3回顾 Logistic Regression浅层神经网络(只有一层隐藏单元)网络中每个符号的含义激活函数的选择可选函数激活函数的选择使用非线性激活函数神经网络的梯度下降梯度下降详解初始化回顾 Logistic Regressionz=ωTx+b→a=σ(z)→L(a,y) z = \omega^Tx + b \to a=\sigma(z) \to ...

2018-10-14 21:23:35 201

原创 YOLO模型的使用

老板需要做目标检测的项目于是学习了一下yolo的使用,在这里贴一些使用过程中的心得,方便日后查阅和交流相关资源:yolo官网:https://pjreddie.com/darknet/yolo/yolo的pytorch实现:https://github.com/eriklindernoren/PyTorch-YOLOv3针对pytorch实现yolo代码的注释:https://gitee....

2018-10-13 16:35:53 775

原创 数据增强

使用imgaug进行增强,项目地址:https://github.com/aleju/imgaug由于在车牌识别中使用的增强方法有限,因此直接使用作者给的例子即可 https://imgaug.readthedocs.io/en/latest/source/examples_basics.html#a-standard-use-caseimport imgaug as iafrom imga...

2018-10-13 16:34:03 649 2

原创 周志华机器学习总结

基本形式一般向量形式:f(x)=ωT∗x+bf(\boldsymbol{x}) = \boldsymbol{\omega}^T*\boldsymbol{x}+bf(x)=ωT∗x+b优点:非线性模型可由线性模型通过引入层级结构和高维映射得到具有很好的解释性(哪一个参数更为重要)线性回归根据给定数据集,是给定一个线性模型尽可能准确的预测实值的输出标记最小化均方误差的模型求解方法即...

2018-10-13 16:30:03 1131

原创 吴恩达深度学习总结(1)

吴恩达深度学习总结DeaplearningAI01.weak2forwardbackwardDeaplearningAI01.weak2本周主要介绍了神经网络中forward和backward的一般实现和向量实现。一般实现较为简单,向量实现中存在一些疑点X\boldsymbol{X}X 是一个由训练集组成的矩阵,每一列代表一个数据,列数为数据的大小ω\boldsymbol{\omega}ω...

2018-10-13 16:16:04 358

MIT6006前半学期思维导图

基于MIT6006课程前半部分整理的思维导图,使用软件为iThoughtsX,最好用思维导图相关阅读器打开

2018-10-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除