自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(23)
  • 收藏
  • 关注

原创 【算法】斐波那契数列

509. 斐波那契数基本篇:class Solution {public: int fib(int N) { int a=0; int b=1; int fn=0; for(int i=0;i<N;i++){ fn=a+b; a=b; ...

2020-05-06 22:16:38 482

原创 【算法】二分查找及变体

如果看到在某个查找问题时间要求logn,那基本是考二分查找。平衡二叉树的本质也是二分查找,写树还费时。二分查找的前提是数组有序,如果无序需要先排序。二分查找框架:int binarySearch(int[] nums, int target) { int left = 0, right = ...; while(...) { int mid = le...

2020-04-28 18:52:53 251

原创 【算法】比较类的原地算法

力扣41class Solution {public: int firstMissingPositive(vector<int>& nums) { int n=(int)nums.size(); for(int i=0;i<n;i++){ while(nums[i]>0&&n...

2020-04-28 14:15:49 237

原创 【算法】螺旋矩阵

力扣54双百答案class Solution {public: vector<int> spiralOrder(vector<vector<int>>& matrix) { vector <int> res; if (matrix.empty()) return res; i...

2020-04-27 21:22:09 482

原创 【论文笔记】【cnn】ResNest详解

摘要:ResNest主要贡献是设计了一个Split-Attention模块,可以实现跨通道注意力。通过以ResNet样式堆叠Split-Attention块,获得了一个ResNet的变体。ResNest网络保留了完整的ResNet结构,可以直接用下游任务,而不会引起额外的计算成本。ResNest在分类、FasterRCNN、DeeplabV3上都有提升。动机:著名的ResNet是针对图像分...

2020-04-24 17:41:58 5745 7

原创 【论文笔记】【cnn】Densenet详解

Densenet受启发于resnet,通过shortcut(skip connection)建立前面层到后面层的联系,有助于训练过程中的梯度反向传播。相比于resnet,densenet设计了更密集的shortcut,建立了前面的所有层和后面的密集连接。Densenet还通过特征在channel上的连接来实现特征重用,这减少了DenseNet的参数量和计算成本。DenseNet提出了一个非...

2020-04-22 17:51:11 1576

原创 【论文笔记】【cnn】ResNeXt详解

ResNeXt解决的问题:传统的要提高模型的准确率,都是加深或加宽网络,但是随着超参数数量的增加(channels,filter size等),网络设计的难度和计算开销也会增加。本文提出的ResNeXt结构可以在不增加参数复杂度的情况下提高准确率,同时还减少了超参数的数量。ResNeXt乍一看很像inception,作者也在论文中提到了vgg相关。VGG和resnet主要采用堆叠网络来实现...

2020-04-22 14:39:37 730

原创 【论文阅读】【cnn】resnet

resnet解决的是网络的退化问题。在vgg中提出,增加网络深度可以增加模型的表达能力。但是人们发现深度达到一定之后,CNN网络再一味增加层数并不能带来分类性能的提高,甚至会让网络收敛变慢,测试集精度下降。训练集精度下降可以说明这个不是过拟合的原因。因此resnet提出这是网络的“退化问题”。深度神经网络可以拟合各种表示,按道理说,n+1层的cnn的解空间包含了n层的cnn的解空间,因此n+1...

2020-04-22 10:52:57 461

原创 【论文笔记】【目标检测】fpn详解

fpn是在卷积神经网络中图像金字塔的应用。图像金字塔在多尺度识别中有重要的作用,尤其是小目标检测。论文中给了这么一张图来展示4种利用特征的形式。(a)图像金字塔。这个是直接把图片resize成不同的尺度,使用不同的尺度对应生成不同的特征。缺点是时间成本很大,如果在测试的时候使用四级的图像金字塔,那么测试时间*4.(b)只用最后一层特征。在fpn之前的算法,faster rcnn和s...

2020-04-22 10:51:48 1399

原创 【论文笔记】【目标检测】faster rcnn详解

我终于看懂了这篇paper!RCNN解决了用卷积网络做目标检测的问题,通过selective search在特征图上得到region proposal,进而使用svm进行二分类,得到了目标检测需要的分类信息和位置信息。Fast rcnn解决了RCNN得到region proposal费时费空间的问题。通过引入Roi pooling使任意大小的输入可以输出为指定大小的roi向量,这样,一张图...

2020-04-20 21:20:15 537

原创 【论文笔记】【目标检测】Fast RCNN详解

Fast RCNN是对RCNN论文的改进。RCNN简介:(1)image input;(2)利用selective search 算法在图像中从上到下提取2000个左右的Region Proposal;(3)将每个Region Proposal缩放(warp)成227*227的大小并输入到CNN,将CNN的fc7层的输出作为特征;(4)将每个Region Proposal提取的...

2020-04-20 15:42:28 1520

原创 【算法】只出现一次的数字

1.leetcode136给定一个非空整数数组,除了某个元素只出现一次以外,其余每个元素均出现两次。找出那个只出现了一次的元素。要求时间复杂度O(n),空间复杂度O(1)。示例:输入[4, 1, 2, 1, 2],输出4(1)面试官不想要的答案:建字典、排序。(2)面试官想要的答案:位运算。思路:如果我们对 0 和二进制位做 XOR 运算,得到的仍然是这个二进制位,a^...

2020-04-15 18:12:36 217

原创 计算机视觉秋招准备(4):神经网络初始化

1. 将全部参数初始化为0不可以考虑全连接的深度神经网络,同一层中的任意神经元都是同构的,它们拥有相同的输入和输出,如果再将参数全部初始化为同样的值,那么无论前向传播和反向传播的取值都是完全相同的。学习过程将永远无法打破这种对称性,最终同一网络层中的各个参数仍是相同的。因此,我们要随机地初始化神经网络参数的值,以打破这种对称性。简单来说,可以初始化参数取值范围为取值范围(-,)的均匀...

2020-04-14 11:00:03 161

原创 计算机视觉秋招准备(2):一文看懂dropout

1.Dropout出现的原因在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预测准确率较低。过拟合是很多机器学习的通病。如果模型过拟合,那么得到的模型几乎不能用。为了解决过拟合问题,一般会采用模型集成的...

2020-04-13 15:27:50 1058

原创 池化层详细介绍

常见的池化层它实际上是一种形式的降采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效地原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。...

2020-04-13 14:17:30 85592 1

原创 过拟合和欠拟合现象及解决方案

过拟合和欠拟合欠拟合:(under-fitting)也称为欠学习,它的直观表现是算法训练得到的模型在训练集上表现差,没有学到数据的规律。引起欠拟合的原因有:模型本身过于简单,例如数据本身是非线性的但使用了线性模型;特征数太少无法正确的建立统计关系。过拟合:(over-fitting)随着训练过程的进行,模型复杂度,在training data上的error渐渐减小。可是在验证集上的erro...

2020-04-10 21:52:57 3131

原创 经典CNN图像分类网络汇总

本文将大致介绍经典的卷积神经网络。包含LeNet5、AlexNet、VGG、GoogLeNet、卷积神经网络概述:相比于传统特征提取方法,卷积不需要人工进行特征提取。受启发于生物神经元,激活函数用于仿真,当生物电信号超过了某一阈值,就被传递给下一个神经元;损失函数用于指导网络学习到被期望学习的东西。CNN的优点:(1)局部连接。每个神经元只和前一层部分神经元连接,这可以加快网络收敛和减...

2020-04-10 21:11:21 8684

原创 激活函数总结1:ReLU及其变体

激活函数可以被分为2类,“饱和激活函数”和“非饱和激活函数”。sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点: (1)首先,“非饱和激活函数”能解决所谓的“梯度消失”问题。 (2)其次,它能加快收敛速度。 Sigmoid函数需要一个实值输入压缩至[0,1]的范围,σ(x) = 1 / (1 + ex...

2020-04-10 17:24:41 3599 1

原创 Self-training with Noisy Student improves ImageNet classification阅读笔记

论文地址:https://arxiv.org/pdf/1911.04252v1.pdf这篇文章实现了自训练方法,使用部分带标签数据进行训练,在ImageNet上top-1为87.4%。方法:1. 为有标签和无标签的图片。2. 使用有标签的数据、标准交叉熵损失训练了一个EfficientNet作为教师网络。3. 用这个教师网络,在无标签数据上生成伪标签,伪标签可以是soft la...

2019-12-10 16:27:39 3650 1

原创 python处理xlsx多sheet文件

需求:每个xlsx共有20个sheet,每个sheet两列。对第一列每个值加0.924,第二列每个值除以0.19625。对处理后的结果,以第一列为x,第二列为y,生成一条曲线,求与指定直线的交点。其中sheet1-10的指定直线为x=0.225, sheet11-20的指定直线为0.75.import xlrd import shapely.geometry as SG import ...

2019-11-09 19:54:15 740

原创 Random Search and Reproducibility for Neural Architecture Search阅读笔记

论文创新点:•1.提出了新的NAS基准。建立的基础:NAS是一个专门的超参数优化问题;随机搜索是超参数的baseline。•2.采用提前停止的随机搜索:在PTB和CIFAR-10•3.具有权重共享的随机搜索性能 优于 早期停止的随机搜索功能•4.探讨了已发布的NAS结果的现有可重复性NAS存在问题:•baseline不足:尚未在NAS基准上评估最新的超参数方法,难以量...

2019-11-04 21:19:07 790

原创 json标注转为pascal_voc xml

数据来源为https://cg.cs.tsinghua.edu.cn/traffic-sign/标注格式为json,使用json.load解析后为字典格式。pascal_voc xml格式为:<?xml version="1.0" encoding="utf-8"?><annotation> <folder>VOC2007</fold...

2019-10-15 10:22:56 1082

原创 python将pascal_voc xml转化为txt

#!/usr/bin/env python3# -*- coding: utf-8 -*-import osimport os.pathimport xml.etree.ElementTree as ET import xml.dom.minidom as xdmimport sys xml_path='/Users/chenhonghu/Downloads/data/xml/...

2019-10-15 10:13:42 499

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除