自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 快速排序

#快速排序def Partition(L, low, high): #三数取中,防止形成不平衡的递归斜树 median = low + (high - low) // 2 if(L[low] > L [high]): #保证左边要小 L[low], L[high] = L[high], L[low] if (L[median] >L...

2018-04-09 10:23:51 190

原创 归并排序

def merge(a, b): #需要有一个新的数组来合并两个原来有序的数组。 c = [] h = j = 0 while j < len(a) and h < len(b): #每次将两个数组中最小的送入新的数组C if a[j] < b[h]: c.append(a[j]) j += ...

2018-04-09 10:23:17 190

原创 堆排序

def heap_sort(L): #生成最大堆函数 def heap_adjust(L, father_node, length): temp = L[father_node] index = father_node * 2 #此时指向左孩子 while(index <= length): if ind...

2018-04-09 10:22:36 187

原创 常见排序之直接插入排序

def InsertSort(array): length = len(array) for i in range(1, length): #每次相当于把当前值插入到前面的有序序列中 if array[i] < array[i-1]: #表示需要将当前插入前面的有序表 insert_value = array[i] ...

2018-04-09 10:21:59 179

原创 常见排序之选择排序

def SelectSort(array): #遍历得在列表中找最小值,并且将最小值放到最前面 length = len(array) for i in range(length): min = i #假设第一个值是最小值 for j in range(i+1, length): if array[min] > arra...

2018-04-09 10:21:15 214

原创 常见排序之冒泡排序

#原始的冒泡排序 不断的两两比较,将最小的值传到数组的首位,然后减少比较的范围,知道最后一个树def BubbleSort(array): length = len(array) for i in range(length): for j in range(length-1, i, -1): if array[j] < array[j...

2018-04-09 10:19:56 160

转载 faster rcnn

在介绍Faster R-CNN之前,先来介绍一些前验知识,为Faster R-CNN做铺垫。一、基于Region Proposal(候选区域)的深度学习目标检测算法Region Proposal(候选区域),就是预先找出图中目标可能出现的位置,通过利用图像中的纹理、边缘、颜色等信息,保证在选取较少窗口(几千个甚至几百个)的情况下保持较高的召回率(IoU,Intersection-over-Unio...

2018-04-08 17:24:46 288

转载 fast RCNN

继2014年的RCNN之后,Ross Girshick在15年推出Fast RCNN,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。在Github上提供了源码。同样使用最大规模的网络,Fast RCNN和RCNN相比,训练时间从84小时减少为9.5小时,测试时间从47秒减少为0.32秒。在PASCAL VOC 2007上的准确率相差无几,约在66%-67%之间.思想基础:RCNN简单来说,RC...

2018-04-08 17:23:52 226

转载 机器学习中的范数规则化之(一)L0、L1与L2范数

今天天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。        监督机器学习问题无非就是“minimizeyour error while regul...

2018-04-08 17:21:40 151

转载 RCNN详解

原博客https://blog.csdn.net/WoPawn/article/details/52133338&创新点采用CNN网络提取图像特征,从经验驱动的人造特征范式HOG、SIFT到数据驱动的表示学习范式,提高特征对样本的表示能力;采用大样本下有监督预训练+小样本微调的方式解决小样本难以训练甚至过拟合等问题。&问题是什么近10年以来,以人工经验特征为主导的物体检测任务mAP...

2018-04-07 16:37:18 447

转载 RandomForest 原理

1.分类回归树CART随机森林是由多颗CART树组成的,下面简单叙述下回归树及生成树的算法(1)最小二乘回归树生成算法(2)分类树的生成分类树可以使用基尼指数作为分类标准,至于为什么上面的指标,我们可以从信息论的角度思考。同样采样这样的分类标准会导致生成树选择最优属性时会偏向类别比较多的属性,因此在实际使用的过程中应对数据集进行处理或者控制树的深度。虽然决策树算法可以通过剪枝(正则、验证集测试)或...

2018-04-06 15:49:34 1860

转载 boosting bagging

这两天在看关于boosting算法时,看到一篇不错的文章讲bootstrap, jackknife, bagging, boosting, random forest 都有介绍,以下是搜索得到的原文,没找到博客作者的地址,在这里致谢作者的研究。一并列出一些找到的介绍boosting算法的资源:(1)视频讲义,介绍boosting算法,主要介绍AdaBoosing    http://videole...

2018-04-06 15:46:27 233

转载 Xgboost与RandomForest

原创文章:http://blog.csdn.net/qccc_dm/article/details/63684453 首先XGBOOST,GBDT,RF都是集成算法,RF是Bagging的变体,与Bagging相比,RF加入了属性扰动,而XGBOOST,GBDT属于boosting. 一、RandomForest 与 GBDT 的区别:相同点:1.都由很多棵树组成2.最终的结果是由多棵树一起决定的...

2018-04-06 15:43:04 2175

转载 Xgboost原理

原博客为https://blog.csdn.net/github_38414650/article/details/76061893初看Xgboost,翻了多篇博客发现关于xgboost原理的描述实在难以忍受,缺乏逻辑性,写一篇供讨论。——以下是抛砖引玉。 观其大略,而后深入细节,一开始扎进公式反正我是觉得效率不高,还容易打消人的积极性。首先说下决策树决策树是啥? 举个例子,有一堆人,我让你分出男...

2018-04-06 15:41:24 382

转载 Python 中的深浅拷贝

要说清楚Python中的深浅拷贝,需要搞清楚下面一系列概念:变量-引用-对象(可变对象,不可变对象)-切片-拷贝(浅拷贝,深拷贝)【变量-对象-引用】在Python中一切都是对象,比如说:3, 3.14, 'Hello', [1,2,3,4],{'a':1}......甚至连type其本身都是对象,type对象Python中变量与C/C++/Java中不同,它是指对象的引用,Python是动态类型...

2018-03-28 10:34:29 264

转载 CNN的发展历史(LeNet,Alexnet,VGGNet,GoogleNet,ReSNet)

欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld。关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了,就想着简单整理一下,以备查阅之需。如果读者是初接触CNN,建议可以先看一看“Deep Learning(深度学习)学习笔记整理系列”中关于CNN的介绍[1],是介绍我们常说的Lenet为例,

2017-10-20 17:07:15 11335 1

转载 卷积神经网络CNN图解

背景之前在网上搜索了好多好多关于CNN的文章,由于网络上的文章很多断章取义或者描述不清晰,看了很多youtobe上面的教学视频还是没有弄懂,最后经过痛苦漫长的煎熬之后对于神经网络和卷积有了粗浅的了解。于是在这里记录下所学到的知识,关于CNN 卷积神经网络,需要总结深入的知识有很多:人工神经网络 ANN卷积神经网络 CNN卷积神经网络 CNN - BP算法卷积神经

2017-10-20 11:29:24 10713 1

原创 心酸的Caffe安装之路 环境搭配 Ubuntu16.04+gtx1080+cuda8.0+cudnn5.1+opencv+Anaconda3+caffe

首先安装Ubuntu16.04,系统可以在官网上下载,因为我是安装的双系统,所以出现了很多问题,不过这里最重要的问题就是引导的问题,在我的上一篇博客中已经写了。不请欻的话可以在下面留言。安装好系统以后,就需要把我们需要的软件包都下载下来,我是在windows上提前下载好然后进入Ubuntu系统的,所有的东西在下图。软件包依次是Anaconda3(4.2.0) python3版本的,

2017-09-26 20:24:05 712 2

原创 U盘安装UBuntu16.04与windwos双系统出现无法将grub-amd64-软件包装入target的问题

这个问题是因为UEFI启动方式导致的,在安装UBuntu时,先查看自己的系统是什么引导的,如果是MBR引导,则在选U盘选择启动的时候记得选非UFEI启动模式。并且在分区的时候。不要把GRUB安装在整个SDA。可以选择装到根目录/或者直接分一个BOOT分区来安装grub,这样的话安装完毕就直接可以双系统了。在选择非UEFI模式的时候,用usbinstaller刻的安装盘进不去,换成软碟通的就

2017-09-26 14:24:58 6318 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除