自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 JVM的堆和栈

JVM栈解决程序的运行问题,即程序如何执行,或者说如何处理数据;JVM堆解决的是数据存储的问题,即数据怎么放、放在哪儿。在Java中一个线程就会相应有一个线程JVM栈与之对应,这点很容易理解,因为不同的线程执行逻辑有所不同,因此需要一个独立的线程JVM栈。而 JVM堆则是所有线程共享的。JVM栈因为是运行单位,因此里面存储的信息都是跟当前线程(或程序)相关信息的。包括局部变量、程序运行状态、方法...

2020-03-13 20:01:40 140

原创 《剑指offer》java语言优化版——数组中重复的数字

第一题:找出数组中重复的数字在一个长度为n的数组里的所有数字都在0到n-1的范围内。 数组中某些数字是重复的, 但不知道有几个数字是重复的。也不知道每个数字重复几次。请找出数组中任意一个重复的数字。例如,如果输入长度为7的数组{2,3,1,0,2,5,3},那么对应的输出是第一个重复的数字2。public class page39 { public static boolean dup...

2019-10-20 14:55:50 169

原创 《剑指offer》java语言优化版——实现Singleton模式

饿汉式public class Singleton1 { private static Singleton1 instance = new Singleton1(); private Singleton1(){ } public Singleton1 getInstance(){ return instance; }}懒汉式publ...

2019-10-20 14:52:58 135

原创 训练集、测试集与验证集的含义

训练集、测试集与验证集的含义1. 定义(1)在数据量(及标签)很充足的情况下:如果我们自己已经有了一个大的标注数据集,想要完成一个有监督模型的测试,那么通常使用均匀随机抽样的方式,将数据集划分为训练集、验证集、测试集,这三个集合不能有交集,三个集合符合同分布。常见的比例是可以上网看看。(2)在数据量(及标签)很少的情况下:比如在做比赛时,官方只提供了一个标注的数据集(作为训练集)以及一个...

2019-07-12 13:43:14 3140

原创 Batch_Normalization原理理解

1、BN的作用原理BN往往作用于卷积层之后,激活函数Relu之前,即满足:conv+BN+Relu。BN就是调整每层卷积网络输出数据的分布,使其进入激活函数的作用区。激活函数的作用区就是指原点附近的区域,梯度弥散率低,区分率高。同时,BN会在训练过程中,自己调节数据分布,使其“更合理”地进入激活函数。卷积后,数据输出的分布会出现下图的几种情况。当x<0时,经过激活函数,数据全部没用,当...

2019-05-14 20:27:00 1348

原创 softmax layer的原理解释

加入我们处理的是一个三分类问题,输出向量为[3,1,-3],3代表类别1的分量;1代表类别2对应的分量;-3代表类别3对应的分量;经过图中的softmax函数的作用后,将其转化为[0.88,0.12,0],它的意义是:这个输入样本被分到类别1的概率是0.88,被分成类别2的概率是0.12,然而被分成类别3的概率几乎为零。softmax函数的公式:请注意务必区分softmax与sigmoid(...

2019-05-06 10:58:25 3188 1

原创 全连接的理解

首先是包含全连接的一幅图片:全连接把卷积输出的二维特征图(feature map)转化成一个一维向量,也就是说:最后的两列小圆球就是两个全连接层,在最后一层卷积结束后,又进行了一次池化操作,输出了20个1212的图像(20指最后一层的厚度),然后通过了一个全连接层变成了1100的向量(第一个全连接层神经元的个数是100)怎么做到的?该操作其实就是用100个201212的卷积核卷积出来的,对...

2019-04-28 11:18:22 13752

转载 L1与L2正则化的总结

(1)L1与L2正则化的定义(2)为什么L1正则化用于稀疏矩阵,而L2正则化主要用于防止过拟合https://blog.csdn.net/jinping_shi/article/details/52433975

2019-03-29 16:24:27 231

原创 python的字符串反转方法

letcode上有元音字母字符串反转的题目,今天来研究一下字符串反转的内容。(1)用切片def reverse1(): s=input("请输入需要反转的内容:") return s[::-1]print(reverse1())请输入需要反转的内容:今天是星期二二期星是天今Process finished with exit code 0(2)用列表Pytho...

2019-03-26 09:08:07 1276

原创 python的函数set()

set() 是一个无序,不重复的元素集合注意:set是不重复的,如果有重复元素会自动去重,所以它可以用来迅速去重——当然还要遍历变回列表。判断包含关系:x in set取长度:len(set)遍历:for x in seta = ['1', '2', '3', '2', '2', '3'] # 定义一个listb = set(a)print(b)print(type(b))...

2019-03-25 19:29:21 161

原创 tensorflow的初始化变量函数tf.Variable()

tf.Variable(initializer, name)initializer是初始化参数,可以有tf.random_normal(),tf.ones(),tf.constant()等,name就是变量的名字import tensorflow as tfx = tf.Variable(tf.zeros([3,4]))y = tf.Variable(tf.zeros([10]))w...

2019-03-24 16:11:57 1074

原创 tensorflow简单神经网络预测MNIST数据集

from tensorflow.examples.tutorials.mnist import input_dataimport tensorflow as tffile = "./MNIST"mnist = input_data.read_data_sets(file, one_hot=True)# 模型的输入和输出'''模型的输入x是一个22维的浮点数张量。它的大小为shape=...

2019-03-24 15:48:13 292

原创 tf.random函数汇总

1、输出服从正太分布random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32)shape:一个一维整数张量或Python数组。代表张量的形状。mean:数据类型为dtype的张量值或Python值。是正态分布的均值。stddev:数据类型为dtype的张量值或Python值。是正态分布的标准差。举例:import t...

2019-03-24 10:00:36 1133

原创 tensorflow中tf.reduce_mean()

1.作用tf.reduce_mean函数的作用是:计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值。2.表达式reduce_mean(input_tensor, axis=None, keep_dims=False, name=None)第...

2019-03-22 23:12:19 338

原创 tensorflow中tf.cast()用法

tf.cast(x, dtype, name=None)将x的数据格式转化成dtype数据类型.例如,原来x的数据格式是bool.参数x:输入dtype:转换目标类型name:名称返回:Tensorimport tensorflow as tfa = tf.Variable([1.0, 1.3, 2.1, 3.41, 4.51])b = tf.cast(a, dtype=t...

2019-03-22 22:59:49 421

原创 batch、batch_size、epoch、iteration等超参数

(1)epoch:1个epoch指用训练集中的全部样本训练一次,此时相当于batch_size 等于训练集的样本数。如果epoch=50,总样本数=10000,batch_size=20,则需要迭代500次。(2)iteration:1次iteration即迭代1次,也就是用batch_size个样本训练一次。(3)batch_size:每批数据量的大小.用SGD的优化算法进行训练,也...

2019-03-22 14:28:40 1835

原创 切片操作

numList = [1, 2, 3, 4, 5, 6, 7, 8, 9]print('numList:', numList)print("reverse",numList[::-1])data1 = numList[::2]print(data1)data2 = numList[1::2]print(data2)data3 = numList[2::3]print(data3)...

2019-03-21 18:58:49 563

原创 单链表反转_python版

代码如下:class Node(object): def __init__(self, elem, next_=None): self.elem = elem self.next = next_ def reverseList(head): if head == None or head.next==None: # 若链表为空或者仅一个数就直...

2019-03-21 13:01:10 25665 9

原创 DenseNet的tensorfolw实现,训练数据集MNIST

import tensorflow as tffrom tflearn.layers.conv import global_avg_poolfrom tensorflow.examples.tutorials.mnist import input_datafrom tensorflow.contrib.layers import batch_norm, flattenfrom tensor...

2019-03-20 21:05:17 1548

原创 介绍深度学习的组成

深度学习可以分成5个部分:1、连接模式连接模式包括全连接、卷积、池化、残差,甚至inception。这些结构的相互连接组成了神经网络的框架。2、非线性模块正是因为神经网络具有非线性模块,多层神经网络在理论上是可以无限逼近任意的函数。如果没有非线性模块,即使再多的层结构堆叠,最后的作用也仅仅是相当于一个感知机。常见的非线性模块有 tanh,sigmoid,ReLU,根据ReLU衍生出来的p...

2019-03-20 19:11:28 2704

原创 SVM通俗易懂的推导过程

SVM原理推导欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:全新的界面设计 ,将...

2019-03-20 18:59:02 386

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除