自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(234)
  • 资源 (3)
  • 收藏
  • 关注

原创 猴子选大王(约瑟夫问题)

有过以下的故事:在罗马人占领乔塔帕特后,39 个犹太人与Josephus及他的朋友躲到一个洞中,39个犹太人决定宁愿死也不要被敌人抓到,于是决定了一个自杀方式,41个人排成一个圆圈,由第1个人开始报数,每报数到第3人该人就必须自杀,然后再由下一个重新报数,直到所有人都自杀身亡为止。首先从一个人开始,越过k-2个人(因为第一个人已经被越过),并杀掉第k个人。接着,再越过k-1个人,并杀掉第k个人。Josephus要他的朋友先假装遵从,他将朋友与自己安排在第16个与第31个位置,于是逃过了这场死亡游戏。

2024-03-27 15:42:18 299

原创 堆排序算法及实现

将无序序列建成一个堆,得到关键字最小(或最大)的记录;输出堆顶的最小(或最大)值后,使剩余的n-1个元素重又建成一个堆,则可得到n个元素的次小值;重复执行,得到一个有序序列,这个过程叫堆排序。

2023-12-11 17:44:43 400

原创 hanoi塔问题

n阶Hanoi塔问题,假设有3个分别命名为A、B、C塔座,在塔座A上插有n个直径大小各不相同、依小到大的圆盘。(3)任何时刻都不能将一个较大的圆盘压在较小的圆盘之上。(3)用 A 做过渡,将 B 的 (n-1) 个移到 C。(1)用 C 柱做过渡,将 A 的(n-1)个移到 B。(2)圆盘可以插在A、B、C的任意一个塔座上;n = 1,则直接从 A 移到 C。(2)将 A 最后一个直接移到 C。(1)每次只能移动一个圆盘;

2023-09-25 13:30:58 153

原创 链表基本操作

单链表结构头指针是指向链表中第一个结点的指针首元结点是指链表中存储第一个数据元素a1的结点头结点是在链表的首元结点之前附设的一个结点;数据域内只放空表标志和表长等信息单链表存储结构定义:typedefstructLnodeElemTypedata;//数据域structLNode*next;//指针域LNode,*LinkList;// *LinkList为Lnode类型的指针。

2023-09-18 14:20:52 240

原创 数据结构-共享栈

两个栈顶指针重合时,表示共享栈已经满了。

2023-09-07 16:22:39 288

原创 Swin-Transformer网与源码

论文名称:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows原论文地址: https://arxiv.org/abs/2103.14030官方开源代码地址:https://github.com/microsoft/Swin-TransformerPytorch实现代码: pytorch_classification/swin_transformer。

2023-06-07 15:18:14 1174 1

原创 python 数组排序并找出其索引

【代码】python 数组排序并找出其索引。

2023-06-02 15:14:53 709

原创 SpringBoot发送http请求

此外,需要定义一个RestTemplate配置类。HttpUtils工具类如下。

2023-05-26 17:47:54 2086

原创 Batch Normalization批量归一化

Batch作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。目前几乎已经成为DL的标配了,任何有志于学习DL的同学们朋友们雷迪斯俺的詹特曼们都应该好好学一学BN。BN倒过来看就是NB,因为这个技术确实很NB,虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。如何理解BatchNorm?

2023-05-25 09:29:12 735

原创 梯度消失和爆炸问题

此方法来自Hinton在2006年发表的一篇论文,Hinton为了解决梯度的问题,提出采取无监督逐层训练方法,其基本思想是每次训练一层隐节点,训练时将上一层隐节点的输出作为输入,而本层隐节点的输出作为下一层隐节点的输入,此过程就是逐层“预训练”(pre-training);从深层网络角度来讲,不同的层学习的速度差异很大,表现为网络中靠近输出的层学习的情况很好,靠近输入的层学习的很慢,有时甚至训练了很久,前几层的权值和刚开始随机初始化的值差不多。,所以当层数越深的时候,梯度将以指数形式传播。

2023-05-19 11:46:25 471

原创 基于C3D卷积神经网路的动作识别

有时候,在处理大数据集时,一次将整个数据加载到内存中变得非常难。因此,唯一的方法是将数据分批加载到内存中进行处理,这需要编写额外的代码来执行此操作。对此,PyTorch 已经提供了 Dataloader 功能。下面显示了 PyTorch 库中DataLoader函数的语法及其参数信息。参见pytorch官方文档,dataset (dataset)—从其中加载数据的数据集。Batch_size (int,可选)-每批加载多少个样本(默认值:1)。

2023-05-18 16:44:42 1696 5

原创 Linux安装python

root@test ~]# rpm -qa|grep python|xargs rpm -ev --allmatches --nodeps ##强制删除已安装程序及其关联。输入命令 wget https://www.python.org/ftp/python/3.7.1/Python-3.7.1.tgz。(6)检查python3.7的编译器:/usr/local/python3/bin/python3.7。(1)创建目录 mkdir -p /usr/local/python3。

2023-05-08 20:59:16 768

原创 IDEA2021集成使用gitee

idea上传项目到gitee

2023-03-28 17:08:34 1565

原创 Linux忘记/更改密码

注意:执行passwd命令修改密码,如果系统的selinux开启着,则需要执行命令:touch /.autorelabel 以。出现connection closed by foreign host 情况,一般是密码输入错误,以下给出忘记密码办法。2、按↑↓键找到ro,将红框内的内容改成 :rw init=/sysroot/bin/sh。重启Linux(或虚拟机),在倒计时3秒前,按下e键,进入grub编辑页面。# chroot /sysroot //进入系统的根目录。

2023-03-27 14:55:36 2659

原创 BP算法实现

BP神经网络算法实现

2022-12-26 16:32:28 531

原创 线性回归实现原理

线性回归:根据已知的数据集,通过梯度下降的方法来训练线性回归模型的参数w,从而用线性回归模型来预测数据的未知的类别。

2022-12-02 16:40:05 1520

原创 ImageNet数据集用法

imagetnet数据集使用方法

2022-11-08 15:14:38 3409 1

原创 光盘刻录步骤

4.刻录光盘,刻录+校验,需要几分钟时间即可刻录成功。2.将文件添加到光盘目录。1.选择需要刻录的文件。

2022-07-30 15:15:50 8591

原创 Pytorch网络层参数初始化方法

pytorch参数初始化

2022-07-05 14:10:26 2801

转载 Transformer源码分析

本文是对哈佛NLP团队实现的Pytorch版Transformer的源码解析。其实本来想看Tensor2Tensor版本的Transformer的,但是代码逻辑实在是有些混乱。哈佛NLP团队实现的Pytorch版代码链接如下GitHub - harvardnlp/annotated-transformer: http://nlp.seas.harvard.edu/2018/04/03/attention.html​github.com/harvardnlp/annotated-transformer

2022-05-07 13:47:43 685 1

原创 PyTorch几个需要掌握的小技巧

1、指定GPU编号设置当前使用的GPU设备仅为0号设备,设备名称为/gpu:0:os.environ["CUDA_VISIBLE_DEVICES"] = "0"设置当前使用的GPU设备为0,1号两个设备,名称依次为/gpu:0、/gpu:1:os.environ["CUDA_VISIBLE_DEVICES"] = "0,1",根据顺序表示优先使用0号设备,然后使用1号设备。指定GPU的命令需要放在和神经网络相关的一系列操作的前面。2、梯度裁剪(Gradient Clipping)impor...

2022-04-11 16:40:09 3370 1

原创 pytorch中的交叉熵nn.CrossEntropyLoss()

引言:在使用pytorch中的损失函数时,经常会使用到:nn.CrossEntropyLoss()该损失函数整合了nn.LogSoftmax()和nn.NLLLoss(),常用于训练分类任务。特别是在神经网络做分类问题时,经常使用交叉熵作为损失函数,此外,由于交叉熵涉及到计算每个类别的概率,所以交叉熵几乎每次都和sigmoid(或softmax)函数一起出现。我们用神经网络最后一层输出的情况,来看一眼整个模型预测、获得损失和学习的流程:神经网络最后一层得到每个类别的得分scores(

2021-12-17 15:57:37 2248

原创 vue表格中prop获取的数据为数组情况下的遍历

当后端传Long类型给前端, Long类型数据大于17位时。前端拿到的数据: 第16位会四舍五入, 17位后的数据自动用0代替),在Json中就会出现精度丢失的情况

2021-10-19 17:49:13 1491

原创 分布式ID生成算法-雪花算法

算法原理SnowFlake算法生成id的结果是一个64bit大小的整数,它的结构如下图:1. 1bit,不用,因为二进制中最高位是符号位,1表示负数,0表示正数。生成的id一般都是用整数,所以最高位固定为0。2. 41bit-时间戳,用来记录时间戳,毫秒级。- 41位可以表示2^41 - 1个数字,- 如果只用来表示正整数(计算机中正数包含0),可以表示的数值范围是:0 至 2^41 - 1,减1是因为可表示的数值范围是从0开始算的,而不是1。- 也就是说41位可以表示..

2021-10-16 15:41:43 610

原创 css3D制作旋转魔方

<!DOCTYPE html><html><head> <meta charset="utf-8" /> <style> /*最外层容器样式*/ .wrap { width: 200px; height: 200px; margin: 200px; position: relative; .

2021-09-23 14:58:12 185

原创 正则符号说明

1 数字:^[0-9]*$2 n位的数字:^\d{n}$3 至少n位的数字:^\d{n,}$4 m-n位的数字:^\d{m,n}$5 零和非零开头的数字:^(0|[1-9][0-9]*)$6 非零开头的最多带两位小数的数字:^([1-9][0-9]*)+(.[0-9]{1,2})?$7 带1-2位小数的正数或负数:^(\-)?\d+(\.\d{1,2})?$8 正数、负数、和小数:^(\-|\+)?\d+(\.\d+)?$9 有两位小数的正实数:^[0-9]+(...

2021-08-30 11:30:04 136

原创 CNN卷积神经网络学习过程(权值更新)

卷积神经网络采用BP算法学习网络参数,BP算法是基于梯度下降原则来更新网络参数。在卷积神经网络中,需要优化的参数有卷积核参数k、下采样层权值β、全连接层网络权值w及各层偏置b。我们以卷积神经网络的期望和输出之间的均方误差为代价函数,目的是最小化该代价函数,使得实际神经网络输出可以对输入做出准确的预测,代价函数如下所示:其中,N为训练样本的数量,是第n个训练样本的真实类别标签,是第n个训练样本经过卷积神经网络学习得到的预测类别标签。卷积层梯度计算一般而言每一个卷积层l的后面都会接一个下采样..

2021-08-03 11:34:01 5094 6

原创 CNN卷积神经网络结构

卷积神经网络通常是由四部分组成:输入层、卷积层、下采样层、全连接层和输出层。典型的卷积神经网络中,开始的几层一般是卷积层和下采样层交替出现,靠近输出层的最后几层通常是全连接层,其结构如图2-4所示。一幅原始二维图像输入卷积神经网络网络进入卷积层后,将会被卷积核函数作用提取到输入图像的局部特征,这些局部特征一旦被提取之后,它们之间的位置关系也会随之确定下来。一个卷积核对应一种特征,对同一幅图像采用相同卷积核提取不同位置的相同特征构成一幅特征图,这方式称作卷积神经网的权值共享。通过增加卷积核个数,对输入图像同一

2021-08-03 11:22:20 9653

原创 pytorch模型参数赋值——tensor.copy_()方法

module类内部state_dict返回对象只是一个copy,所以修改里面的值并不能影响模型中真正的参数,我们可以借助tensor.copy_()方法来赋值。简单例子:a = torch.tensor([[1,2], [3,4]])b = torch.tensor([[7,8],[9,10]])a.copy_(b)print(a)print(b)...

2021-07-25 17:09:08 4898

原创 DOS常用命令

1 查看端口号占用及关闭进程查看端口号:netstat -ano|findstr "8080"关闭对应进程:taskkill /F /pid 11176

2021-06-29 15:51:33 62

原创 mysql启动错误1607 进程意外终止

mysql启动报错,首先想到的是应该查看mysql的日志文件:mysql安装目录/data/*.err。从错误日志

2021-06-21 10:55:07 1041

原创 残差网络ResNet源码解析——Pytorch版本

源码GitHub地址

2021-06-18 16:53:57 5028

原创 springcloud nacos集群搭建

Nacos集群架构图根据架构图所示,搭建nacos集群最少需要启动了三个节点的Nacos集群。此外,我们还需要提供一个统一的入口给Spring Cloud应用访问,也即是需要为上面启动的的3个Nacos集群做一个负载均衡的访问层,这里我们可以通过nginx来实现。8.1 Nacos配置1 编辑nacos集群配置文件cluster.conf,添加集群IP2 启动nacos(集群模式) sh startup.sh 8.2 Nginx配置1 配置ngin...

2021-06-11 11:10:07 562 1

原创 Linux安装mysql(填坑版)

安装之前,先检测一下系统是否已经安装过mysql: rpm -qa | grep mysql 如果已经安装,可以通过以下命令选择卸载: rpm -e mysql // 普通删除模式 rpm -e --nodeps mysql // 强力删除模式,如果使用上面命令删除时,提示有依赖的其它文件,则用该命令可以对其进行强力删除 安装Mysql工具:CentOS 7 64位、Mysql5.71 到mysql官网下载mysql编译好的二进制...

2021-06-07 16:46:07 111

原创 其它IP无法连接本机Redis问题解决及Redis安装

1 修改redis.conf文件:daemonize为yes,让redis在后台运行;2 注释掉 bind 127.0.0.1,运行本机之外的地址访问;3 protected设置为no,关闭保护模式;关闭防火墙。

2021-06-04 15:07:03 1048

原创 torch.nn.Linear()函数

torch.nn.Linear(in_features,out_features,bias=True) 函数是一个线性变换函数:其中,in_features为输入样本的大小,out_features为输出样本的大小,bias默认为true。如果设置bias = false那么该层将不会学习一个加性偏差。Linear()函数通常用于设置网络中的全连接层。用例:import torchx = torch.randn(128, 20) # 输入样本fc = torch.nn...

2021-05-25 17:03:59 2962

原创 详解ResNet残差网络

在VGG中,卷积网络达到了19层,在GoogLeNet中,网络史无前例的达到了22层。那么,网络的精度会随着网络的层数增多而增多吗?在深度学习中,网络层数增多一般会伴着下面几个问题计算资源的消耗 模型容易过拟合 梯度消失/梯度爆炸问题的产生问题1可以通过GPU集群来解决,对于一个企业资源并不是很大的问题;问题2的过拟合通过采集海量数据,并配合Dropout正则化等方法也可以有效避免;问题3通过Batch Normalization也可以避免。貌似我们只要无脑的增加网络的层数,我们就能从此获益,但实

2021-05-25 10:20:10 1848

转载 如何一步一步提高图像分类准确率?

一、问题描述当我们在处理图像识别或者图像分类或者其他机器学习任务的时候,我们总是迷茫于做出哪些改进能够提升模型的性能(识别率、分类准确率)。。。或者说我们在漫长而苦恼的调参过程中到底调的是哪些参数。。。所以,我花了一部分时间在公开数据集CIFAR-10 [1] 上进行探索,来总结出一套方法能够快速高效并且有目的性地进行网络训练和参数调整。CIFAR-10数据集有60000张图片,每张图片均为分辨率为32*32的彩色图片(分为RGB3个信道)。CIFAR-10的分类任务是将每张图片分成青蛙、卡车、飞机

2021-05-20 16:43:50 2537

原创 Springboot 整合Rabbit MQ

该篇文章内容较多,包括有rabbitMq相关的一些简单理论介绍,provider消息推送实例,consumer消息消费实例,Direct、Topic、Fanout的使用,消息回调、手动确认等。 (但是关于rabbitMq的安装,就不介绍了)在安装完rabbitMq后,输入http://ip:15672/,是可以看到一个简单后台管理界面的。在这个界面里面我们可以做些什么?可以手动创建虚拟host,创建用户,分配权限,创建交换机,创建队列等等,还有查看队列消息,消费效率,推送效率等等。以上..

2021-04-30 15:39:38 133 1

原创 图解Transformer(译)

原文链接Transformer由论文Attention is All You Need提出。作为Tensor2Tensor包的一部分,该论文的TensorFlow实现代码可以从GitHub上获取。哈佛大学的NLP小组制作了一个PyTorch版本的指南说明。在以下的介绍中,我们试图简化难度,逐一介绍相关的概念,希望这样能够让普通的读者也能够轻易的理解本文。Transformer结构图如下:宏观角度我们先将整个模型视为一个黑箱。在机器翻译应用中,该模型接收一种语言的句子作为输入,然后将.

2021-04-16 15:59:55 498

jdk8安装包.zip

Windows64 jdk8版本

2021-09-08

作业3.docx

面向对象

2019-10-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除