自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 python pandas 数据处理与数据分析

撒旦

2021-01-17 21:09:46 298

原创 torch使用tensorboard记录训练、验证过程,并对数据进行可视化

更详细内容可参考详解PyTorch项目使用TensorboardX进行训练可视化# 首先,导入包,创建用于记录数据的变量from torch.utils.tensorboard import SummaryWriterwriter = SummaryWriter()# 记录模型训练(train)、验证(val)过程的标量信息,如loss、准确率等writer.add_scalar()# 查看模型结构writer.add_graph(model)# 用 PCA 主成分分析方法将高维数据

2021-01-15 00:08:35 1781

原创 学习率调整lr_scheduler、Pytorch

参考torch.optim.lr_scheduler:调整学习率torch.optim.lr_scheduler模块提供了一些根据epoch训练次数来调整学习率的方法。torch.optim.lr_scheduler.ReduceLROnPlateau则提供了基于训练中某些测量值来调整学习率的方法。PyTorch 1.1.0及之后的版本中,学习率的调整应该放在optimizer更新之后,即 scheduler.step()的调用位置在 optimizer.step()之后,optimizer.ste

2021-01-14 17:30:19 943

原创 滑动平均/指数加权平均

参考理解滑动平均(exponential moving average)

2021-01-14 15:51:00 818

原创 神经网络与信号分析、滤波的关系

把一维样本当成一维频域或时域的离散信号采样数据,把二维样本当成时频域的离散信号采样数据则神经元模型中,矩阵乘法和加偏置,实际上就是信道矩阵H的作用,故此神经网络是一种滤波模型、也可以说是信号变换。从多隐层的深层神经网络模型来看,每个隐层相当于对问题进行了分治处理,从分治算法的角度来考虑,通常多隐层是有利于计算复杂度降低的...

2021-01-13 20:08:52 696 3

原创 numpy中,向量的维度应该设置成二维的,一个维度为1,不应该空置此维度

>>> a = np.random.randn(5)>>> print(a)[-0.58914551 0.01654543 -0.82039811 0.07362631 0.6865398 ]>>> print(a.shape)(5,) #列数不确定,不是列向量,避免上述用法>>> print(a.T)[-0.58914551 0.01654543 -0.82039811 0.07362631 0.6865398

2021-01-13 20:07:30 319

原创 python随机数种子

从numpy.random.randint()函数入手设置随机数种子>>> numpy.random.seed(42) #42可替换为任意整数>>> numpy.random.randint(10)6>>> numpy.random.randint(10)3>>> numpy.random.randint(10)7>>> numpy.random.seed(42)>>> num

2021-01-13 20:05:44 2750

原创 python作图与简单数据分析

Python基本作图在一个面板内画多个图:画图1;画图2;plt.show();在不同面板内画图:画图1;plt.show();画图2;plt.show();设置图例:plt.plot(x,y, label=’图例名’)plt.legend()在一个面板内画多个图,每个图都有图例,用一次plt.legend()即可:plt.plot(x,y, label=’图例名’)plt.plot(x1,y1, label=’图例名1’)plt.legend()保存图片:plt.sav

2021-01-08 18:56:04 424

原创 pip指定网址下载安装(清华源)

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple 包名

2020-12-28 22:54:26 3740

原创 神经网络一次性输入多样本时,向量维数的确定

当输入一个样本时,对应于神经元模型设输入是大小为n[0]的列向量x,第一层隐层神经元个数为n[1],对应列向量z[1],则有:z[1] = w[1]*x + b[1]易知w[1]是n[1] x n[0]大小的矩阵。当输入整个样本集(设一共m条样本),则此时输入是n[0] x m大小的样本矩阵(对应m个样本),z[1]是n[1] x m大小的矩阵(对应m个样本),而w[1]仍然是n[1] x n[0]大小的矩阵。...

2020-10-31 23:49:48 1692

原创 python取数组某几行或某几列

取某行X[0] #取第0行取某列X[:,0] #取第0列 X[:,-1] #取倒数第一列X[:,m:n] #取第m到第n-1列例:X[:,0:1] #取第0到第1列X[:,0:-1] #取第0到倒数第二列

2020-10-31 23:49:23 46801 3

原创 train_test_split()中shuffle、randomstate参数作用

X = array([[0, 1], [2, 3], [4, 5], [6, 7], [8, 9]])y = [0,1,2,3,4]X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42,shuffle=True)#多次运行,四个子集不变>>> X_train>>> array([[4

2020-10-29 10:14:09 7090 1

原创 Python中用max()、sum()等函数处理矩阵时,axis参数的作用

a = array([[ 1., 2., 3., 4.], [ 5., 6., 7., 8.], [ 9., 10., 11., 12.]])np.max(a, axis=1) #取每行的最大值>>>array([ 4., 8., 12.])np.max(a, axis=0) #取每列的最大值>>>array([ 9., 10., 11., 12.])

2020-10-05 16:45:42 1234

原创 conda重装另一个版本的包

pip install -U -i https://pypi.tuna.tsinghua.edu.cn/simple numpy==版本# -U 是重装# -i https://pypi.tuna.tsinghua.edu.cn/simple 是使用清华镜像

2020-05-05 15:50:18 1824

原创 5G SS/PBCH block 笔记

对于PBCH payload来说

2020-04-17 16:33:09 2092

原创 卷积

editing

2020-04-10 01:20:59 96

原创 OFDM数学原理及推导

以下推导不清楚的可以参考北邮通信原理教材

2020-04-10 01:07:22 3906 1

原创 广度优先搜索Bfs简洁归纳,与深搜的对比

// 起点是第0层,从起点最少需n步就能到达的点属于第n层 // 广搜扩展节点。如果扩展时记住了父节点则是广搜寻路 // 区分Dfs(本质上的区别在于Dfs是递归的,而Bfs不是递归的) Bfs() { initQueue(); //初始化队列q。队列元素为一个节点,当我们需要每个节点的层数时,将层数作为节点的属性。 while(!q.empty()) //队列不为空 { ...

2020-04-02 00:28:49 135

原创 机器学习决策树

对于一个结点,将它标记为叶结点(代表一个类别,递归终止位置)、或者根据某个属性a分为几个内部结点,再对每个内部构造子决策树,该子决策树的输入数据集变成了a的一个离散取值的样本集Di,Di中的样本每个样本在a上的取值都是ai。剩下的内容看《机器学习》上的内容就好,不需要做笔记...

2020-04-02 00:15:04 107

原创 神经网络

2020-03-30 22:16:16 100

原创 鸣人和佐助(老婆)

传送门鸣人和佐助

2020-03-22 14:56:10 456

原创 深搜Dfs遍历节点以及寻路

//深搜遍历从起点出发能走的所有节点//对于一个节点,只要发现了没走过的点就走到它,如果有多个点可走就任选一个(递归调用)//由于是从起点开始遍历,因此遍历过程也是产生路径的过程 ,因此深搜遍历是有路径信息的 ,单纯的根据数据结构遍历所有点是没有路径信息的 Dfs(V){ if(V是旧点) return ; 将V标记为旧点; for U in 和V相邻的点 : if(满足能走的条...

2020-03-21 14:42:26 785

原创 主成分分析PCA数学推导

参考:协方差矩阵与主成分分析(PCA)

2020-03-10 22:57:55 123

原创 线性判别分析LDA数学推导

更详细描述请参考:线性判别分析LDA详解在《机器学习》(周志华)第三章中遇到LDA,对那一小节一开始提到的协方差矩阵很不理解,我认为没有“投影后样本的协方差”这种说法,因为每个示例的投影是一个实数,这些实数组合起来是一个向量,怎么求协方差?找了多篇文章,我认为参考的这篇文章说得比《机器学习》那里更清楚。...

2020-03-08 21:40:55 531

原创 求样本的协方差矩阵、散度矩阵

多维随机变量的协方差矩阵,X=[X1,X2,X3,…,Xn]T,n个行向量,Xi并不取于同一样本?从n个行向量中每次取两个计算它们的协方差。样本的协方差矩阵

2020-03-07 19:30:09 5070 9

原创 《机器学习》(周志华)前五章笔记

《机器学习》(周志华)笔记目前问题2020.2.27——最近在做毕设,题目是复杂场景下基于CTPN技术的文本提取,涉及到了各种卷积神经网络,查阅许多资料后,仍对卷积为什么能提取特征这一问题不是很理解。Chapter 1 “属性”(attribute)也可称为“特征”(feature),将d个属性作为d个坐标轴,则他们张成一个用于描述一个西瓜的d维空间,由属性张成的空间称为“属性空间”(...

2020-02-27 23:28:20 411

原创 双指针扫描使用while

双指针扫描使用while而非使用一重for循环(使用两个iterator),后者明显不工整

2020-02-19 18:56:51 131

原创 AC “Hello Jimmy” 的辛酸

没考虑跳到下一个平台,但是会摔死情况,第二次编写时自然地发现了如果Jimmy恰好落在某个平台的边缘,被视为落在平台上。所以坐标判断有没有落在平台上要加等号对于情况2,可能有多个平台有端点重合,此时可以跳多个平台吗?实际上条件2隐含的意思是已经落在了最高的那个平台上,所以不用判断多个平台。也就是说,当我们按高度递减顺序找到第一个可以跳的平台,那么这个平台也是唯一可以跳的。参考了...

2020-02-18 00:22:57 108

原创 最佳加法表达式递推式分析

描述给定n个1到9的数字,要求在数字之间摆放m个加号(加号两边必须有数字),使得所得到的加法表达式的值最小,并输出该值。例如,在1234中摆放1个加号,最好的摆法就是12+34,和为36输入有不超过15组数据每组数据两行。第一行是整数m,表示有m个加号要放( 0<=m<=50)第二行是若干个数字。数字总数n不超过50,且 m <= n-1输出对每组数据,输出最小加法...

2020-02-15 21:08:52 270

原创 一般表达式、Boolean expressions递归解法

在学习郭炜老师的慕课时,做到了这一个题目。描述The objective of the program you are going to produce is to evaluate boolean expressions as the one shown next:Expression: ( V | V ) & F & ( F | V )where V is for Tr...

2020-02-12 23:28:35 952

原创 递归过程中如何处理字符数组的输出——采用buffer数组

递归过程中如何处理字符数组的输出有些递归函数要求求返回值,而有些递归函数则要求输出题目要求的字符数组。全排列问题:#include <iostream>#include <cstring>using namespace std;char buffer[6];int b = 0;void FullSeq(int SeqLength,char s[]){ ...

2020-02-12 23:27:32 281

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除