自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(71)
  • 收藏
  • 关注

转载 DCT变换的由来

离散域的DCT变换

2023-02-27 21:00:29 185

原创 pytorch distributed learning分布式训练

pytorch分布式训练

2022-12-27 20:07:03 281

原创 关于在循环中backward()的注意事项

trying to backward through the graph a second time (or directly access saved tensors after they have already been freed)

2022-12-14 18:32:42 841 1

原创 咽喉肿痛合谷穴照海穴

中医咽喉肿痛穴位针灸经验

2022-08-16 09:26:34 240

原创 Docker镜像拉取以及构建自己的镜像

主要参考:【入门】Docker练习场常见问题-天池大赛-阿里云天池假设云端库中提供了镜像名称为 abcd:v1.1目标是在该镜像环境下测试本地代码1、拉取镜像docker pull abcd:v1.12、再次基础上构建自己的本地镜像cd 到本地目录下新建Dockerfile 新建run.shdocker build -t yourimagename:1.1 . 3、构建完成后可先验证是否正常运行,正常运行后再进行推送。CPU镜像:yourimagename:1.1 GPU镜像:yourim

2022-07-04 17:09:21 2367 1

转载 CEloss对不同变量的梯度

1、CELoss 对 类别的梯度Cross entropy loss function is widely used in classification problem in machine learning. In this tutorial, we will discuss the gradient of it.We often use softmax function for classification problem, cross entropy loss function can be defi

2022-07-03 18:02:18 250

转载 哈密尔顿蒙特卡洛(Hamiltonian Monte Carlo)

哈密尔顿蒙特卡洛(Hamiltonian Monte Carlo)Metropolis-Hastings 采样方法的一个问题是它会展现出随机漫步式的行为,而随机漫步对参数空间的探索效率并不高——平均来说探索的距离与步数的平方根成正比(n−−√n,参考Random Walks in 1 dimension)。而简单的扩大步幅又会降低接受率。哈密尔顿蒙特卡洛(HMC)方法提供了一个新思路,即可以提高参数空间的探索效率,又能保持较高的接受率。哈密尔顿动力学介绍 HMC 采样方法之前需要先简单说一下哈.

2021-12-04 20:13:37 3945 1

转载 softmax求导

https://zhuanlan.zhihu.com/p/25723112这几天学习了一下softmax激活函数,以及它的梯度求导过程,整理一下便于分享和交流!一、softmax函数softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类!假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的softmax值就是更形象的如下图表示:softmax直白来说就是将原来输出是3,1,-3通过softmax函数一

2021-07-14 10:06:52 351

转载 JPEG quality 与图像质量

https://jdhao.github.io/2019/07/20/pil_jpeg_image_quality/

2021-06-08 17:13:04 2887

转载 流形与深度学习

转载自:https://yifdu.github.io/2018/11/25/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E4%B8%8E%E6%B5%81%E5%BD%A2%E5%AD%A6%E4%B9%A0%EF%BC%88%E4%B8%80%EF%BC%89/什么是流形流形学习的观点:认为我们所观察到的数据实际上是由一个低维流形映射到高维空间的。由于数据内部特征的限制,一些高维中的数据会产生维度上的冗余,实际上这些数据只要比较低的维度的维度就能唯一的表示。所.

2021-03-20 09:48:43 1699

转载 LeTex不錯的教程

https://liam.page/2014/09/08/latex-introduction/

2021-03-10 13:39:22 141

转载 Convolutional Neural Network Model Innovations for Image Classification 用于图片分类的CNN网络的演化创新性总结

https://machinelearningmastery.com/review-of-architectural-innovations-for-convolutional-neural-networks-for-image-classification/

2021-02-24 17:08:57 168

转载 一篇写得很好的inception model演化

https://towardsdatascience.com/a-simple-guide-to-the-versions-of-the-inception-network-7fc52b863202The Premise:Salient partsin the image can have extremelylarge variationin size. For instance, an image with a dog can be either of the following, a...

2021-02-24 11:20:09 152

原创 带着镣铐跳舞:无sudo权限安装多个cuda版本

背景:在实验室的集群上,有个人账号,却没有sudo权限。(也不好意思要,怕以后出问题)安装了conda来管理虚拟环境(本来用的virtualenv,但是后来发现还是conda好,因为conda进入虚拟环境之后仍然可以使用global的一些包和命令,但是virtualenv不行,是不能见到外部的,又没有sudo权限,不能随便安装包)。问题来源:一些经典老代码是tensoflow1.15 这个版本只能单独安装tensoflow-gpu 而且还要搭配cuda-10.0使用,然后集群机器上的版本是1

2021-02-01 21:21:29 588

转载 高维空间几何

1、正负曲率的理解:http://stanwagon.com/wagon/misc/htmllinks/invisiblehandshake_3.htmlA surface has positive curvature at a point if the surface curves away from that point in the same direction relative to the tangent to the surface, regardless of the cutting

2021-01-06 13:32:04 1233

转载 关于演化策略NES和协方差ES

转载自:https://blog.csdn.net/qq_39217470/article/details/107640778演化策略是一种求解参数优化问题的方法,所以我先介绍一下什么是优化。 1.优化(Optimization) 优化就是计算一个函数的最大值或者最小值的问题,下面以求解单变量的最小值为例进行介绍。 假设函数f(x)的具体表达式是未知的,把它看作一个黑盒函数,我们只能通过向盒子输入得到输出。它可能存在局部最小点和全局最小点,很显然进...

2020-12-12 11:58:35 3172 1

原创 matplotlib pyplot imshow show did not work and show image with virtualenv

origin blog: https://www.pyimagesearch.com/2015/08/24/resolved-matplotlib-figures-not-showing-up-or-displaying/Problem:Matplotlib figures not showing up or displayingAs I hinted at earlier in this post, the missing figure issue is related to the matplo

2020-09-23 22:27:12 169

原创 Process of Install Nvidia Driver450 and CUDA11.0 on Ubuntu 20.04 with kernal-5.4.0-47-generic

Totally,I have spend almost 4-5 days for this procedure.There is two way to install cuda and nvidia.1\ seperate the installation of Nvidia Driver and CUDA toolkit.Because CUDA toolkit contains Nvidia Driver installation,so if you have installed Nvidi

2020-09-21 18:10:25 251

原创 Towards Evaluating the Robustness of Neural Networks论文解读集合

比较好一点的论文解读:https://lifengjun.xin/2020/03/14/%E3%80%90%E8%AE%BA%E6%96%87%E7%AC%94%E8%AE%B0%E3%80%91-Towards-Evaluating-the-Robustness-of-Neural-Networks/下面这个视频是作者本人的oral presentation ,讲的是论文思路,很不错。https://www.bilibili.com/video/av884481653/首先是将生成对抗..

2020-09-08 17:20:32 607

转载 攻击样本生成算法之 L -BFGS(实质上是优化算法的合理实现)

转载自https://www.hankcs.com/ml/l-bfgs.html译自《Numerical Optimization: Understanding L-BFGS》,本来只想作为学习CRF的补充材料,读完后发现收获很多,把许多以前零散的知识点都串起来了。对我而言,的确比零散地看论文要轻松得多。原文并没有太多关注实现,对实现感兴趣的话推荐原作者的golang实现。数值优化是许多机器学习算法的核心。一旦你确定用什么模型,并且准备好了数据集,剩下的工作就是训练了。估计模型的参数(训练模型)通常

2020-09-05 10:53:24 1294

转载 向量、矩阵范数

MARk,不常用的话就会经常忘记---------------------作者:zjpp2580369来源:CSDN原文:https://blog.csdn.net/zjpp2580369/article/details/83478204版权声明:本文为博主原创文章,转载请附上博文链接!---------------------正文:https://www.zhihu.com/question/20473040可以从函数、几何与矩阵的角度去理解范数。我们都知道,函数与...

2020-08-31 11:58:56 143

原创 图神经网络GNN

综述性文章:https://zhuanlan.zhihu.com/p/75307407?from_voters_page=trueACL 2020 中山大学的一篇 利用图神经网络进行事实检测的文章https://mp.weixin.qq.com/s/kb_6iYMQd1wwzLlyJa9OgAICLR 2020 上的图神经网络好文:https://zhuanlan.zhihu.com/p/137763936github关于GNN的历史与发展https://baijiah...

2020-06-26 21:58:56 702

转载 全连接层的直观理解

参见https://zhuanlan.zhihu.com/p/33841176讲得还不错

2020-05-19 10:23:10 452

原创 pytorch的conv2d函数groups分组卷积使用及理解

重点在于groups参数的理解1、groups参数是如何影响卷积计算的conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=3)conv.weight.data.size()输出:torch.Size([6, 2, 1, 1])(此时转置参数Transposed默认为False,源码如下)当group=1时,该卷积层需要6*6*1*1=36个参数,即需要6个6*1*1的卷积核计算时就是

2020-05-19 09:49:28 14954 2

原创 pytorch中张量对张量的梯度求解:backward方法的gradient参数详解

问题起源:阅读《python深度学习:基于pytorch》这本书的tensor 与Autograd一节时,看到2.5.4非标量反向传播疑点在于:backward(gradient=)这一参数没有理由的就选择了(1,1),之后调整为(1,0)和(0,1)便能正确求解,对该参数的设置原理,反向梯度求解的过程没有说清楚。看完博客https://www.cnblogs.com/zhouyang209117/p/11023160.html便确认gradient这一参数的设置应该是根据使用者的需求,比如说设.

2020-05-09 11:01:28 2088 1

原创 anaconda下安装pytorch

环境: (在家mac 配置有点low 还是集显,凑合玩下)前提:已安装Anaconda,python 3.7目标:安装pytorch步骤1、conda create -n pytorch python=3.7步骤2、Mac上终端即为prompt,进入terminal 之后 输入condaactivatepytorch ,使用完环境之后退出环境(conda的三...

2020-05-08 09:12:31 304

转载 深度学习激活函数

https://www.cnblogs.com/CJT-blog/p/10421822.html如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function。如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。如果使用的话,激活函数给神经元引入了非线性因素,使得...

2020-04-23 11:31:43 746

原创 隐马尔科夫模型的相关知识点

复习隐马尔科夫模型:关联知识点:卡尔曼滤波算法(马尔科夫的思想类似于卡尔曼,隐变量一个离散 一个 连续而已)高斯噪声:参考https://blog.csdn.net/u013007900/article/details/78181249/https://www.cnblogs.com/wangguchangqing/p/6407717.htmlhttps://www.cnb...

2020-04-12 11:07:53 246

转载 计算机视觉研究入门全指南----新手博士需要准备的资料

这篇文章从一个刚刚开始计算机视觉研究的初学者的角度,详细探讨了这个领域的文献、专家学者、研究组、博客,并重点说明了如何开始研究,如何选择方向,如何看论文、实现代码、调试代码等,并详细说明了研究计算机视觉应该如何学习机器学习等。是初入该领域的博士、学者的非常值得详细考察和收藏的参考。(52CV.NET注释)由于微信公众号限制,文中很多超链接无法点击,访问https://www.52cv.net/...

2020-04-09 11:41:18 675

转载 人工智能顶会介绍

今天先谈谈AI里面tier-1的conferences, 其实基本上就是AI里面大家比较公认的top conference. 下面同分的按字母序排列:IJCAI (1+): AI最好的综合性会议, 1969年开始, 每两年开一次, 奇数年开. 因为AI实在太大, 所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个领域就没几篇了,象machine learning、com...

2019-11-17 15:06:09 563

转载 Hive基础二(join原理和机制,join的几种类型,数据倾斜简单处理)

相关链接:Hive基础一(数据库,表,分区表,视图,导入导出数据)Hive基础二(join原理和机制,join的几种类型,数据倾斜简单处理)Hive基础三(查询中常用的语法)【注意】有些语句会报错,这是因为hive版本问题,比如有些join中的outer不能省略,等等。一,Hive中join的原理和机制Hive中的Join可分为Common Join(Reduce阶段完成jo...

2019-10-30 20:52:43 295

转载 [NLP] 秒懂词向量Word2vec的本质

1. 引子大家好我叫数据挖掘机皇家布鲁斯特大学肄业我喝最烈的果粒橙,钻最深的牛角尖——执着如我今天我要揭开Word2vec的神秘面纱直窥其本质相信我,这绝对是你看到的最浅白易懂的 Word2vec 中文总结(蛤?你问我为啥有这个底气?且看下面,我的踩坑血泪史。。。)2. Word2vec参考资料总结(以下都是我踩过的坑,建议先跳过本节,阅读正文部分,读完全文回...

2019-02-16 10:05:42 738 1

转载 Locality Sensitive Hashing(LSH)之随机投影法

1. 概述LSH是由文献[1]提出的一种用于高效求解最近邻搜索问题的Hash算法。LSH算法的基本思想是利用一个hash函数把集合中的元素映射成hash值,使得相似度越高的元素hash值相等的概率也越高。LSH算法使用的关键是针对某一种相似度计算方法,找到一个具有以上描述特性的hash函数。LSH所要求的hash函数的准确数学定义比较复杂,以下给出一种通俗的定义方式:对于集合S,集合内元...

2019-01-21 11:12:29 1633 2

转载 大规模数据的相似度计算:LSH算法

前言最近在工作中需要去优化离职同事留下的用户协同过滤算法,本来想协同过滤嘛,不就是一顿算相似度,然后取top-k相似的用户去做推荐就完了。结果看代码的过程中,对计算相似度的部分却是一头雾水,主要是对其中使用的LSH算法不甚了解。经过了一番调研之后,才算是理解了这个算法的精妙,也感到自己之前的粗糙想法实在是naive。传统的协同过滤算法,不管是基于用户还是基于物品的,其中最关键的一个问题便是...

2019-01-18 15:26:11 4904

转载 从文档相似度计算看LSH(Locality Sensitive Hashing)

经常使用的哈希函数,冲突总是不招人喜欢。LSH却依赖于冲突,在解决NNS(Nearest neighbor search )时,我们期望:离得越近的对象,发生冲突的概率越高 离得越远的对象,发生冲突的概率越低由于是依靠概率来区分,总会有错判的问题(false positives/negatives)。由于LSH排除了不可能的对象集合,减少了需要处理的数据量,在NNS领域有很多成功的应用。...

2019-01-16 17:19:42 811

转载 局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介绍

局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介绍本文主要介绍一种用于海量高维数据的近似最近邻快速查找技术——局部敏感哈希(Locality-Sensitive Hashing, LSH),内容包括了LSH的原理、LSH哈希函数集、以及LSH的一些参考资料。一、局部敏感哈希LSH在很多应用领域中,我们面对和需要处理的数据往往是海量并且具有很高的维度...

2019-01-15 16:44:34 591

转载 Locality Sensitive Hashing ( LSH,局部敏感哈希 ) 详解

这篇文章想给大家介绍一个神奇的东东:LSH首先看看它有什么用先~它可以快速地找出海量数据中的相似数据点,听着有点抽象?那我们来举个实际的例子,比如说你有海量的网页(这里的网页是指你拥有的本地数据,不是指互联网上的),你现在想找和一个特定网页相似的其它网页,就比如你想在海量的网页中找出和我这篇博文相似的网页~最naive的方法就是去遍历整个数据集,一个一个页面去比较,看看哪一个页面和我的这个页面最相...

2019-01-15 16:27:03 1449 2

转载 Windows10系统下,彻底删除卸载MySQL

由于忘记MySQL root密码,根据网上的教程操作mysqld --skip-grant-tables 后连接mysql -uroot -p 又还是告诉我access denied ,我觉得mysql应该是被我玩坏了,又没空仔细研究了,所以索性重装。然后网上很多其他教程都删不干净,这是一篇删除干净了的,比较全面。本文介绍,在Windows10系统下,如何彻底删除卸载MySQL。。。...

2018-12-27 16:34:25 146

转载 [机智的机器在学习] 机器学习中的归一化和正则化问题

今天我们要说的是,在机器学习常用的算法里面,那些需要归一化,那些不需要,通过scikit-learn中的预处理的一些方法,实际了解如何正则化和归一化数据。看完本文,应该对于一般的机器学习任务,都可以轻松上手操作。先看一下归一化是什么意思,对于一个机器学习任务来说,首先要有数据,数据怎么来?一种情况是别人整理好给你,一种是自己造数据,根据不同的业务场景,自己提取想要的数据,一般来自各个维度的数据...

2018-12-17 20:43:41 322

转载 Sklearn-LogisticRegression逻辑回归参数详解

逻辑回归:可以做概率预测,也可用于分类,仅能用于线性问题。通过计算真实值与预测值的概率,然后变换成损失函数,求损失函数最小值来计算模型参数,从而得出模型。 sklearn.linear_model.LogisticRegression官方API:官方API:http://scikit-learn.org/stable/modules/generated/sklearn.linear_m...

2018-12-06 15:04:55 5239

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除