自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(179)
  • 收藏
  • 关注

原创 本地计算机连接两个Github账号

连接两个Github账号

2023-12-15 01:29:04 372

原创 Windows不解锁屏幕自启动程序

Windows不解锁屏幕自启动程序序言方法序言实验室的要求比较脑残,晚上居然还要求人走断电。作为计算机专业并且喜欢偷点懒的同学,偶尔想在宿舍远程连接一下实验室电脑学习(su cheng)一下,这种要求真的有点狗血。因此,我想让实验室电脑通电便自动开机,并且在不解锁电脑屏幕的情况下自动连接校园网,还能在自动打开远程连接的程序。前前后后花了不少的时间(zhuyaoshiwotailaji),今天终于搞定了。方法电脑通电自启比较简单,有的主板本身就支持,进bios设置一下就行。电脑自动连接校园网还有有点

2022-03-15 17:01:24 3492 2

原创 神经网络最后一层处理

神经网络最后一层处理回归任务分类任务二分类多分类通常,根据目标任务的不同,神经网络的最后一层处理方式也会不同。这篇文章将根据任务类型分别讨论。回归任务如果目标任务的预测值在 (−∞,+∞)(-\infty,+\infty)(−∞,+∞),一般默认不使用激活函数,意味着神经网络的输入和输出是线性关系。不过,以这种目标为任务的神经网络,一般在隐藏层使用非线性激活函数,在输出层不使用激活函数。如果目标任务的预测值在 [0,+∞)[0,+\infty)[0,+∞),一般使用ReLU,例如房价预测的回归任务。

2022-03-14 16:28:34 5551 1

转载 欧/非欧几里得数据

欧/非欧几里得数据欧几里得数据非欧几里德数据欧几里得数据像图片(image) 和视频(video) 以及 语音(voice) 这些排列整齐的数据可以用矩阵来表达,如:图片数据天然的,节点和邻居节点有着统计上的相关性,因此能够找出邻居节点。这类型的数据排列整齐,不同样本之间可以容易的定义出“距离”这个概念出来,意味着可以很容易地定义出卷积这个操作出来,并且在深度网络中进行进一步操作。假设现在有两个图片样本,尽管其图片大小可能不一致,但是总是可以通过空间下采样的方式将其统一到同一个尺寸的,然后直接逐个像

2022-03-01 21:45:08 2775

原创 Graph Embeding—DeepWalk、Line、SDNE、Node2vec、Struc2vec

Graph Embeding—DeepWalk、Line、SDNE、Node2vec、Struc2vec概念什么是图嵌入(网络嵌入)?为什么用Graph Embeding?DeepWalk(2014)LINE(2015)SDNE(2016)Node2vec(2016)Struc2vec(KDD 2017)扩展概念什么是图嵌入(网络嵌入)?图嵌入就是将图中的节点用一个较低维度的向量表示,并且这些向量要能反应原先图的某些特性,如在原图中两个节点的结构类似,那么这两个节点的向量表示也应该类似。机器学习下游

2022-02-27 23:42:13 1085

原创 latex编译报错问题集

latex编译报错问题集1、bib文件项目(entry)重复1、bib文件项目(entry)重复This is BibTeX, Version 0.99d (TeX Live 2021/W32TeX)The top-level auxiliary file: perception.auxThe style file: IEEEtran.bstDatabase file #1: perception.bibRepeated entry—line 465 of file perception.bib

2022-02-27 11:10:28 5052 4

原创 __init__.py文件和__init__()函数的作用

__init__.py和__init__函数的作用__init__.py文件__init__函数init.py文件一个包是一个带有特殊文件 init.py 的目录。init.py 文件定义了包的属性和方法。它也可以什么都不定义,可以只是一个空文件,但是必须存在。如果 init.py 不存在,这个目录不是一个包,也不能被导入或者包含其它的模块和嵌套包。__init__函数__init__方法的作用类似于C中的构造函数,但是使用也有区别。在子类不重写__init__方法时,子类会默认调用父类中的__in

2022-01-25 12:49:20 706

原创 邻接矩阵的操作:有向图转化为无向图

邻接矩阵的操作:有向图转化为无向图import scipy.sparse as spimport numpy as npadj = sp.coo_matrix(((5,1,6,2,3,4,7),([0,0,1,1,2,3,4],[0,2,1,3,4,4,2])), shape=(5,5),dtype=np.float32)print(adj.A) # 原始矩阵'''[[5. 0. 1. 0. 0.] [0. 6. 0. 2. 0.] [0. 0. 0. 0. 3.] [0. 0. 0. 0

2022-01-24 20:40:20 1989

原创 矩阵sp.coo_matrix()

稀疏矩阵sp.coo_matrix描述例子描述sp.coo_matrix()用于生成坐标格式的矩阵(Coodrdinate format matrix)。例子import scipy.sparse as spimport numpy as nprow = np.array([0, 3, 1, 0])col = np.array([0, 3, 1, 2])data = np.array([4, 5, 7, 9])B = sp.coo_matrix((data, (row, col)),

2022-01-24 18:29:13 3006

原创 Python3 字典 get() 方法

@[TOC](Python3 字典 get() 方法)描述Python 字典 get() 函数返回指定键的值,dict.get(key, default=None)。参数key – 字典中要查找的键。default – 如果指定的键不存在时,返回该默认值。例子tinydict = {'Name': 'Runoob', 'Age': 27}print ("Age 值为 : %s" % tinydict.get('Age'))print ("Sex 值为 : %s" % tinydict

2022-01-24 17:46:27 964

原创 Python map() 函数

Python的map函数描述参数例子描述map(function, iterable, ...) 会根据提供的函数对指定序列做映射。第一个参数 function 以参数序列中的每一个元素调用 function 函数,返回包含每次 function 函数返回值的“新列表”。参数function – 函数iterable – 一个或多个序列例子def square(x) : # 计算平方数 return x ** 2map(square, [1,2,3,4,5]) #

2022-01-24 17:29:00 100

原创 import引用自定义包、模块sys.path.append()

import引用自定义包、模块)sys.path.append(问题sys.path.append()os.path.dirname(__file__)问题当引用不同文件下的自定义包时,容易出现以下问题ModuleNotFoundError: No module named 'ge'由于import xxx时,默认情况下python解释器会搜索当前目录、已安装的内置模块和第三方模块,不能搜索其它目录。因此,需要我们手动使用sys.path.append()添加sys.path.append()

2022-01-23 20:40:17 1439

原创 概率论与数理统计的基本概念

概率论与数理统计的基本概念概率密度(函数)分布函数分布表分布律二维随机变量联合概率密度联合分布函数联合分布表联合分布律边缘概率密度边缘分布函数边缘分布律概率密度(函数)概率密度函数(又称概率密度),在很多场景下是一个小山峰线,记为f(x)。f(x)的横坐标为组距,纵坐标为频率/组距,这个小山峰线和横坐标围成的面积(小山峰面)表示频率,值为1。分布函数分布函数是一个概率,是随机变量X存在于区间负无穷至x上的概率,记为F(x),是上面介绍的小山峰面的一部分。连续型随机变量的概率需要计算概率密度函数

2022-01-18 19:52:55 2210

原创 更新win11之后人脸识别不用录入和使用

更新win11之后人脸识别不用录入和使用大概率是因为照相机驱动问题所致,需要回退到上一个版本的驱动程序。具体解决步骤如下:右击win标,选择设备管理器,找到照相机,下面一般有两个驱动右击Integrated lR Camera,更新驱动程序,选择浏览我的电脑以查找驱动程序。然后选择让我从计算机上…最后安装10.0.19041.20188[2021/5/27]这个版本的驱动即可。...

2021-08-20 19:36:50 1250

原创 Graph Neural Networks—GCN、GraphSAGE、GAT

GCN(1stChebNet)与GraphSage的不同:GCN需要将整个图(邻接矩阵)输入进去,GraphSage不用输入整个图的拓扑结构,可以批量处理;GCN是直推式的方法,GraphSage是归纳式的方法,可以处理unseen node;GCN聚合了每个邻居的信息,GraphSage采样固定数量的邻居;GCN的输入有节点编号列表、节点特征、邻接矩阵,而GraphSage的输入包括三个部分,节点编号列表、每个节点的邻居列表、节点的特征表示矩阵;GCN表面看起来是谱域方法,其实也是一种空域方法

2021-04-19 02:03:31 2204

原创 python私有、公有、专有

私有方法某些对象(属性、方法、函数、类等)只能够在某个范围内访问,出了这个范围就不能访问了,这是“公”、“私”之分。此外,还会专门为某些特殊的东西指定一些特殊表示,比如类的名字用 class,方法用 def,这就是保留字。除了保留字,Python 中还为类的名字做了某些特殊准备,就是“专有”的范畴。以“__”双划线开头的,将这类命名的函数/方法称之为“私有函数”。所谓“私有”,即:私有函数不可以从它们的模块外面被调用私有类方法不能够从它们的类外面被调用私有属性不能够从它们的类外面被访问跟私有

2020-07-03 17:27:36 1234

原创 Side Information-KGAT: Knowledge Graph Attention Network for Recommendation阅读笔记

Xiang Wang, Xiangnan He, Yixin Cao, Meng Liu and Tat-Seng Chua (2019). KGAT: Knowledge Graph Attention Network for Recommendation. Paper in ACM DL or Paper in arXiv. In KDD’19, Anchorage, Alaska, USA, August 4-8, 2019.@inproceedings{KGAT19,author =.

2020-06-28 13:05:50 543

原创 Side Information-Knowledge Graph Convolutional Networks for Recommender Systems阅读笔记

Knowledge Graph Convolutional Networks for Recommender Systems基本信息作者Hongwei Wang∗, Miao Zhao, Xing Xie, Wenjie Li, Minyi Guo†[重要作者提示]†Dr. Minyi Guo (过敏意), Zhiyuan Chair Professor, IEEE Fellow, ACM Distinguished Member标签Recommender systems; Knowledge

2020-06-27 16:33:49 1224

原创 RGCN-Modeling Relational Data with Graph Convolutional Networks阅读笔记

作者:来自于 University of Amsterdam 的 Michael Schlichtkrull, Thomas N. Kipf(GCN的作者), Peter Bloem(VU Amsterdam), Rianne van den Berg, Ivan Titov, Max WellingAbstractKnowledge graphs enable a wide variety of applications, including question answering and inform

2020-06-26 22:20:46 1825 1

原创 GraphSage-Inductive Representation Learning on Large Graphs阅读笔记

William L. Hamilton∗,Rex Ying∗,Jure LeskovecNIPS 2017AbstractLow-dimensional embeddings of nodes in large graphs have proved extremely useful in a variety of prediction tasks, from content recommendation to identifying protein functions. However, most e

2020-06-24 22:42:38 757

原创 使用深度学习做推荐系统-Neural Collaborative Filtering

He X, Liao L, Zhang H, et al. Neural Collaborative Filtering[C]// International Conference on World Wide Web. International World Wide Web Conferences Steering Committee, 2017:173-182.Abstract近年来,深度神经网络在语音识别,计算机视觉和自然语言处理方面取得了巨大的成功。但是,在推荐系统上对深层神经网络的探索研究相对

2020-06-20 01:05:56 1058

原创 推荐系统矩阵分解-基于SVD协同过滤的推荐

奇异值分解(Singular value decomposition)是一种矩阵分解技术,也是一种提取信息的方法。将一个比较复杂的矩阵用更小更简单的3个子矩阵的相乘来表示,这3个小矩阵描述了大矩阵重要的特性,可以起到降维简化数据,去除数据噪声的作用。...

2020-06-19 19:22:51 1614 1

原创 A Guide to Singular Value Decomposition for Collaborative Filtering阅读笔记

本文的方法来自:A Guide to Singular Value Decomposition for Collaborative FilteringChih-Chao MaDepartment of Computer Science, National Taiwan University, Taipei, TaiwanAbstractAs the market of electronic commerce grows explosively, it is important to provide

2020-06-18 11:10:19 397

原创 奇异值分解SVD

奇异值是矩阵里的概念,一般通过奇异值分解定理求得。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是也一个重要的方法。在机器学习领

2020-06-17 20:16:09 366

原创 Memory-based的CF推荐--Item-based的方法:Item-Based Collaborative Filtering Recommendation Algorithms

Badrul Sarwar, George Karypis, Joseph Konstan, and John Riedl摘要推荐系统将知识发现技术应用于在生活中针对信息、产品或服务提出个性化建议的问题。这些系统,尤其是基于k近邻协同过滤的系统,正在网络上获得广泛的成功。可用信息的巨大增长,以及最近访问Web站点的访客的数量,对推荐系统提出了一些挑战。它们是:产生高质量的推荐,每秒为数百万个用户和项目提供高质量推荐,并在数据稀疏的情况下实现更高的质量。在传统的协作过滤系统中,工作量随着系统中参与人数的增

2020-06-17 16:28:24 525

原创 推荐系统概述、分类

一、推荐系统的基本思想知你所想,精准推送利用用户和物品的特征信息,给用户推荐那些具有用户喜欢的特征的物品。物以类聚利用用户喜欢过的物品,给用户推荐与他喜欢过的物品相似的物品。人以群分利用和用户相似的其他用户,给用户推荐那些和他们兴趣爱好相似的其他用户喜欢的物品。二、推荐系统的数据分析1、用户个人信息(注册信息)喜好标签(勾选)上下文信息(浏览过什么,浏览记录,用户的行为习惯)2、物品内容信息(基本信息)分类标签(类别)关键词假如物品的特征和用户相匹配,即可。3

2020-06-17 00:01:59 3013

原创 机器学习(深度学习)中的metrics

本文以二分类问题作讨论,多分类可以类推。混淆矩阵

2020-06-16 16:30:59 6792

原创 BERT直观理解

BERT架构图 简单解释一下BERT的架构图。位置向量解决了时序问题(RNN不能并行的执行,只能一个一个的来,但是不一个一个的来,时序即word的先后顺序,怎么处理呢,位置向量就解决了);Self-Attention解决RNN不能并行的问题,multi-head可以提取到多种语义的层次表达,这一部分是核心;接着将向量层的数据(向量表示)和Mutil-Head-Attention的数据进行合并,这个操作叫残差连接,为了使下一层不比上一层差,其中归一化(标准化)的操作是为了更好的求导,防止梯度消失,还能

2020-06-05 23:14:28 791

原创 BERT简单理解-入门

简介BERT模型来自谷歌团队的paper——BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,它在11个NLP任务中刷新了成绩,效果非常好,非常惊人。但是,这项工作不是很好复现,如果没有足够的资源就不要想了 。之前,利用预训练的语言表征来完成下游NLP任务的研究,可以概括为两类:feature-based和fine-tuning。feature-based类别比如ELMo,fine-tuning

2020-05-31 23:36:06 1739

原创 Attention机制

想要看懂时下流行的Bert,必须要先弄懂Transformer,弄懂Transformer还得搞清楚什么是Attention。概述Attention机制之所以能够迅速发展,主要是它解决了很多难题,它的总体思路为从关注全部到关注重点。主要有以下特点:效率高Attention 通过选择性聚焦,一定程度上解决了 RNN 不能并行计算的问题。Attention机制每一步计算不依赖于上一步的计算结果,因此可以和CNN一样并行处理。效果好在MT、QA、情感分析、POS、parsing和对话等任务中使用at

2020-05-30 00:50:15 318

原创 深度学习-批标准化(批归一化,Batch Normalization)

Google在ICML文中描述得非常清晰,即在每次SGD时,通过mini-batch来对相应的activation做标准化操作,使得结果(输出信号各个维度)的均值为0,方差为1。而最后的“scale and shift”操作则是为了让因训练所需而“刻意”加入的BN能够有可能还原最初的输入,从而保证整个network的capacity(非线性、表达能力)。为什么深度神经网络随着网络深度加深,训练起来越困难,收敛越来越慢?这是个在DL领域很接近本质的好问题。很多论文都是解决这个问题的,比如ReLU激活函数,再

2020-05-24 13:01:38 2207 1

原创 深度学习-激活函数

激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。引入非线性激活函数,可使深层神经网络的表达能力更加强大。优秀的激活函数应满足:非线性: 激活函数非线性时,多层神经网络可逼近所有函数可微性: 优化器大多用梯度下降更新参数单调性: 当激活函数是单调的,能保证单层网络的损失函数是凸函数近似恒等性:f(x)≈xf(x) \approx xf(x)≈x . 当参数初始化为随机小值时,神经网络更稳定激活函数输出值的范围:激活函数输出为有限值时,基于梯度的优化方法更稳定激活函数输出为无

2020-05-23 14:59:59 605

原创 指数衰减-学习率

在神经网络的参数更新过程中,学习率不能太大也不能太小,太大可能会导致参数在最优值两侧来回移动,太小会大大降低优化速度,为了解决学习率的问题,TensorFlow 提供了一种灵活的学习率设置方法,即指数衰减法。TensorFlow API: tf.keras.optimizers.schedules.ExponentialDecay每迭代一轮,新的学习率都会根据以上参数更新一次,式子如下:decayed_learning_rate = learning_rate * decay_rate ^ (g

2020-05-23 10:22:24 4042

原创 with在python中的用法和含义

With语句的基本语法格式:"""格式with expression [as target]: with_body"""参数说明:expression:是一个需要执行的表达式;target:是一个变量或者元组,存储的是expression表达式执行返回的结果,可选参数。with open('1.txt') as f: print(f.read()) print(f.closed)在with语句块中就可以使用这个变量操作文件,执行with这个结构之后,f会自动关闭,相

2020-05-22 16:11:59 1282

原创 Python创建二维数组的一个坑

m = n = 3test = [[0] * m] * nprint("test =", test)test = [[0, 0, 0], [0, 0, 0], [0, 0, 0]]是不是看起来没有一点问题?其实不然,往下看:m = n = 3test = [[0] * m] * nprint("test =", test)test[0][0] = 22print("test =", test)test = [[22, 0, 0], [22, 0, 0], [22, 0, 0]

2020-05-21 20:04:13 267

原创 64. Minimum Path Sum 最小路径和 code

Given a m x n grid filled with non-negative numbers, find a path from top left to bottom right which minimizes the sum of all numbers along its path.Note: You can only move either down or right at any point in time.Example:Input:[ [1,3,1],[1,5,1],

2020-05-21 19:53:56 189

原创 300. Longest Increasing Subsequence 最长上升子序列 code

Given an unsorted array of integers, find the length of longest increasing subsequence.Example:Input: [10,9,2,5,3,7,101,18]Output: 4Explanation: The longest increasing subsequence is [2,3,7,101], therefore the length is 4.Note:There may be more than

2020-05-19 22:33:11 159

原创 120. Triangle 三角形最小路径和 code

Given a triangle, find the minimum path sum from top to bottom. Each step you may move to adjacent numbers on the row below.For example, given the following triangle[ [2], [3,4], [6,5,7], [4,1,8,3]]The minimum path sum from top to botto

2020-05-19 22:25:11 180

原创 322. Coin Change 找零钱 code

You are given coins of different denominations and a total amount of money amount. Write a function to compute the fewest number of coins that you need to make up that amount. If that amount of money cannot be made up by any combination of the coins, retur

2020-05-19 20:51:33 188

原创 53. Maximum Subarray 最大子序和 code

Given an integer array nums, find the contiguous subarray (containing at least one number) which has the largest sum and return its sum.Example:Input: [-2,1,-3,4,-1,2,1,-5,4],Output: 6Explanation: [4,-1,2,1] has the largest sum = 6.Follow up:If you h

2020-05-19 15:00:48 163

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除