自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

【AI机器学习与知识图谱】的博客

定期发布知识图谱,自然语言处理、机器学习、深度学习、深度学习框架TensorFlow、Python实战的小知识

  • 博客(106)
  • 收藏
  • 关注

原创 深度学习多种模型评估指标介绍 - 附sklearn实现

1、准确率accuracy预测正确的样本数/总样本数,但accuracy对于样本数据不均衡的问题来说不具有说服力,当样本不均衡时,准确率即是很高也不代表分类器效果好#准确率from sklearn.metrics import accuracy_scorey_true = [2, 1, 0, 1, 2, 0]y_pred = [2, 0, 0, 1, 2, 1]accuracy_s...

2019-03-26 20:51:56 3582 1

原创 fastText原理和文本分类实战,看这一篇就够了

fastText原理篇一、fastText简介fastText是一个快速文本分类算法,与基于神经网络的分类算法相比有两大优点:1、fastText在保持高精度的情况下加快了训练速度和测试速度2、fastText不需要预训练好的词向量,fastText会自己训练词向量3、fastText两个重要的优化:Hierarchical Softmax、N-gram二、fastText模型架构...

2019-03-19 11:19:48 143835 30

原创 【收藏】十个深度学习和机器学习问题速问速答

一、谈如何划分训练集、验证集和测试集高质量验证集、测试集、训练集对于神经网络至关重要,验证集目的:在多个算法中选出最有效的算法,测试集目的:正确评估分类器的性能那如何划分训练集、验证集、测试集,在小数据量时,例如1000,10000时划分标准可参考(70%,30%)(无验证集)、(60%,20%,20%),当百万数据及以上时,如100万,我们可能只需要10000个作为验证集,10000作为测...

2018-12-17 21:47:46 996

原创 机器学习岗面试准备提纲笔记

本文仅仅是机器学习岗位自己面试前的准备提纲,可供参考,后续有待补充,不详细谈各个问题的具体解法,仅限于提纲一、数据结构算法面试中算法题是少不了的,这体现一个程序员的基本功,因此平时要多多在Leetcode、牛客网上刷题,所以在面试前倒也没办法突击准备,注重平时多积累,说道最简单且容易忽视的算法也就是排序算法,因此面试前也是可以临时抱佛脚准备一下排序算法:简单排序算法:冒泡排序、选择排序、...

2018-11-30 23:35:39 842

原创 降维算法原理篇:主成分分析PCA、奇异值分解SVD、因子分析法FA、独立成分分析ICA等原理详推

一、前话在降维算法中,我们经常要用到协方差的概念,下面给出协方差,相关系数等概念解释协方差描述两个变量的相关程度,同向变化时协方差为正,反向变化时协方差为负,而相关系数也是描述两个变量的相关程度,只是相关系数对结果相当于做了归一化处理,协方差的值范围是负无穷到正无穷,而相关系数值范围是在负一到正一之间,详细描述参考:如何通俗易懂地解释「协方差」与「相关系数」的概念数据降维作用1、减少存储...

2018-11-26 19:10:32 5384

原创 机器学习算法篇:谈Softmax激活函数以及Softmax回归和Logistic回归关系

一、神经网络中的Softmax函数1、Softmax函数定义Softmax函数常在神经网络输出层充当激活函数,将输出层的值通过激活函数映射到0-1区间,将神经元输出构造成概率分布,用于多分类问题中,Softmax激活函数映射值越大,则真实类别可能性越大,下面先给出Softmax函数计算公式:aj= ezj∑kezka_{j} = \ \frac{e^{z_{j}}}{\sum...

2018-11-05 21:23:33 3486

原创 机器学习概念篇:一文详解凸函数和凸优化,干货满满

一、几何体的向量表示在介绍凸集等概念之前,首先介绍一下空间几何体的向量表示,下面在定义凸集概念时便用到了线段的线段表示。先通过一个例子来认识一下如何使用向量表示线段已知二维平面上两定点A(5, 1)、B(2, 3),给出线段AB的方程表示如下:{x1=θ∗5+(1−θ)∗2x2=θ∗1+(1−θ)∗3   &

2018-10-29 19:44:28 29488 15

原创 机器学习算法篇:从为什么梯度方向是函数变化率最快方向详谈梯度下降算法

梯度下降法是机器学习中常用的参数优化算法,使用起来也是十分方便!很多人都知道梯度方向便是函数值变化最快的方向,但是有认真的思考过梯度方向是什么方向,梯度方向为什么是函数值变化最快的方向这些问题嘛,本文便以解释为什么梯度方向是函数值变化最快方向为引子引出对梯度下降算法的研究,后面也将通过线性回归详细介绍梯度下降算法以及算法调优方式及其变种一、证明梯度方向是函数变化率最快方向1、由导数看...

2018-10-11 23:31:59 8003 1

原创 机器学习算法篇:最大似然估计证明最小二乘法合理性

最小二乘法的核心思想是保证所有数据误差的平方和最小,但我们是否认真思考过为什么数据误差平方和最小便会最优,本文便从最大似然估计算法的角度来推导最小二乘法的思想合理性,下面我们先了解一下最大似然估计和最小二乘法,最后我们通过中心极限定理克制的误差ε服从正态分布来引出最大似然估计和最小二乘法的关系一、最大似然估计先从贝叶斯公式说起:P(W∣X)= P(X∣W)P(W)P(X)...

2018-10-10 20:58:26 2892

原创 机器学习概念篇:监督学习、过拟合,正则化,泛化能力等概念以及防止过拟合方法总结

上个系列【数字图像处理】还将继续更新,最近由于用到机器学习算法,因此将之前学习到的机器学习知识进行总结,打算接下来陆续出一个【机器学习系列】,供查阅使用!本篇便从机器学习基础概念说起!一、解释监督学习,非监督学习,半监督学习的区别监督学习、非监督学习和半监督学习区别就是训练数据是否拥有标签信息 1、监督学习:给出了数据及数据的标准答案来训练模型,Regression回归问题、clas...

2018-10-09 22:11:06 3579

原创 logistic回归原理解析及Python应用实例

logistic回归,又叫对数几率回归(从后文中便可此名由来)。首先给大家强调一点,这是一个分类模型而不是一个回归模型!下文开始将从不同方面讲解logistic回归的原理,随后分别使用梯度上升算法和随机梯度上升算法将logistic回归算法应用到实例中。一、logistic回归和线性回归的关系想必大家也早有疑惑,既然logistic回归名字中都带有“回归”二者,难道和回归模型一点关系都没有!没错,二

2017-03-20 17:59:00 39238 13

原创 支持向量机(SVM)必备知识(KKT、slater、对偶)

SVM目前被认为是最好的现成的分类器,SVM整个原理的推导过程也很是复杂啊,其中涉及到很多概念,如:凸优化问题、拉格朗日乘子法、对偶问题,slater条件、KKT条件还有复杂的SMO算法!相信有很多研究过SVM的小伙伴们为了弄懂它们也是查阅了各种资料,着实费了不少功夫!本文便针对SVM涉及到的这些复杂概念进行总结,希望为大家更好地理解SVM奠定基础。一、凸集和凸函数在讲解凸优化问题之前我们先来了解一

2017-03-16 16:50:00 22761 11

原创 贝叶斯估计和极大似然估计到底有何区别

在开始接触最大似然估计和贝叶斯估计时,大家都会有个疑问:最大似然估计和贝叶斯估计二者很相似,到底有何区别?本文便来说说二者的不同之处以及推导二者使用时的数学模型!预热知识必知如何求类条件概率密度: 我们知道贝叶斯决策中关键便在于知道后验概率,那么问题便集中在求解类条件概率密度!那么如何求呢?答案便是:将类条件概率密度进行参数化。最大似然估计和贝叶斯估计参数估计: 鉴于类条件概率密度难求,我们将其

2017-03-12 21:28:00 39107 9

原创 【机器学习系列】HMM第四讲:从状态空间模型再回看HMM模型

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:HMM第四讲,本文针对一般的状态空间模型,介绍常探究的两大任务Learning问题和Inference问题。对于一般的状态空间模型State...

2021-05-26 14:28:51 780

原创 【机器学习系列】隐马尔科夫模型第三讲:EM算法求解HMM参数

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:HMM第三讲,本文详细推导使用EM算法求解隐马尔科夫模型Learning问题。隐马尔科夫模型Learning问题:属于参数估计问题,即如何求解..

2021-05-26 14:21:10 1063

原创 【机器学习系列】隐马尔科夫模型第二讲:前向算法、后向算法

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:HMM第二讲,本文主要讲解使用前向算法和后向算法求解隐马尔科夫模型的Evaluation问题。一、核心结论1.HMM Evaluation..

2021-05-26 14:13:28 1227

原创 【机器学习系列】隐马尔科夫模型第一讲:通俗易懂概述HMM

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:HMM第一讲,本文主要从隐马尔科夫模型背景、定义、两大假设和三个问题来理解HMM。一、初识HMM先从整体角度认识一下隐马尔科夫模型HMM,..

2021-05-26 13:59:13 505

原创 【机器学习系列】EM算法第三讲:由Jensen Inequality推导EM算法

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:EM算法第三讲,本文主要介绍如何通过Jensen Inequality推导出EM算法的优化公式。一、EM算法解决的问题通俗些说,EM算法就..

2021-05-23 10:23:31 356

原创 【机器学习系列】EM算法第二讲:由条件概率公式推导EM算法

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:EM算法第二讲,本文主要介绍如何通过条件概率公式推导出EM算法的优化公式。一、EM算法解决的问题通俗些说,EM算法就是求含有隐变量zzz的..

2021-05-23 10:17:17 477

原创 【机器学习系列】EM算法第一讲:EM算法相关概述及收敛性证明

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:EM算法第一讲,本文主要从以下四个方面介绍EM算法:EM算法解决的问题EM算法E-Step和M-StepEM算法收敛性证明EM算法延展思考..

2021-05-23 10:10:59 2122

原创 【自然语言处理系列】自编码器AE、变分自编码器VAE和条件变分自编码器CVAE

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文主要分享自编码器、变分自编码器和条件变分自编码器的相关知识以及在实际实践中的应用技巧,原创不易转载请注明出处,原稿获取请关注公众号【AI机器学习与知识图谱】回复:自编码器,下面首先简单认识一下:自编码器、变分自编码器和条件变分自编码器之间的关系。1.自编码器: 自编码器结构:Encoder将输入数据进行压缩,Decoder将其转化回输入的近似值,自编码器可以对输入进行重构,但是无法充当生成模型,变分自编码器可..

2021-05-22 14:59:48 4482

原创 【自然语言处理系列】预训练模型原理和实践综述 | 附汇报PPT原稿和18篇论文

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文主要分享自然语言处理中有关预训练模型原理和实践的学习资料,18篇原论文原稿获取请关注公众号后回复:预训练论文,ppt原稿获取请回复:Embedding,其中包括:一篇预训练模型原理综述一篇预训练模型代码实践综述一篇Fasttext的原理和实践综述一篇预训练相关的PPT汇报一、预训练模型原理具体见:干货 | NLP中的十个预训练模型二、预训练模型实践具体见:Word2vec, Fa..

2021-05-22 14:46:34 570 3

原创 【自然语言处理系列】14篇NER命名实体识别学术论文多角度超全对比 | 详见汇报PPT

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱这篇汇报从F1-Score、Wordunit、Word Emb、Charunit、Crf、Note、Efficiency、Gazetters和LM多个视角对比了14篇NER论文,14篇原论文获取请关注公众号后回复:NER综述。详细内容请见PPT内容。一、总结二、Paper PPT三、往期精彩【知识图谱系列】Over-Smoothing 2020综述【知识图谱..

2021-05-22 10:03:33 604 1

原创 【GNN框架系列】DGL第二讲:使用Deep Graph Library实现GNN进行链接预测

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文先简单概述GNN链接预测任务,接下来使用Deep Graph Library实现GNN进行链接预测,并对代码进行详细介绍,若需获取模型的完整代码,可关注公众号后回复:DGL第二讲完整代码一、GNN链接预测概述GNN链接预测任务,即预测图中两个节点之间的边是否存在。在Social Recommendation,Knowledge Graph Completion等应用中都需要进行链接预测。模型实现上是将..

2021-05-22 09:56:21 2351 3

原创 【GNN框架系列】DGL第一讲:使用Deep Graph Library实现GNN进行节点分类

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文先简单概述GNN节点分类任务,然后详细介绍如何使用Deep Graph Library + Pytorch实现一个简单的两层GNN模型在Cora引文数据上实现节点分类任务。若需获取模型的完整代码,可关注公众号后回复:DGL第一讲完整代码一、GNN节点分类概述节点分类是图/图谱数据上常被采用的一个学习任务,既是用模型预测图中每个节点的类别。在GNN模型被提出之前,常用的模型如DeepWalk,Node2..

2021-05-22 09:50:25 2142 2

原创 【知识图谱系列】六篇2020年知识图谱预训练论文综述 | 30页汇报ppt免费获取 | GCC,GraphCL,DGI,InfoGraph等模型

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文介绍六篇有关知识图谱预训练的优秀论文,大致上可分为两类,生成学习模型和对比学习模型。其中GPT-GNN模型是生成学习模型,模型灵感来源于自然语言处理中的GPT模型;GCC,GraphCL,DGI,InfoGraph和Multi-View这五篇属于对比学习模型。30页完整汇报ppt获取请关注公众号回复关键字:知识图谱预训练一、背景知识图谱预训练作用:图神经网络(GNNs)已被证明是建模图结构数据的强大..

2021-05-22 09:41:38 405

原创 【知识图谱系列】清华大学基于对比学习的图谱预训练模型GCC

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文介绍一篇基于对比学习的图谱预训练模型GCC(KDD 2020),介绍GCC模型核心点和模型思路,完整汇报ppt获取请关注公众号回复关键字:GCC一、背景知识图谱预训练作用:图神经网络(GNNs)已被证明是建模图结构数据的强大工具。然而,训练GNN模型通常需要大量的特定任务的标记数据,而获取这些数据往往非常昂贵。利用自监督GNN模型对未标记图谱数据进行预训练是减少标记工作的一种有效方法,然后将预训练学习..

2021-05-22 09:29:09 1569

原创 【知识图谱系列】基于Randomly Perturb的图谱预训练模型GraphCL

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文介绍基于Randomly Perturb互信息最大化的图谱预训练模型GraphCL(NIPS 2020),介绍模型核心点和模型思路,完整汇报ppt获取请关注公众号回复关键字:GraphCL一、背景知识图谱预训练作用:图神经网络(GNNs)已被证明是建模图结构数据的强大工具。然而,训练GNN模型通常需要大量的特定任务的标记数据,而获取这些数据往往非常昂贵。利用自监督GNN模型对未标记图谱数据进行预训练是..

2021-05-22 09:24:02 795

原创 【知识图谱系列】基于互信息最大化的图谱预训练模型DGI & InfoGraph

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文介绍两篇基于互信息最大化的图谱预训练模型DGI(ICLR 2019)和InfoGraph(ICLR 2020),介绍模型核心点和模型思路,完整汇报ppt获取请关注公众号回复关键字:DGI & InfoGraph一、背景知识图谱预训练作用:图神经网络(GNNs)已被证明是建模图结构数据的强大工具。然而,训练GNN模型通常需要大量的特定任务的标记数据,而获取这些数据往往非常昂贵。利用自监督GNN模..

2021-05-22 09:19:56 1812 1

原创 【知识图谱系列】基于生成式的知识图谱预训练模型GPT-GNN

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文介绍一篇基于生成式的图谱预训练模型GPT-GNN(KDD 2020),介绍GPT-GNN模型核心点和模型思路,完整汇报ppt获取请关注公众号回复关键字:GPT-GNN一、BackgroundBackground1、GPT/GPT2.0: GPT和GPT2.0是自然语言处理领域的生成式训练模型,预训练阶段通过大量预料进行无监督学习,预训练任务是单项语言模型,特征提取器用的是Transformer,预训练..

2021-05-22 08:48:45 1819

原创 【知识图谱系列】基于2D卷积的知识图谱嵌入

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文给大家推荐两篇知识图谱表示学习相关的论文,这两篇论文都是将传统图像中的2D卷积操作直接用到知识图谱模型中,并且取得了不错的效果。完整汇报ppt获取请关注公众号回复关键字:2D卷积知识图谱嵌入一、BackgroundKnowledge 1: 二维卷积常用在计算机视觉、图像处理领域,用于处理图片数据;而一维卷积常用于序列模型,多适用于自然语言处理领域。知识图谱是非结构化数据,即不具有文本序列清晰的上下文,..

2021-05-21 15:50:50 539

原创 【知识图谱系列】基于实数或复数空间的知识图谱嵌入

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文分享分享3篇有关知识图谱表示学习的优秀论文,简单介绍其核心思想,完整汇报ppt获取请关注公众号回复关键字:知识图谱嵌入一、Background本文给大家推荐三篇知识图谱表示学习相关的论文,这几篇论文都是针对三元组进行距离计算,对关系进行不同的定义。TransE模型在实数空间将关系看作从head node到tail node翻译操作,RotatE模型在复数空间将关系看作从head node到tail n..

2021-05-21 15:43:34 498

原创 【知识图谱系列】动态知识图谱表示学习综述 | 十篇优秀论文导读

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文分享一篇动态知识图谱表示学习综述汇报ppt,分享10篇优秀论文,简单介绍其核心思想,完整汇报ppt获取请关注公众号回复关键字:动态知识图谱一、何为动态图谱首先知识图谱本质上就是一个语义网络,由节点Node和边Edge构成,每个Node表示现实世界中存在的实体Entity,而每条边表示实体与实体之间的关系。简单来说,知识图谱就是把所有不同种类的信息连接在一起而得到的关系网络,比如社交网络。由于这种关..

2021-05-21 15:29:34 5363 1

原创 【知识图谱系列】基于Random Propagation的深度图神经网络

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文介绍一篇基于Random Propagation的深度图神经网络模型Grand(NIPS 2020),介绍Grand模型核心点和模型思路,完整汇报ppt获取请关注公众号回复关键字:Grand一、BackgroundKnowledge1、Over-fitting:在CNN卷积神经网络中,若CNN网络结构过于复杂过于Deep,且数据量有限的情况下,便会出现Over-fitting问题,Over-fitti..

2021-05-21 15:16:11 442

原创 【知识图谱系列】解耦Transformation和Propagation的深度图神经网络

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文介绍一篇解耦合Transformation和Propagation操作的自适应深度图神经网络模型DAGNN(KDD 2020),介绍DAGNN模型核心点和模型思路,完整汇报ppt获取请关注公众号回复关键字:DAGNN一、Motivation1. Over-fitting: 在CNN卷积神经网络中,若CNN网络结构过于复杂过于Deep,且数据量有限的情况下,便会出现Over-fitting问题,Over-..

2021-05-21 15:04:20 831

原创 【知识图谱系列】自适应深度和广度图神经网络模型

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文介绍一篇自适应深度和广度图神经网络表征学习模型Geniepath,介绍Geniepath模型核心出发点和模型思路,完整汇报ppt获取请关注公众号回复关键字:Geniepath一、MotivationPoint1: 在自然语言处理邻域中,一句话中词的上下文是很显然的,便可利用上下文对中心节点进行预测和表征。但在图数据中,节点node没有明确的上下文概念,因此在进行图表征学习时定义合适的上下文概念便至关重..

2021-05-21 14:50:51 977

原创 【知识图谱系列】知识图谱多跳推理之强化学习

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文分享一篇将强化学习应用在知识图谱多跳推理任务的汇报ppt,简要概述基本概念并推荐几篇近期的优秀论文,介绍其核心思想,完整汇报ppt获取请关注公众号回复关键字:知识图谱强化学习一、背景知识1、知识图谱:知识图谱是异质图Heterogeneous Graph,图中含有多种关系类型,一组事实(head entity, relation, tail entity)就代表图中的一个三元组;2、知识图谱推理:..

2021-05-21 14:39:52 4112

原创 【知识图谱系列】知识图谱的神经符号逻辑推理

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文分享一篇有关知识图谱上的神经网络和符号逻辑推理汇报ppt,简要概述基本概念并推荐几篇近期的优秀论文,介绍其核心思想,完整汇报ppt获取请关注公众号回复关键字:知识图谱符号逻辑推理一、背景知识1、知识图谱:知识图谱是异质图Heterogeneous Graph,图中含有多种关系类型,一组事实(head entity, relation, tail entity)就代表图中的一个三元组;2、知识图谱推..

2021-05-21 14:32:52 1763

原创 【知识图谱系列】多关系异质知识图谱表示学习综述

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文分享一篇多关系知识图谱表示学习汇报ppt,介绍近几年及2020新出的共七篇处理异质图的模型。先列出该汇报ppt中将要介绍的七篇论文:一、Motivation异质知识图谱研究的对象便是如何处理多关系知识图谱,多关系知识图谱中模型在做节点表征时便需要充分考虑到关系Relation,也就是边Edge对于实体表征的作用,因此异质知识图谱模型便会在做节点表征时加入Relation关系信息,那么如何合理充分结合n..

2021-05-21 14:16:59 893

原创 【知识图谱系列】知识图谱表示学习综述 | 近30篇优秀论文串讲

作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱本文分享一篇知识图谱表示学习汇报ppt,将知识图谱表示学习方法粗略分为四大类,涉及将近30篇优秀论文,只简单介绍其核心思想,完整汇报ppt获取请关注公众号回复关键字:知识图谱表示学习1、翻译距离模型:包括TransH、TransR、TransD、TranSparse、TransM、MianfoldE、TransF、TransA、KG2E、TransG、UM、SE模型等;2、语义匹配模型:包括RESCAL、Di..

2021-05-21 14:04:28 1274

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除