自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

JinyuZ1996的博客

持续学习,永无止境

  • 博客(28)
  • 资源 (8)
  • 收藏
  • 关注

原创 【论文泛读】Leveraging Distribution Alignment via Stein Path for Cross-Domain Cold-Start Recommendation

Leveraging Distribution Alignment via Stein Path for Cross-Domain Cold-Start Recommendation - 2021 NeurIPS这是一篇发在NeurIPS 2021会议上的文章,读到它其实是机缘巧合,在文章返修的时候,审稿人指出我们的Related Work中应该包含这篇,于是就把这篇文章粗略看了看,与我们投稿所关注的SCSR问题是有关联的,但问题也不完全类似。单就文章的思路来说,作者条理清晰,举例恰当,本人在阅读过程中受

2022-05-08 18:39:59 3704 2

原创 【科研分享】Matplotlib 绘制热力图(heatmap)进行实验结果分析

matplotlib绘制热力图展现实验结果写论文的时候又碰到了新的需求,为了呈现实验结果,这次需要做一个分析两个超参的图,搜了半天发现还是热力图最合适,但是在各处看了很多篇文章发现讲的要么不是太仔细,要么不太符合我的需求,于是决定投稿完事就赶紧写一篇文章记录一下,本文主要讲了一下如何使用matplotlib绘制热力图,并且给出了一些代码实验结果,分享给大家,希望能有用。预备工作前期环境配置老样子,先导包:pycharm-2021.2.2, python-3.7, mat

2022-05-07 18:40:14 19586 1

原创 【论文泛读】Easing Embedding Learning by Comprehensive Transcription of Heterogeneous Information Networks

Easing Embedding Learning by Comprehensive Transcription of Heterogeneous Information Networks [2018-SIGKDD]本文是我在上一篇泛读中提到的,被投在顶会SIGKDD上的2018年的引用文章,当时引用是为了解释域间行为信息不兼容偏差,并指出这篇引文中解释了网络信息中由于信息异构性而产生的语义不兼容问题。由于我个人主要关注与跨域推荐这一块儿,如果本文确实证明了这一点,那么他将是支持跨域公平性研究的一篇重要参

2022-04-21 18:44:03 1444

原创 【论文泛读】JSCN: Joint Spectral Convolutional Network for Cross Domain Recommendation

JSCN: Joint Spectral Convolutional Network for Cross Domain Recommendation - 2019 IEEE BigData本文发在了IEEE BigData 上,虽然非顶会,但其谷歌指数接近IJCNN,并且提供了代码,以借鉴其思路为主,在此分享给大家,具体如下:论文解决的具体问题和主要假设这是一篇域自适应相关的文章,也是最近看到的比较有意思的一篇处理文本跨域问题的文章。我在本文共找到两个公平性假设,第一个假设中作者认为域之间存在高阶连通

2022-04-15 17:21:58 3001

原创 【投稿推荐】推荐系统相关CCF会议及SCI期刊 更新24-01-04

本文列出了笔者课题组整理的推荐系统相关的CCF推荐会议以及相关的SCI期刊,为大家投稿指明方向,许多顶刊也许中科院分区或影响因子并不高,但确实是业内普遍认可的顶刊,大家需要仔细识别。同理,许多CCF-B类的会议质量并不输于A类顶会,比如WSDM等。希望本文能够给科研小白提供帮助。

2022-04-07 16:36:11 20632 12

原创 【论文泛读】Towards Long-term Fairness in Recommendation - 2021 - WSDM

Towards Long-term Fairness in Recommendation [2021-WSDM]本文是投在顶会WSDM上的2021年的新文章,旨在采用强化学习方法解决常规推荐环境中的曝光不公平问题。个人进行了泛读,摘要和评论如下(由于未进行精读可能会存在谬误):论文解决的具体问题和主要假设该篇论文站在item的角度,认为解决推荐系统的公平性问题,不应该在静态的或者在“使用一次性策略就能使之公平”的假设中进行,即公平性约束条件(或策略)应该是随着时间而动态变化的。例如,曾经t时刻流行的产

2022-04-07 16:07:22 765 1

原创 【科研分享】如何切换GPU以及如何在Tensorflow实验中节约GPU资源

  大家跑深度学习进行科研的时候,单机的算力往往无法支持我们进行例如图神经网络、强化学习网络等复杂模型的训练任务。所以常常需要使用服务器的GPU来训练模型,但是多人共用的服务器该如何避免冲突呢?这里给出一段常用的代码可以方便大家在查看NVIDIA 显卡GPU的使用情况之后,合理的切换gpu来预防冲突,同时本文还介绍了如何降低模型显存消耗的办法,主要针对Tensorflow框架。如何在多个GPU间进行选择图1:一个服务器中存在多块GPU可用的情况  如图1所示,就是同时有两块儿NVIDIA显卡可

2021-10-31 12:00:20 2399

原创 【科研分享】Matplotlib 绘制多子图(subplot)进行实验结果分析

本文主要总结于本人近期的科研经历,在最后撰写论文试验分析的时候曾经被导师要求绘制一幅2*8的16子图的超参数分析结果图。所以踩了很多坑,在这里给出简单的实现方式,本文使用的子图以折线图为例,其他的类型的图都可以举一反三。当然为了世界过程显得更加美观简洁,本文在最后也介绍了一点如何调整刻度的小技巧。预备工作前期环境配置  pycharm-2021.2.2, python-3.7, matplotlib-3.2.2

2021-10-27 12:31:47 2991

原创 【科研分享】监控服务器GPU、CPU和内存使用情况的方法(Windows和Liunix环境)

  最近在实验过程中发现,其实本来不太消耗资源的任务,由于Tensorflow的反人类默认设计也经常会直接独占一整块儿GPU的资源,而且独占那么多资源也还是一样的速度,没什么效率。然后去搜索了一下,找到了一些在用服务器跑代码的时候的小技巧和解决方案,给在这里用于自查:实时监控资源动态  大家的服务器一般都是Liunix系统较多,所以在这里普及一个常用的命令可以方便大家实时的查看GPU使用情况,防止互相占用的问题发生:watch -n 1 nvidia-smi  其中,-n后面的1是刷新速率

2021-04-21 16:46:49 3826

原创 【科研分享】推荐算法指标总结(ACC,Precision,Recall,F1,FPR,TPR,ROC,AUC,MAP,MRR,HR,NDCG...)

常用的推荐算法指标解释总结1. 指标计算的参数(TP,TN,FP,FN)  TP:被正确分类的正例(True-Positive),即正例被分成正例的样本。  TN:被正确分类的负例(True-Negative),即负例被分成负例的样本。  FP:被错误分类的负例(False-Positive),即本来是负例却被分成了正例的样本。  FN:被错误分类的正例(False-Negative),即本来是正例却被分成了负例的样本。2. 预测精准度(Accuracy)  即被正确分类的正例和

2021-03-08 22:05:03 17879 4

原创 【科研分享】一份比较全的pip设置入门教程(多种方案解决原生Python中pip下载慢的问题)

解决原生Python pip下载速度慢问题  这两天写了一篇给Anaconda切换国内源的文章,想着就一并把pip的也发了吧,反正都是大家在用Pycharm时常碰到的问题。方法一:在Pycharm中操作的方法  首先,我们打开Pycharm IDE,肯定是先你是有安装过Python的,比如笔者下图给出的是我安装的Python3.7,那么我们需要从Setting里找到Project然后在子选项卡里找到Python Interpreter,就如同图中标示的一样,如果你在本机安装了一个版本的Pytho

2021-01-06 21:59:25 695

原创 【科研分享】一份比较全面的conda配置指南(如何在服务器或本地用命令行配置Anaconda或Miniconda的channels)

如何在服务器或本地用命令行配置Anaconda或Miniconda的channels  这是第n次配服务器环境了,每次都去翻收藏怪麻烦,在这里直接也亲手写一份总结,主要是自己查起来方便,也给大家提供一个比较全面的方案。通常Channels配置这个需求的诞生,都是在服务器或者本地刚刚安装了Anaconda或者Miniconda的前提下诞生的,由于原始的defaults channels实在是太难用了,所以我们迫切的想换上清华的镜像来提速环境配置过程。这里不再赘述如何在Linux或者Windows安装Ana

2021-01-06 17:06:11 4087

原创 【论文精读】Hierarchical Reinforcement Learning for Course Recommendation in MOOCs 2019 AAAI

【小干货】一篇分层强化学习推荐模型的论文分析  本文通过论文精读,介绍了一下分层强化学习技术的细节,论文传送门贴在最下方。该论文是发表在AAAI 2019的顶会论文,想用分层强化学习改善推荐模型的同学都可以来学习一下,码字不易喜欢的话可以评论交流。  其实本来我关注的模型复杂度都比较简单的,也是最近在导师的影响下,才开始研究这篇分层强化学习的paper,收获很大,文章难度适中,在这里给大家写一写我对它的分析,希望能帮的上忙,让大家学习得更快一点(PS:我之前刚开始学习的时候搜过还没有人分析过这篇pa

2020-12-30 19:43:37 2488 5

原创 【科研分享】如何通过论文学习并评价研究问题的价值

如何通过论文学习并评价研究问题的价值  个人是从事深度学习NLP方向研究的一名新研究生,同时侧重于推荐系统研究,主要原因是因为实验室导师就是这个方向,于是就跟着导师学习了。有的人问我这么选择方向是不是有些草率,其实我倒觉得跟导师统一方向是很重要地,如果自己在一个导师也不太明白的方向展开工作事实上是很吃力的,一方面你的提出的idea无法验证价值,这就意味着可能你花了很久很兴奋的去研究一个点最终发现其实是个BD,但时间成本确已经浪费了;另一方面,老师如果在这个领域已经有成果了或者很了解了,那么交流会很顺畅,

2020-12-28 22:35:56 1796 2

原创 【论文泛读】DIN - Deep Interest Network for Click-Through Rate Prediction

DIN多兴趣发现模型分析用户多兴趣推荐问题引入  假如你对推荐系统有所了解,应该就会知道现行多数模型或者说算法,关注的都是如何去挖掘用户一方面的兴趣,来达到对用户精准的实施推荐的目的。通过文献的阅读我们发现,神经网络模型目前也已经被广泛地应用于各种推荐系统中。但他们都是怎么做的呢?是的,这些基于神经网络的推荐算法通常只会从用户的行为序列中学习到一个用户表征向量(Embedding),但是这个统一的Embedding往往无法反映用户在一段时期内的多种不同的兴趣。举个例子,我们现在假设有一个女性用户A,

2020-12-28 16:08:21 494 2

原创 【学习笔记】学习特征交叉类经典模型POLY2、FM、FFM

特征交叉类经典推荐模型——POLY2、FM、FFM  本系列第四篇文章,我们来学习一下什么是特征交叉类推荐模型。这同样是一系列非常经典的推荐系统模型。上一节我们也说到了,逻辑回归LR模型很简单,同时它的表达能力不是很强,会不可避免的造成信息丢失。有很大的局限性,最主要的就是他无法同时考虑多维特征共同作用的影响,也就是特征交叉的重要作用。因为我们知道的,有些情况下仅仅依靠单一的特征而非交叉特征进行判断的情况下有时不仅会导致信息损失,甚至可能导致得出的结论是错误的。如果大家曾经了解过‘辛普森悖论’,那么也许

2020-11-30 19:48:30 3414 13

原创 【学习笔记】学习逻辑回归Logistic Regression及延伸阅读

【概念解析】融合多种特征——逻辑回归推荐模型  那么接下来就该介绍第三种比较经典的推荐模型了,逻辑回归模型,事实上在学习机器学习阶段的时候大家可能就已经在李航老师的《统计学习方法》或者周志华老师的西瓜书里面学习过逻辑回归的基本概念了,那如果说我们把这种成熟的机器学习技术应用到我们的推荐领域呢。显然,比起我们前面提及的协同过滤经典模型要更有优势。相比于协同过滤仅仅利用用户与物品的相互行为信息进行推荐,逻辑回归模型能够综合利用用户、物品、上下文等多种不同的特征。生成更为全面的推荐结果。  另外一方面,逻

2020-11-10 10:51:08 1422

原创 【学习笔记】Tensorflow 2.0+与Keras的联系与应用(含model详解)

Tensorflow 2.0与Keras的联系与应用(含model详解)  事实上我个人入坑tensorflow比较晚,于是导致我其实并没有经历Tensorflow_v1特别火热的那个年代,今年(2020年)早些时候,Tensorflow_v2已经成熟并且开始大量的出现在技术干货当中,于是,我相当于跳过了那个需要写sess的过程,直接学习了函数式model定义以及Keras,可以说是非常幸福了(因为确实简化了很多工作)但遗憾的是,在机器学习和深度学习过程中,大量的前辈的文章,赖以实现的源代码和demo使

2020-10-08 15:08:23 1800 7

原创 【学习笔记】矩阵分解Matrix Factorization及延伸阅读

全面理解矩阵分解MF在推荐系统中的应用  那么,这是本系列的第二篇文章,讨论的是关于第一篇协同过滤之后的改进算法矩阵分解(MF),我会从多个方面讨论该算法的与案例以及它的优缺点。矩阵分解并不是某一种单一的方法,虽然我们最常用的是其中的梯度下降法,但是你会发现在我们之前学习的线性代数中有很多技术可以拿来实现矩阵分解,比如特征值分解ED和奇异值分解SVD,只不过这两种方法都有自己的不足而无法满足实际推荐系统的需要,我会在下文中说明为什么历史选择了梯度下降法。其实,我发现我在上一节最后一部分给出的案例代码当中

2020-10-05 19:09:09 2744 1

原创 【学习笔记】协同过滤Collaborative Filtering及小案例实践

全面理解经典协同过滤在推荐系统中的应用  王喆老师在的《深度学习推荐系统》一书中提到过,即使在深度学习空前流行的今天,协同过滤、逻辑回归、因子分解机等传统推荐方法仍然可以凭借其可解释性强、硬件环境要求低、易于部署和训练的天然优势而拥有大量的应用场景,而在机器学习过程中,我记得大概是学到SVD奇异值分解那一块儿的时候,《机器学习实战》一书中也为大家做过一个简单的基于物品协同过滤推荐的案例(想了一下,好像没法过,我还是放在最后面吧)。这也就是说如果我们想要深入的去探索推荐系统的话同时也需要对这些早期的传统推

2020-10-03 15:07:08 2145

原创 【学习笔记】尝试理解Embedding在推荐系统中的应用

简单理解Embedding技术在推荐系统中的应用  在之前的学习阶段做过一些实验,很多时候在构建model时候不管三七二十一上来就先来上一层Embedding,只知道加上Embedding层后会得到更好的结果却未曾深究其作用,经过阅读《深度学习推荐系统》一书,才明白了个大概,拿来分享给大家也方便日后自己理解。本文结合推荐系统来阐述Embedding的作用和原理。但这里没有涉及具体代码实现,只做简单的概念的阐述。Embedding概述  Embedding操作经常出现在我们设计的模型里,我们称其为

2020-09-28 16:42:50 1278

原创 【学习笔记】认知神经与机器学习交叉的思考

机器学习与认知神经的火花碰撞  本文总结自2020年9月中旬,颜水成和刘嘉老师的谈话,两位前辈谈及了很多认知神经和机器学习交叉部分的问题,很有启发性,并且解答了很多平时我们单纯在学习机器学习过程中产生过疑问却又忘记发问的问题。我将其中对我个人比较有启发的部分总结出来,方便以后自查,同时也分享给大家。(我们会经常发现很多新的成果都来自于交叉领域,所以还是很有帮助的)  在此介绍一下两位前辈:    颜水成:依图科技 CTO,智源“机器学习”重大研究方向首席科学家    刘嘉:清华大学教授,智源

2020-09-26 11:21:51 1365 1

原创 【学习笔记】model.compile方法中metrics评价函数

关于model.compile方法中metrics评价函数的总结问题引入  大家会发现我们在做实验的过程中,经常会发现在Model.compile的过程中会需要写一个参数比如:metrics=['accuracy'],那么这个时候一般情况下很少有文章或者代码注释中会提及这个参数选择的原因或者意义,尤其是笔者前期是个小白,一开始接连做的都是几个二分类的神经网络实验,甚至一度以为只要一直写metrics=['accuracy']就不会报什么错。但这种想法其实是错误且荒谬的,这个参数其实在面对不同的数据集

2020-09-23 10:30:59 24698 10

原创 【学习实践】尝试应用LSTM和B-LSTM改进RNN的情感分析模型

基于RNN的情感分析模型的改进实验分析实验简介  首先,进行实验的数据集简单介绍,本次试验数据集是Keras上的标准IMDB数据集,包括50000条偏向明确的影视评论,数据集本身非常适合进行情感分析,适合用来对新的评论进行偏向预测。本次实验首先对原始数据及进行拼接,并根据实验设计使用部分数据作为训练集和测试集,数据集中包含label标签分别代表积极的评价和消极的评价,该数据集的格式类型有很多,有官方Keras提供的.ngz格式数据集,同时也有Kaggle提供的csv格式的数据集,但我们使用的是官方斯

2020-09-22 09:27:05 1616 4

原创 【学习实践】使用numpy搭建一个简单的前馈神经网络FNN

深度学习小实验 - 使用numpy搭建一个简单的前馈神经网络FNN  在天池上学习深度学习做的笔记,简单实现了一个FNN(非常简单),留以备忘。实验实现的逻辑标示图实验代码# Author:JinyuZ1996# Creation date:2020/8/24 10:28import numpy as np# 一个基本的5输入单元*4神经元*2输出单元的简单网络x = np.array([0.5, 0.4, 0.3, 0.4, 0.5]) # 输入层有5个输入,[1*5

2020-08-24 12:00:53 1496

原创 【学习笔记】Sigmoid, Relu, Swish, Gelus, Maxout等常用激活函数的分析学习

深度学习激活常用函数比较分析  本文主要针对邱锡鹏老师《NNDL》中3.1节中提及的集中激活函数做了一下对比记录,并不较少激活函数本身,只是从发展和优缺点的角度去评价他们。并尝试在他们当中找出可改进的角度和变化趋势。...

2020-08-23 22:13:58 1234

原创 【学习实践】使用SVM对Iris数据集特征提取及分类

基于SVM对兰花Iris数据集特征提取及分类实验实验简介  本实验使用的数据集很经典,实验本身是基于SVM支持向量机技术对数据集Iris进行特征分类。实验采取Sklearn函数库来实现SVM,并使用SVM对提取好的特征进行分类,结果的展示方面进行了数据可视化保证观测结果清晰可见。  首先,Iris数据集的中文名是安德森鸢尾花卉数据集,Iris包含150个样本,对应数据集的每行数据。每行数据包含每个样本的四个特征和样本的类别信息,所以iris数据集是一个150行5列的二维表形式的样本,被应用于多类

2020-08-13 22:18:02 12389 5

原创 【学习实践】尝试使用LDA方法与传统LSA方法对比实现文本主题进行挖掘

主题挖掘LSA方法与LDA对比实验【案例】实验简介  本实验或者说案例,是使用Pycharm编写代码,对同一组新闻数据集进行新闻主题挖掘,来训练两个不同的NLP模型,并提供训练集对训练结果进行测试,并量化。随后通过可视化方法对比两组实验结果。(为了保留实验过程以及实现结果的可视化,保留了实验生成的日志文档和某次实验结果的参考图)  首先,该实验数据集为爬取到的新闻主题的数据集,大约包含22000条content信息可以供模型训练使用,但由于数据集来自爬虫爬取的含html标签形式的txt文件,需要

2020-08-13 16:18:26 1737

《统计学习方法》第十五章SVD奇异值分解小案例

该资源建议搭配视频:https://www.bilibili.com/video/BV1TF411c7bV?spm_id_from=333.999.0.0&vd_source=362ad58f7a70829963f00bb0b5b698b3和https://www.bilibili.com/video/BV1pt4y1h769?spm_id_from=333.999.0.0&vd_source=362ad58f7a70829963f00bb0b5b698b3食用,内容包含两个案例,第一个案例是一个采用协同过滤方法来进行推荐的案例(个人就是做推荐系统方向的……)在本节中主要提及了SVD的应用场景,并采用一个非常简单的案例来具体的应用,过程中结合我们所学的知识对代码进行了详细的解释。第二个案例,是关于图像将为压缩的小案例,同样对代码和知识进行了结合讲解

2022-06-15

600+条新冠疫情评论自制数据集(情感分析实验).csv

个人使用八爪鱼爬取的微博评论内容,来自2021年1月6日的一条微博,仅分享给大家做科研使用

2021-03-13

卷积实现Mnist手写输入识别小案例源码及Keras版数据集

这是20年9月份早期做的一个实验,其中包括对数据集提取方法的一个重写,在loadMnist.py当中,注意修改这个文件内的绝对路径为你下载的位置再去运行CNN_mnist.py,同理CNN_Mnist.py中也有一个绝对路径要修改,同样修改为你当前目录所在的绝对路径,之所以必须使用绝对路径是由于我override它数据集提取方法时匹配方式为绝对路径匹配。(需要修改的位置在注释里标注出来了)

2020-10-08

CUDA v11.0可能会缺失的dll动态链接库们.rar

CUDA v11.0可能会缺失的dll动态链接库们.事实上,还是建议同学们缺什么自己去搜着下载,我也已经把大部分解决方案写在文章里了,实在有下载不下来的,再来我这里面找找吧。

2020-08-18

CUDNN v8.0.1.13.zip

CUDNN v8.0.1.13.zip,已然是为了怕有的同学登陆不上去,就帮同学们下载下来了CUDNN这一版对应的CUDA是 v11.0可以将子文件目录覆盖过去。

2020-08-18

CUDA windows10版本 v11.0 network版本.rar

CUDA windows10版本 v11.0 network版本,其实大家可以去官网下载,我这里给出是因为有的同学说登不上去。

2020-08-18

SVM_Iris.rar

该数据集用于SVM模型训练具体实验可以参考博文https://blog.csdn.net/qq_39381654/article/details/107992420

2020-08-13

LFM_Comparation.rar

主题挖掘LSA方法与LDA对比实验数据集,数据集使用请参考文章https://blog.csdn.net/qq_39381654/article/details/107981106

2020-08-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除