自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Marcovaldong的博客

日拱一卒,功不唐捐

  • 博客(48)
  • 收藏
  • 关注

原创 Multimodal Unsupervised Image-to-Image Translation

Multimodal UNsupervised Image-to-image Translation是ECCV2018的一篇工作,是UNIT思路的一个延续。之前的UNIT实现的是两个domain之间的一个转换,MUNIT更进一步可以实现多个domain之间的转换,下面就来展开介绍这篇论文的细节。计算机视觉中的很多问题的目标可以理解成是将一个domain中的图像转换到另一个domain,例如超分辨...

2018-11-22 10:59:51 2251 2

原创 UNsupervised Image-to-image Translation

接下来的博客将陆续介绍三篇图像转换相关的工作。以往看过CycleGAN和StarGAN这样的工作,但这三篇工作给出了一个新的思路,很有启发意义。本文先介绍第一篇工作UNIT。UNITUNIT(UNsupervised Image-to-image Translation)发表于NIPS2017。UNIT提出了一个称为共享的潜在空间(a shared-latent space)的假设:处于不同d...

2018-11-20 17:02:29 3052

转载 YOLOv2 论文笔记

最近在看物体检测的论文,然后找到了这篇关于YOLO v2的翻译,里边还夹杂了很多博主的个人理解,边看论文边看这篇博客帮我搞明白了很多细节,所以转发一下。博客原文地址为http://blog.csdn.net/jesse_mx/article/details/53925356另外该博客中贴出的一个讲YOLO的PPT非常棒,地址是deepsystems.io:Illustration of

2018-01-17 09:57:53 1378

原创 关于sematic segmentation的几篇论文(二)

博客首发至Marcovaldo’s blog (http://marcovaldong.github.io/)这是最近读的另外几篇做语义分割的论文,有写得不对或不清楚的地方,欢迎指正。Understanding Convolution for Semantic Segmentation这是TuSimple的一篇工作,它的主要贡献是提出了DUC(dense upsampling conv

2018-01-11 16:13:20 829

原创 关于semantic segmentation的几篇论文

博客首发至Marcovaldo’s blog (http://marcovaldong.github.io/)最近两周都在看semantic segmentation的论文,今天做一个总结,内容跟机器之心的从全卷积网络到大型卷积核:深度学习的语义分割全指南有很大的重复,我尽量多写一些细节,帮助自己更好地理解。FCN这是2014年加州大学伯克利的一篇工作,采用的是全卷积结构(Full

2018-01-03 10:37:39 4987

原创 论文阅读:RealTime Multi-Person 2D Pose Estimation using Part Affinity Fields

这是CMU在CVPR 2017上的一篇工作,实际上我在两个月前看AI Challenger比赛的时候就读了,并且看了关于它的一个MxNet实现,大概搞明白了,限于没有机器没有跑一下,也就没有参加比赛。这篇博客算是整理一下我对这篇论文的理解。Introduction论文首先指出了Pose Estimation的三个关键性挑战:一是我们不知道一张图像中包含多少人,这些人的姿态和尺寸如何也都是未知的;二是

2018-01-01 11:43:22 2451

翻译 于众目睽睽之下隐藏图像:深度隐写术

今天要介绍的是Google Research在NIPS 2017上发表的一篇论文,它的主要工作是将深度学习应用于图像隐写中,实现了在图像中隐写另一张图像。下面具体介绍一下这篇论文做了哪些工作。文章首先介绍了什么是隐写术及隐写术的应用,这里不再赘述。我们将载体成为cover,载密图像称为stego。因为在图像中嵌入秘密消息会改变图像载体的视觉外观和基本的统计信息,因此隐写的两个关键点是隐写量和载体本身

2017-12-07 16:18:31 11152 5

原创 深度学习在信息隐藏中的应用(下)

上一篇主要是使用卷积神经网络来做隐写分析,这一篇主要介绍几篇使用生成对抗网络来做隐写和加密。在介绍这些工作之前,我们先来看一下什么是生成对抗网络。生成对抗网络(Generative Adversarial Network, GAN)是深度学习中一个新的网络结构,其自2014年被提出以来一直备受关注,不断有新的GAN模型或基于GAN的应用出现。GAN提出了一种不需要大量标注训练数据就能学习深度表征的方

2017-11-21 23:04:10 10402 3

原创 深度学习在信息隐藏中的应用(上)

博客首发至Marcovaldo’s blog (http://marcovaldong.github.io/)之前都是在实验室做项目,写代码,没有系统集中的看过paper,最近要准备开题,集中看了十几篇,全是深度学习在信息隐藏领域的应用与研究。这里主要是对十几篇论文做一个总结,以后会不间断更新最新读的论文。大家都学过密码学,但是可能很少有人了解信息隐藏。信息隐藏是我所在实验室的一个方向,指...

2017-11-07 17:24:51 15866 8

原创 TensorFlow实现Titanic比赛

博客首发至Marcovaldo’s blog (http://marcovaldong.github.io/)说来真的惭愧,从休学返校后就没有系统的学习过,更没有做多少coding的工作。最近一个月零零散散的看了tensorflow的一些基础,大概可以写一个小的demo了,就拿Titanic来练手了,最后的准确率只有0.77990,感觉应该还是特征提取得不够。完整代码见我的Github。

2017-05-14 19:35:00 1980

原创 Python爬虫小结之Selenium

上学期和同学一块儿接了个爬虫的活儿,赚了人生第一桶金。本来打算寒假好好整理一下,但是,但是寒假整整玩儿了一个月,说好的总结博客没有写,想学的新东西也没有看,真是不思进取啊。现在提前几天回学校,一来准备一下实验室新开的项目,二来对这学期做一个小的规划吧,顺带整理一下上学期的工作。这篇博客主要总

2017-02-19 19:33:01 3943

原创 Python爬虫爬取知乎小结

博客首发至Marcovaldo’s blog (http://marcovaldong.github.io/)最近学习了一点网络爬虫,并实现了使用python来爬取知乎的一些功能,这里做一个小的总结。网络爬虫是指通过一定的规则自动的从网上抓取一些信息的程序或脚本。我们知道机器学习和数据挖掘等都是从大量的数据出发,找到一些有价值有规律的东西,而爬虫则可以帮助我们解决获取数据难的问题,因此网络爬虫是我们

2016-08-20 23:03:59 28265 19

原创 使用Theano实现kaggle手写识别:multilayer perceptron

前面一片博客介绍了使用logistic regression来实现kaggle上的手写识别,这篇博客继续介绍使用多层感知机来实现手写识别,并提高了正确率。写完上篇博客后,我去看了一些爬虫的东西(还没搞完),因此在40天后才有了这篇博客。这里使用了pandas来读取csv文件,具体函数如下。我们使用了train.csv中的前8份做training set,第九份做validation set,第十份做

2016-07-28 15:36:57 1333

原创 Ubuntu14.04+Theano+OpenCL+libgpuarray实现GPU运算

上一篇博客介绍了如何使用Theano+logistic regression来实现kaggle上的数字手写识别,文末提到了CPU计算实在太慢,因此在做完这个实验之后,博主查阅了Theano的文档,了解到Theano官方仅支持CUDA进行GPU运算,不支持OpenCL,也就是说Theano官方仅支持N卡。原因是,CUDA和OpenCL是两个GPU计算平台,CUDA仅支持N卡,OpenCL支持所有的显卡

2016-07-08 12:40:17 7409

原创 使用Theano实现kaggle手写识别:logistic regression

博客已经迁移至Marcovaldo’s blog (http://marcovaldong.github.io/)前面学习了机器学习的一些基础知识,这两天尝试着做了几个小实验,手写就是利用theano来实现kaggle上的入门问题——手写识别。Theano是一个Python库,允许我们来定义、优化和评估涉及多维数组的数学表达式,因此其是实现深度学习框架的一个很重要的模块。Deep Learning

2016-06-12 21:56:16 4376

原创 机器学习中使用的神经网络第十讲笔记

Geoffery Hinton教授的Neuron Networks for Machine Learning的第十讲介绍了如何combine模型,并进一步从实际应用的角度介绍了完全贝叶斯方法。Why it helps to combine models这一小节,我们讨论在做预测时为什么要结合许多模型。使用多个模型可以在拟合真正的规则和拟合样本错误之间做一个很好的折中。我们已经知道,当训练数据比较少时

2016-05-27 21:48:23 9873

原创 机器学习中使用的神经网络第九讲笔记

Geoffery Hinton教授的Neuron Networks for Machine Learning的第八讲为可选部分,好像很难,这里就先跳过了,以后有用的时候再回来补。第九讲介绍了避免过拟合,提高模型的泛化能力。

2016-05-20 21:54:44 14367

原创 机器学习中使用的神经网络第七讲笔记

Geoffery Hinton教授的*Neuron Networks for Machine Learning*的第六讲介绍了循环神经网络(recurrent neural network, RNN)和Long Short Term Memory。Modeling sequences: A brief overview在这一小节,我们将对应用于序列(sequences)的不同类型的模型做一个概括。我们从最简单的模型

2016-05-18 15:24:58 9449

原创 机器学习中使用的神经网络第六讲笔记

Geoffery Hinton教授的Neuron Networks for Machine Learning的第六讲介绍了随机梯度下降法(SGD),并且介绍了加快学习速度的动量方法(the momentum method)、针对网络中每一个连接的自适应学习步长(adaptive learning rates for each connection)和RMSProp算法。这几个算法的难度很大,需要反复

2016-05-16 21:55:50 16739 1

原创 机器学习中使用的神经网络第五讲笔记

Geoffery Hinton教授的Neuron Networks for Machine Learning的第五讲主要介绍物体识别问题的难点及克服这些难点的方法,重点介绍了数字识别和物体识别中使用的卷积网络。Why object recognition is difficult我们知道识别真实场景中的物体是很困难的,这一小节我们来介绍造成这些困难的一些东西。Segmentation: 在一个图像

2016-05-14 15:52:09 15303 2

原创 机器学习中使用的神经网络第四讲笔记

Geoffery Hinton教授的Neuron Networks for Machine Learning的第四讲主要介绍如何使用back propagation算法来学习到词汇的特征表示。Learning to predict the next word接下来的几小节主要介绍如何使用back propagation算法来学习到词汇的特征表示。我们从一个很简单的例子开始,介绍使用back prop

2016-05-08 10:30:31 2829

原创 机器学习中使用神经网络第三讲笔记

Geoffrey Hinton教授的Neuron Networks for Machine Learning的第三讲主要介绍了线性/逻辑神经网络和BackPropagation,下面是整理的笔记。Learning the weights of a linear neuron这一小节介绍线性神经网络的学习算法。线性神经网络很像感知机,但又有不同:在感知机中,权值向量总是越来越接近好的权值设定;在线性神

2016-05-05 11:50:20 6405

原创 机器学习中使用的神经网络第二讲笔记

最近在Cousera上学习多伦多大学Geoffrey Hinton教授的Nerual Networks for Machine Learning,为保证学习效果,特整理了学习笔记,一方面加深理解,一方面试图将学到的东西讲清楚。这一讲主要介绍神经网络的结构和感知机。Types of nerual network architectures这一小节介绍了三种不同的神经网络结构。首先介绍向前反馈网络(fe

2016-05-04 17:05:51 7167 1

原创 机器学习基石第九讲:linear regression

博客已经迁移至Marcovaldo’s blog (http://marcovaldong.github.io/)机器学习基石第十讲介绍线性回归问题(linear regression problem),从这一讲开始课程介绍具体的机器学习算法。后面的大部分内容,博主已经学过,所以笔记可能会简略。Linear Regression Problem借助信用卡发放的问题来介绍线性回归,不过这一次不再是分类

2016-04-26 11:29:35 5201 1

原创 机器学习基石第八讲:noise and error

博客已经迁移至Marcovaldo’s blog (http://marcovaldong.github.io/)机器学习基石第八讲主要介绍噪声和误差度量,笔记整理在下面。Noise and Probabilistic Target现实中的数据很可能含有噪声(noise),例如前面的信用卡发放问题中,有的顾客符合发放标准但没有发给,或者同样情况的顾客有人发了有人没法,再或者顾客的信息不正确等等,VC

2016-04-25 21:22:20 6684

原创 机器学习基石第七讲:the vc dimension

博客已经迁移至Marcovaldo’s blog (http://marcovaldong.github.io/)Definition of VC Dimension上一讲我们找到了B(N,k)的上限,拿它和Nk−1N^{k-1}做一个比较,发现当N够大时,前者比后者小得多。上一讲我们提到了VC bound:在dataset上,H中任意一个hypothesis发生坏事情的概率不超过一个很小很小的定值

2016-04-24 22:08:02 7589

原创 机器学习基石第六讲:theory of generalization

机器学习基石第六讲继续讨论“学习是否可行的问题”。Restriction of Break Point继续前面的讨论,我们看mH(N)m_H(N)是否会有一个很小的增长速度。回顾前面的四种成长函数及其break point。我们知道k是一个成长函数的break point,那比k大的值全是break point。mH(N)m_H(N)是一个hypothesis在N个数据点上可以产生的dichotom

2016-04-23 22:39:18 5293

原创 机器学习基石第五讲:training versus testing

博客已经迁移至Marovaldo’s blog (http://marcovaldong.github.io/)机器学习基石第五讲继续讨论“学习是否可行”这一问题,这一讲比较难,建议大家多看两遍。Recap and Preview前面的课程得出了这样一个结论:在训练数据集足够大,H中包含的hypothesis个数有限的前提下,我们可以证明每一个hypothesis的EinE_{in}和EoutE_{

2016-04-22 22:40:45 5167

原创 机器学习基石第四讲:feasibility of learning

博客已经迁移至Marcovaldo’s blog (http://marcovaldong.github.io/)刚刚完成机器学习基石的第四节,这一节讨论机器学习的可行性,用到了Hoeffding’s inequality等概率的知识,需要仔细揣摩。笔记整理在下面。Learning is Impossible?前面的课程中曾提到过说学习可能是不可行的,为此我们还通过推导来证明PLA算法是否会停下来。

2016-04-20 13:46:43 5430 1

原创 机器学习基石第三讲:types of learning

刚刚完成机器学习基石的第三讲,这一讲主要介绍了机器学习的分类,对何种问题应该使用何种机器学习方法。将笔记整理在下面。Learning with Different Output Space前面讲的信用卡发放问题是一个是非题,也就是说最后的输出只有两种,是一个二元分类(binary classification)。下图中给出了更多的二元分类问题的例子,对于这类问题我们要做的就是找到一个hypothes

2016-04-19 16:21:02 4607 1

原创 机器学习基石第二讲:learn to answer yes/no

刚刚完成了机器学习基石的第二讲,主要介绍了机器学习的定义,PLA算法和pocket PLA算法。下面将笔记整理在下面。Perceptron Hypothesis Set延续前面的信用卡发放问题。银行已有的用户数据可能包括用户的年龄、年薪、工作时长、债务情况等特征信息,我们分别用x1x_1

2016-04-18 17:18:06 6538

原创 机器学习基石第一讲:the learning problem

博客已经迁移至Marcovaldo’s blog (http://marcovaldong.github.io/)Andrew Ng的Machine Learning比较简单,已经看完。林田轩的机器学习基石更多的是从概率论的角度来介绍机器学习,之前的视频已经听了大半,但好多都是模棱两可。现在从头开始,认真整理笔记,笔记的结构遵从课程视频的结构。下面是机器学习基石的第一讲:the learning p

2016-04-18 09:44:04 5245

原创 Machine Learning练习整理

完成了Cousera上的Machine Learning,现在将几次exercise的答案整理在这里,供以后的同学参考。这里仅列出需要自己编程的部分,某些部分会给出说明。ex1: Linear RegressioncomputeCost.mp = X * theta;J = (p - y)' * (p - y);J = J/(m*2);gradientDescent.mp = theta(1)

2016-04-17 15:13:31 6296

原创 Machine Learning第十一周笔记:photo OCR

博客已经迁移至Marcovaldo’s blog (http://marcovaldong.github.io/)刚刚完成了Cousera上Machine Learning的最后一周课程,这周介绍了machine learning的一个应用:photo OCR(optimal character recognition,光学字符识别),下面将笔记整理在下面。Photo OCRProblem Desc

2016-04-17 10:20:33 8997

原创 Machine Learning第十周笔记:大规模机器学习

刚刚完成了Andrew Ng在Cousera上的Machine Learning的第十周课程,这周主要介绍的是大规模机器学习,现将笔记整理在下面。Gradient Descent with Large DatasetsLearning With Large Datasets在前面介绍bias-variance的时候,我们曾提到一个比较各种算法孰优孰劣的实验,结论是”it’s not who has

2016-04-14 12:32:30 8019

原创 Machine Learning第九周笔记:异常检测与推荐系统

Andrew Ng在Machine Learning的第九周介绍了异常检测(anomaly detection)和推荐系统(recommender system),将笔记整理在下面。

2016-04-11 10:16:37 5540

原创 Machine Learning第八周笔记:K-Means和降维

刚刚完成了Machine Learning第八周的课程,这一周主要介绍了K-means和降维,现将笔记整理在下面。Unsupervised LearningClusteringUnsupervised Learning: Introduction今天我们开始介绍无监督式学习(unsupervised learning)。下面两张图分别代表典型的有监督式学习和无监督式学习。一个典型的有监督式学习是从一

2016-04-09 13:49:01 6474

原创 Machine Learning第七周笔记:支持向量机

今天在Cousera上学习了《Machine Learning》的第七周课程,这一周主要介绍了支持向量机(support vector machine),将学习笔记整理在下面。Support Vector MachineLarge Margin ClassificationOptimization Objective我们通过逻辑回归来引出支持向量机。下图给出了逻辑回归的hθ(x)h_{\theta}

2016-04-06 20:30:00 1796

原创 Machine Learning第六周笔记二:机器学习系统设计

现在我们来讨论一下机器学习系统设计。Machine Learning System DesignBuilding a Spam ClassifierPrioritizing What to Work on假设我们想建立一个垃圾邮件分类系统,现在手上有大量的垃圾邮件和费垃圾邮件,那么我们怎样使用监督学习将垃圾邮件和非垃圾邮件分开呢?首先我们可能需要从这些邮件中选择一些能够区分垃圾邮件与非垃圾邮件的词汇

2016-04-03 22:27:01 1722

原创 Machine Learning第六周笔记一:评估学习算法和bias/variance

Machine Learing 评估学习算法(evaluating a learning algorithm)bias/variance

2016-04-01 21:19:01 4505

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除