自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 Video Feature extracting

Video Feature extracting

2022-01-06 09:07:34 3833 1

原创 A Key Volume Mining Deep Framework for Action Recognition

A Key Volume Mining Deep Framework for Action Recognition

2022-01-06 09:07:19 231

原创 Two-Stream Convolutional Networks for Action Recognition in Videos

Two-Stream Convolutional Networks for Action Recognition in Videos

2022-01-06 09:06:59 356

原创 RNN序列模型 — 循环神经网络

序列模型 — 循环神经网络

2022-01-06 09:06:36 407

原创 PCANet for Blind Image Quality Assessment

本文介绍了一种简单的深度学习网络,即PCANet用于通用盲/无参考图像质量评估(NR-IQA)。无参考/盲图像质量评估(NR-IQA)的目标是设计一个能准确预测人眼视觉畸变图像质量的感知模型,其中特征提取是一个重要的问题。然而,对于大多数NR-IQA模型来说,其特征提取过程都是一种有监督的模型,而且这些特征通常是基于自然场景统计(NSS)或感知相关的,因此这些模型的性能有限。本文提出了一种新的NR-IQA度量方法,该方法在无监督的情况下提取特征。一旦参数被赋予训练好的深网络,它就不需要任何人工修正就可以输

2022-01-06 09:06:16 452

原创 No Reference Video Quality Assessment with authentic distor-tions using 3-D Deep Convolutional Neura

摘要:视频质量评估(VQA)是从视频流媒体到相机制造等多个行业的一个重要课题。本文提出了一种新的无参考VQA方法。这个框架速度很快,不需要提取手工制作的特性。提取3-D C3D卷积神经网络的卷积特征,输入一个训练好的支持向量机回归器得到VQA分数。我们对不同的颜色空间做了一定的变换,以产生更好的鉴别深度特征。我们从若干层(有或没有重叠)中提取特征,找到改善VQA评分的最佳配置。我们在LIVE-Qualcomm dataset中测试了所提出的方法。我们对感知质量预测模型进行了广泛的评估,最终得到了与平均意.

2022-01-06 09:05:56 359

原创 V-MEON & MDIQA

【V-MEON】End-to-End Blind Quality Assessment of Compressed Video Using Deep Neural Networks. 2018 ACM MM 【DIQA】J. Kim, A. Nguyen, and S. Lee, “Deep cnn-based blind image quality predictor,” IEEE Trans. Neural Netw. Learn. Syst., vol. 30, no. 1, pp. 11–24,

2022-01-06 09:05:37 510

原创 Convolutional Neural Networks for No-Reference Image Quality Assessment

Convolutional Neural Networks for No-Reference Image Quality Assessment

2022-01-06 09:05:07 700

原创 Action Recognition with Improved Trajectories

Action Recognition with Improved Trajectories

2022-01-05 21:35:47 1089

原创 HOSA Blind Image Quality Assessment Based on High Order Statistics Aggregation

最先进的通用BIQA方法可以根据使用的特征类型分为两类。第一种包括依靠自然图像的统计规律手工制作的特征。然而,这些并不适用于包含文本和人工图形的图像。第二种方法包括基于学习的特征,这些特征总是需要大码本或有监督的码本更新过程来获得令人满意的性能。这些都是耗时的,不适用于实践。在本文中,我们提出了一种新的基于高阶统计量聚合(HOSA)的通用BIQA方法,只需要一个小码本。HOSA包括三个步骤。首先,提取局部归一化图像块作为局部特征,通过K均值聚类构造码书。其次,将每个局部特征柔和地分配到几个最近的聚类中,

2022-01-05 21:32:31 1184

原创 Hallucinated-IQA: No-Reference Image Quality Assessment via Adversarial Learning

Hallucinated-IQA: No-Reference Image Quality Assessment via Adversarial Learning本文提出了一种幻象引导质量回归网络来模拟人类视觉系统(HVS)的行为,利用畸变图像与幻象参考之间的感知差异信息,对HVS进行精确预测。如图2所示,首先从失真图像生成高分辨率场景幻象。然后,可以得到一幅自然编码畸变图像与幻象参考图像差异的差异图,指导回归网络的学习。通过引入强而清晰的差异信息,NR-IQA的不适性可以得到显著的克服。因此,即使使用普通

2022-01-05 21:27:31 523

原创 GIQA MBPSQM

GIQA: Generated Image Quality AssessmentBlind Predicting Similar Quality Map for Image Quality Assessmen

2022-01-05 21:24:06 878

原创 FRIQUEE and MSFA

FRIQUEE MSFA

2022-01-05 21:20:20 752

原创 Beyond Short Snippets: Deep Networks for Video Classification

Beyond Short Snippets: Deep Networks for Video Classification

2022-01-05 21:15:42 711

原创 Deep Temporal Linear Encoding Networks

Deep Temporal Linear Encoding Networks

2022-01-05 21:11:13 861

原创 C3D Learning Spatiotemporal Features with 3D Convolutional Networks

Learning Spatiotemporal Features with 3D Convolutional Networks

2022-01-05 21:06:28 1391

原创 A No-Reference Video Quality Assessment Model for Underwater Networks

A No-Reference Video Quality Assessment Model for Underwater Networks

2022-01-05 18:48:56 1249

原创 BRISQUE UCIQE UIQM

UCIQE、UIQM、BRISQUE

2022-01-05 18:44:02 3116

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除