自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(67)
  • 资源 (1)
  • 收藏
  • 关注

原创 关于猛回头

有时候不能一直跑,要停下来总结一下自己走过的路,反思一下做的对不对,方向对不对,方法对不对,未来该怎么做@TOC欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:全新的界面设计 ,将会带来全新的写作

2021-09-28 11:03:30 75

原创 <el-date-picker>时间戳单位

神级操作,搞了半天,秒是大X,毫秒是小x,yue了。

2024-01-24 15:38:10 717

原创 深度学习基本功2:网络训练小技巧之使用预训练权重、冻结训练和断点恢复

https://codeleading.com/article/48036475915/

2023-09-26 18:42:46 182

原创 linux

Linux是一个类似Unix的操作系统,继承了Unix以网络为核心的设计思想,是一个支持多用户、多任务、多线程和多CPU的操作系统。关机、单机用户模式、字符界面的多用户模式(不支持网络)、字符界面的多用户模式、图形界面的多用户模式、未分配使用、重启。用户空间和内核空间是程序执行的两种不同状态,可以通过系统调用和硬件中断完成用户空间到内核空间的转移。1.现代CPU实现了不同的工作模式,不同模式下CPU可以执行的指令和访问的寄存器不同。2.Linux从CPU的角度出发,为了保护内核的安全,把系统分为了两部分。

2023-04-14 11:53:36 172 1

原创 SQL基础教程

1.数据库的相关概念1.1 数据1.2 数据库1.3 数据库管理系统1.4 数据库系统1.5 SQL1.6 数据模型1.6.1 定义数据模型是对现实世界数据特征的抽象,也就是说数据模型是用来描述数据、组织数据和对数据进行操作的。数据模型是数据库系统的核心和基础。1.6.2数据模型的三个要求和两大类三个要求:一是能比较真实的模拟现实世界;二是容易为人所理解;三是便以在计算机上实现两大类概念模型,也称信息模型,它是按照数据的观点来对数据和信息进行建模,主要用于数据库设计。逻辑模

2023-02-15 01:10:41 492

原创 SQL FULL JOIN(全连接)--改正版

SQL 全连接

2023-02-12 18:43:28 422

原创 三元损失英文版

三元损失

2022-07-10 11:21:52 128

原创 三元损失英文版

三元损失

2022-06-22 21:33:31 86

原创 Multi-Level Matching and Aggregation Network for Few-Shot Relation Classification

本文提出了一种用于少样本关系分类的多级匹配和聚合网络(MLMAN)。 先前关于该主题的研究采用原型网络,它独立计算查询实例的嵌入向量和每个支持集的原型向量。 相比之下,我们提出的 MLMAN 模型通过在本地和实例级别考虑它们的匹配信息,以交互方式对查询实例和每个支持集进行编码。 每个支持集的最终类原型是通过对其支持实例的表示进行注意聚合(attentive aggregation)获得的,其中权重是使用查询实例计算的。 实验结果证明了我们提出的方法的有效性,在 FewRel 数据集上实现了新的最先进的性能。

2022-06-16 17:48:03 471

原创 Hierarchical Attention Prototypical Networks for Few-Shot Text Classification

Abstract目前文本分类任务的有效方法大多基于大规模的标注数据和大量的参数,但当监督训练数据少且难以收集时,这些模型就无法使用。 在本文中,我们提出了一种用于少样本文本分类的分层注意原型网络(HAPN)。 我们为我们的模型设计了特征级别、词级别和实例级别的多交叉注意力,以增强语义空间的表达能力。 我们在两个标准的基准小样本文本分类数据集——FewRel 和 CSID 上验证了我们的模型的有效性,并实现了最先进的性能。 分层注意层的可视化表明我们的模型可以分别捕获更重要的特征、单词和实例。 此外,我们的

2022-05-25 16:36:34 817

原创 Diverse Few-Shot Text Classification with Multiple Metrics

Abstract我们研究自然语言领域的小样本学习。 与将基于度量或基于优化的元学习应用于具有低任务间方差的图像域的许多现有工作相比,我们考虑了一个更现实的设置,其中任务是多样化的。 然而,它给现有最先进的基于度量的算法带来了巨大的困难,因为单个度量不足以捕捉自然语言域中的复杂任务变化。 为了缓解这个问题,我们提出了一种自适应度量学习方法,该方法自动从一组从元训练任务中获得的度量中确定最佳加权组合,用于新出现的少样本任务。 对现实世界情感分析和对话意图分类数据集的广泛定量评估表明,所提出的方法在预测准确性方

2022-05-24 22:32:49 321

原创 BERT详解:+位置编码详解

BERT详解:+位置编码详解

2022-05-11 21:41:12 793 2

原创 BERT详解:+位置编码详解

BERT详解:+位置编码详解

2022-05-08 12:09:36 1140

原创 早期关系分类

基于双向LSTM及注意力机制的关系分类Awesome Relation Classification Paper(关系分类)(PART I)Awesome Relation Classification Paper(关系分类)(PART II)2019年各大顶会神经关系抽取(NRE)优质论文整理分享...

2022-05-08 12:08:57 202

原创 交叉熵损失及其对应的focal Loss

交叉熵损失及其对应的focal Loss

2022-04-17 15:11:40 138

原创 通俗讲解pytorch中nn.Embedding原理及使用

通俗讲解pytorch中nn.Embedding原理及使用

2022-04-08 11:29:48 2206

原创 【torch】反向传播弃inplace操作

【torch】反向传播弃inplace操作

2022-04-01 19:44:42 546

原创 Hybrid Attention-Based Prototypical Networks

Hybrid Attention-Based Prototypical NetworksFeature-level Attention对support set中的随机选取的每个类别的所有instance做多层卷积处理得到最终的z。不就类似attention based muti-instance RE么,support set中每个类别的所有句子,就是一个小型bag,所谓feature-level attention就是类似sentence-level attention(Lin et al.,2016

2022-03-29 20:35:45 682

原创 数据稀疏or特征稀疏

稀疏性的优点什么是稀疏特征(Sparse Features)?稀疏表示特征选择与稀疏学习机器学习中特征选择与稀疏学习的一些知识特征选择与稀疏学习(Feature Selection and Sparse Learning)机器学习之特征学习与稀疏学习...

2022-03-26 21:01:30 3486

原创 BN Dropout

Dropout和BN(层归一化)详解如何通过方差偏移理解批归一化与Dropout之间的冲突批归一化和Dropout不能共存?这篇研究说可以

2022-03-26 20:56:01 415

原创 我如何在bert预训练模型中获得最后一个transformer编码器的所有输出,而不仅仅是cls令牌输出?

我如何在bert预训练模型中获得最后一个transformer编码器的所有输出,而不仅仅是cls令牌输出?

2022-03-23 21:40:42 565

原创 图示详解BERT模型的输入与输出

图示详解BERT模型的输入与输出

2022-03-23 15:45:04 2542

原创 feature disentangle(语者转换)

https://arxiv.org/abs/1904.05742https://arxiv.org/abs/1804.02812https://arxiv.org/abs/1905.05879

2022-03-21 19:50:33 268

原创 Learning to Decouple Relations: FewShot RC with Entity-Guided Attention and Confusion-Aware Training

Yingyao Wang1∗, Junwei Bao2, Guangyi Liu3, Youzheng Wu2,Xiaodong He2, Bowen Zhou2, Tiejun Zhao11Harbin Institute of Technology, Harbin, China2JD AI Research, Beijing, China3The Chinese University of Hong Kong, Shenzhen, China{baojunwei,wuyouzheng1,xia

2022-03-16 21:01:37 327

原创 pytorch保存模型等相关参数,利用torch.save(),以及读取保存之后的文件

链接

2022-03-08 18:03:40 225

原创 lda算法

在这里插入代码片对类内:方差对类间:类别中心的距离参考:https://blog.csdn.net/weixin_44167798/article/details/120236629https://www.bilibili.com/video/BV123411s7eZ?spm_id_from=333.1007.top_right_bar_window_history.content.click...

2022-03-01 21:11:00 70

原创 PyTorch Conv2d中的四种填充模式解析

PyTorch Conv2d中的四种填充模式解析

2022-02-28 14:51:35 954

原创 Augmenting Few-Shot Learning With Supervised Contrastive Learning

When Deep Learning Meets Metric Learning: Remote Sensing Image Scene Classification via Learning Discriminative CNNs

2022-02-22 16:57:56 622

原创 LEARNING TO MATCH TRANSIENT SOUND EVENTS USING ATTENTIONAL SIMILARITY FOR FEW-SHOT SOUND RECOGNITION

4. CONCLUSION我们引入了一个简单的注意力相似性模块,用于小样本声音识别,以生成输入的注意力表示。 它允许模型在匹配相对短的声音事件时忽略不相关的背景噪声。 大量实验表明,注意力相似性不断提高各种现有方法在无噪声或有噪声剪辑数据集上的性能。 未来,我们计划扩展模型以采用多标签学习设置进行少量声音识别。2. APPROACH2.1. Few-shot sound recognition在我们的工作中,我们使用简单而强大的 ConvNet 架构作为我们的特征学习模型 fcnn(·)。 该模型可

2022-02-15 11:48:53 1677

原创 深度学习框架中的Ranking Loss

深度学习框架中的Ranking LossCaffeConstrastive Loss Layer. 限于 Pairwise Ranking Loss 计算. 例如,可以用于训练 Siamese 网络。PyCaffe Triplet Ranking Loss Layer. 用来训练 triplet 网络,by David Lu。PyTorchCosineEmbeddingLoss. 使用余弦相似度的 Pairwise Loss。输入是一对二元组,标签标记它是一个正样本对还是负样本对,以及边距 mar

2022-02-08 21:51:40 1688

原创 Modified Logistic Regression: An Approximation to SVM and Its Applications in Large-Scale Text Categ

Jian Zhang [email protected] Jin [email protected] Yang [email protected] G. Hauptmann [email protected] of Computer Science, Carnegie Mellon University, 5000 Forbes Avenue, Pittsburgh, PA 15213 USAAbstract

2022-01-09 11:47:20 468

原创 Large-Margin Regularized Softmax Cross-Entropy Loss

XIAOXU LI , DONGLIANG CHANG, TAO TIAN, AND JIE CAOSchool of Computer and Communication, Lanzhou University of Technology, Lanzhou 730050, ChinaCorresponding author: Jie Cao ([email protected])ABSTRACT机器学习和神经网络社区普遍采用带有 L2 正则化的 Softmax 交叉熵损失。考虑到传统的 softmax

2022-01-07 15:17:34 1639

原创 SphereFace: Deep Hypersphere Embedding for Face Recognition

Weiyang Liu 1 Yandong Wen 2 Zhiding Yu 2 Ming Li 3 Bhiksha Raj 2 Le Song 11 Georgia Institute of Technology2 Carnegie Mellon University3 Sun Yat-Sen [email protected], {yandongw,yzhiding}@andrew.cmu.edu, [email protected]本文研

2022-01-05 20:54:50 1133

原创 PTA 6-11 求自定类型元素序列的中位数--疑问求解答

本题要求实现一个函数,求N个集合元素A[]的中位数,即序列中第⌊(N+1)/2⌋大的元素。其中集合元素的类型为自定义的ElementType。函数接口定义:ElementType Median( ElementType A[], int N );其中给定集合元素存放在数组A[]中,正整数N是数组元素个数。该函数须返回N个A[]元素的中位数,其值也必须是ElementType类型。裁判测试程序样例:#include <stdio.h>#define MAXN 10typedef

2022-01-04 10:26:40 215

原创 A Discriminative Feature Learning Approach for Deep Face Recognition

Yandong Wen1, Kaipeng Zhang1, Zhifeng Li1(B), and Yu Qiao1,21 Shenzhen Key Lab of Computer Vision and Pattern Recognition,Shenzhen Institutes of Advanced Technology, CAS, Shenzhen, [email protected], {kp.zhang,zhifeng.li,yu.qiao}@siat.ac.cn2

2022-01-03 14:17:19 2102 1

原创 新版本torch中Variable和Tensor合并 Variable和Tensor

点这里

2022-01-02 16:26:33 672

原创 配置、使用transformers包

配置、使用transformers包

2021-12-28 20:12:41 1436

原创 Anaconda建立新的环境,出现CondaHTTPError:

Anaconda建立新的环境,出现CondaHTTPError: HTTP 000 CONNECTION FAILED for url … 解决过程

2021-12-28 20:08:27 608

原创 CosFace: Large Margin Cosine Loss for Deep Face Recognition

Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou,Zhifeng Li∗, and Wei Liu∗Tencent AI Lab{hawelwang,yitongwang,encorezhou,denisji,sagazhou,michaelzfli}@[email protected] [email protected]由于深度卷积神经网络 (CNN)

2021-12-27 09:30:54 1518

原创 BN层详细解读

https://www.freesion.com/article/7386682626/

2021-12-16 11:25:29 182

reinforcement_learning-master.zip

强化学习项目

2021-05-23

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除