自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(40)
  • 收藏
  • 关注

原创 设置router-link样式-使用a

有router-link 设置样式就用a就可以。核心代码(ps a前面没有.)设置样式图一变成图二。

2024-04-18 09:40:19 232

原创 vue3 element Plus Cascader 选择任意一级选项 选中后 关闭弹框 & 获取最后一层的label

getAttributeData函数里添加这行代码。placeholder="类选择"2.获取最后一层的label。获取选择的label。

2024-03-12 12:23:30 482

原创 带parentId的el-tree如何保存树结构的数据

以下树为带parentId结构,不带的不适用。1、保存选中节点的数据首先介绍一下el-tree首先介绍一下el-tree:props里面存数据的对应结构。

2024-01-29 09:59:46 638

原创 el-upload上传文件,如何使用action、auto-upload

auto-upload="false"就是自动上传。不自动上传:auto-upload="false"ps记得定义元素 后面省略。

2024-01-27 14:07:53 1182

原创 el-cascader 获取label、value值

实现数组对象中的key对应value,label对应title。3 为了获取选中数据的label。输出最后一层label和value。1 绑定对应数据实现数据的对应。

2024-01-19 16:55:13 1247

原创 对象数组变成一维数组,导出txt文件

先在页面上添加按钮点击事件,事件函数如下。参数dataRef就是对象数组的格式。需要把treeData换成上面的数组。假设对象数组格式为此。

2024-01-18 17:33:24 402

原创 React 入门必备 【第二关 】React面向组件编程之高阶函数与函数柯里化(选看)

目的:增加代码复用性高阶函数:如果一个函数符合下面2个规范中的任何一个,那该函数就是高阶函数。1.若A函数,接收的参数是一个函数,那么A就可以称之为高阶函数。2.若A函数,调用的返回值依然是一个函数,那么A就可以称之为高阶函数。常见的高阶函数有:Promise、setTimeout、arr.map()等等函数的柯里化:通过函数调用继续返回函数的方式,实现多次接收参数最后统一处理的函数编码形式。含义:saveFormData作为onChange的回调通过参数保存表单数据。

2023-08-04 12:33:44 88

原创 React入门必备 [第二关] React面向组件编程之受控组件与非受控组件

需求:定义一个包含表单的组件输入密码用户名之后,点击登录提示输入信息。

2023-08-04 12:22:38 86

原创 React 入门必备 【第二关 】React面向组件编程之组件实例的三大核心属性

state里面存储对象格式key-value的数据 组件状态驱动页面。

2023-08-04 00:37:01 162

原创 React 入门必备 【第二关 】 React面向组件编程之创建函数组件与类组件

2.发现组件是函数定义的,随后调用函数,将返回的虚拟DOM转化为真实DOM,随后呈现在页面中。2.发现组件是类定义的,随后new出来该类的实例,并通过该实例调用到原型上的render方法。如果A类继承B类,且A类中有构造器,你们A类构造器中的super是必须调用的。类中的构造器不是必须写的,要对实例进行初始化操作,如添加指定属性时,才写。子类可以使用父类原型上的方法,也可以重写父类继承过来的方法。类中所定义的方法,都是放在类的原型对象上,供实例对象使用。构造器中的this:类的实例对象。

2023-08-03 22:18:06 139

原创 React 入门必备 【第一关 】JSX基础语法

1.创建虚拟dom2.渲染虚拟DOM到页面(引入react.development.js全局有React引入react-dom.development.js全局有ReactDOM)react没提供选择器,要使用原生的注释{}包裹。

2023-08-03 21:33:22 68

原创 [论文解读]DORE: Document Ordered Relation Extraction based on GenerativeFramework

近年来,基于生成框架的信息抽取工作激增,它允许更直接地使用预先训练的语言模型,并有效地捕获输出依赖关系。然而,以前使用词法表示的生成方法并不适合存在多个实体和关系事实的文档级关系抽取(DocRE)。在本文中,我们调查了现有生成型DocRE模型表现不佳的根本原因,我们提出了一种,这种方法具有确定性,且易于模型学习。此外,我们设计了一种处理超长目标序列的。此外,我们还引入了几种来提高平衡信号的性能。在4个数据集上的实验结果表明,该方法可以提高生成DocRE模型的性能。

2023-07-07 09:34:53 173

原创 【论文解读】A sequence-to-sequence approach for document-level relation extraction

重要贡献:•我们提出了一种新的线性化模式,可以处理以前seq2seq方法忽略的复杂性,如共参照提及和n元关系(§3.1)。•使用这种线性化模式,我们证明了seq2seq方法能够联合学习DocRE的子任务(实体提取、共参考解析和关系提取),并报告几个流行的生物医学数据集上的首个端到端结果(§5.1)。在自然语言处理中,联合学习是一种将多个相关任务结合起来学习的方法。对于DocRE子任务,seq2seq方法可以通过同时训练实体识别和关系抽取模型,将两个任务结合起来,从而提高模型的性能。具体来说,通过seq

2023-05-10 15:57:31 366

原创 【论文解读】Document-Level Relation Extraction with Adaptive Thresholding and Localized论文解读加跑代码

1)对于多实体对问题,之前的方法多数只是简单地将实体标签嵌入以获得实体嵌入,并将它们输入分类器以获得关系标签。然而这会导致每个实体在不同的实体对中有相同的表示(实体嵌入),从而会引入不相关背景信息的噪声。本文提出的定位上下文池技术,解决了对于所有不同的实体对使用相同实体嵌入的问题,它使用与当前实体对相关的附加上下文背景来增强实体嵌入,也就是说 我们没有从头开始直接训练一个上下文注意力层,而是直接从预先训练的语言模型中转移注意力头来获得实体级的注意力。然后,对于一对中的两个实体,我们通过乘法合并它们的注意

2023-04-07 20:11:47 113

原创 【论文解读】Document-Level Relation Extraction with Adaptive Focal Loss and Knowledge Distillation

其中是二元标签值0或者1,是属于标签值的概率。可以轻易地分析出来,当标签值时,;当标签值时,。也就是说,在二元交叉熵损失函数第一项和第二项之中,必定有一项的值为0。我们再来看第一项和第二项的函数图像(横坐标为,纵坐标为):当标签值时 ,,如果接近1,接近0;如果接近0, 则变得无穷大。当标签值时,,如果接近1,变得无穷大;如果接近0,接近0。通过以上的简单分析,当预测值接近标签值时损失很小,当预测值远离标签值时损失很大,这一特性是有利于模型的学习的。二元交叉熵(BCE)

2023-04-07 20:04:17 537

原创 git 最全笔记

使用分支意味你可以把你的工作从开发主线上分离开来进行重大的bug修改、开发新的功能,以免影响开发主线。git push --set-upstream origin master则git push就可以了。远端的 修改file01.txt 修改count=6后执行。拉取本地的file01.txt修改count=7 然后如下。拉取本地的file01.txt修改count=7。远程分支和本地分支一样 ,则可以只写本地分支。远程分支和本地分支一样 ,则可以只写本地分支。最后要合并,把其他分支合并到master。

2023-03-27 21:44:03 65

原创 【论文解读】Dialogue-Based Relation Extraction基于对话的关系抽取

贡献(一)构建了第一个人工标注的基于对话的关系抽取数据集,并深入研究了基于对话的关系抽取任务与传统关系抽取任务的异同;(二)设计了一个新的会话评价指标,该指标反映了对话中交互通信的及时性;(三)利用标准的基于学习的技术在Dialogre上建立了一组基线关系抽取结果,进一步证明了说话人论据的明确识别在基于对话的关系抽取中的重要性。构建了第一个人工标注的基于对话的关系抽取数据集,语料库表1表2。

2023-01-18 12:39:57 495

转载 BERT解读

1 、ELMo 使用自左向右编码和自右向左编码的两个 LSTM 网络,分别以 P(wi|w1,⋯,wi−1) 和 P(wi|wi+1,⋯,wn) 为目标函数独立训练,将训练得到的特征向量以拼接的形式实现双向编码,本质上还是单向编码,只不过是两个方向上的单向编码的拼接而成的双向编码。

2022-11-16 12:30:09 1348

转载 【深度学习】词表示

为什么要这样做的一个重要假设是:假设我们已经得到了词向量,如果我们使用词向量 vi​、vj​、vk​ 通过某种函数计算得到ratioi,j,k​,能够同样得到这样的规律的话,就意味着我们的词向量具备与共现矩阵很好的一致性,也就是说我们的词向量中蕴含了共现矩阵所蕴含的信息,而共现矩阵中所蕴含的信息就是在一个语料中某两个词语相关性的信息。先看一下第一行数据,以ice为中心词的环境中出现solid固体的概率是大于gas、fashion而且小于water的,这是很合理的,对吧,因为现实语言使用习惯就是这样的。

2022-11-08 16:15:40 438

转载 Transformer源码详解(Pytorch版本)逐行讲解

下面的PAD表示填充,填充就是当句子长度不满足max_len时候,会填充pad。## 这里有两个数据进行输入,一个是enc_inputs 形状为[batch_size, src_len],主要是作为编码段的输入,一个dec_inputs,形状为[batch_size, tgt_len],主要是作为解码端的输入。一定需要注意的是这里得到的矩阵形状是batch_size x len_q x len_k,我们是对k中的pad符号进行标识,并没有对q中的做标识,因为没必要(尚未理解,有理解的小伙伴评论私信奥)

2022-11-01 18:44:12 14061 9

转载 NLP从入门到放弃的transformer 的笔记总结

机器翻译上我爱你作为输入,经过transformer模型,输出l love you左半部分是encoders(里面有N个小encoder) 右半部分是decoders (里面有N个小encoder)输入:我爱你 经过encoders 将输出的结果作为decoders输入 ,经过decoders得到输出l love you。

2022-10-30 17:09:46 644 2

原创 【循环神经网络】(下)embedding+rnn+linear结合的模型

采用以下网络结构。

2022-10-25 17:19:53 457

原创 循环神经网络-独热编码+词向量Word Embedding

对于上图的解释,假设有一个包含 8 个次的字典 VV,“time” 位于字典的第 1 个位置,“banana” 位于字典的第 8 个位置,因此,采用独热表示方法,对于 “time” 的向量来说,除了第 1 个位置为 1,其余位置为 0;Q 的内容也是网络参数,需要学习获得,训练刚开始用随机值初始化矩阵 Q,当这个网络训练好之后,矩阵 Q 的内容被正确赋值,每一行代表一个单词对应的 Word embedding 值。3)硬编码 对于独热表示的向量,如果采用余弦相似度计算向量间的相似度,

2022-10-25 16:24:45 1016

原创 【深度学习】(11)循环神经网络(上)RNN

初始化input_size、batch_size、seq_len、hidden_size、num_layers。1、字符向量化:根据字符构造词典,为每一个字符分配一个索引,根据词典将其变成相应词典,再变成向量。初始化input_size、batch_size、seq_len、hidden_size。代码:举例:seq-》seq序列到序列 ”hello“-》”ohlol“单纯的线性层去处理带有时间序列的问题是会有一下问题。rnn主要处理具有序列连接的输入。(1)太多参数-解决:权值共享。

2022-10-25 11:35:22 887

原创 卷积神经网络(下)残差网络 Residual Network「ResNet」

【代码】卷积神经网络(下)残差网络 Residual Network「ResNet」

2022-10-24 17:00:49 659

原创 卷积神经网络(中)GoogLenet网络结构+代码

2)Conv包括1*1convolution 3*3convolution 5*5convolution。4)每个组合分支都先经过1*1convolution的好处是降低了计算量,如下图。3)卷积核超参数选择困难,自动找到卷积的最佳组合分支,最后采取不同权重。1)图中包括结构:Conv Average Pooling。

2022-10-21 17:25:52 682

原创 【深度学习】(十)卷积神经网络(上)

若想输入输出的wh相同则输入需要添加padding=kernel_size/2,padding=1表示在输入的外圈增加一圈0

2022-10-21 12:47:30 222

原创 【深度学习】(九)多分类问题-softmax作用+pytorch实现手写数字数据集

【代码】【深度学习】(九)多分类问题-softmax作用+pytorch实现手写数字数据集。

2022-10-20 16:10:25 587

原创 加载数据集(下)+手写数字识别MNIST pytorch代码(带注释)

加载数据集(下)+手写数字识别MNIST pytorch代码

2022-10-20 12:27:28 517

原创 Dataset and DataLoader加载数据集(上)参数解释+采用mini-batch糖尿病数据集的逻辑回归

【代码】Dataset and DataLoader加载数据集+采用mini-batch糖尿病数据集的逻辑回归。

2022-10-20 09:56:19 438

原创 (六)处理多维特征的输入(下)+pytorch实现糖尿病数据集的逻辑回归

pima-indians-diabetes: 一、 数据说明: Pima Indians Diabetes Data Set(皮马印第安人糖尿病数据集) 根据现有的医疗信息预测5年内皮马印第安人糖尿病发作的概率。数据链接:https://archive.ics.uci.edu/ml/datasets/Pima+Indians+Diabetes。

2022-10-19 21:14:55 796

原创 (五)处理多维特征的输入(上)+torch.nn.Linear(8,1)表示什么+代码

Linear(8,1).表示w的目标是找一个8维空间到1维空间的非线性的空间变换,神经网络中,引入sigmoid函数给线性变换增加非线性操作,使得可以拟合相应的非线性的变换。变换的维度和层数决定网络的复杂程度。中间如何过度8D->2D->1D 还是8D->24D->12D->1D 具体取什么比较好,这就是一个典型的超参数的搜索。一般隐层越多,中间步骤越多,中间神经元越多,模型对非线性变换的学习能力就越强。学习能力强,会学到输入样本中噪声的规律也学到,所以要学的是数据真值本身的规律,所以学习能力太强也不好

2022-10-18 11:21:03 591 1

原创 【深度学习】(四)逻辑斯蒂回归+与线性回归区别+pytorch代码实现

3)是回归模型,解决分类问题,对分类边界做拟合,很容易产生欠拟合,是线性回归模型,所以效率很高,通常用于做base model。y_data=torch.Tensor([[0],[0],[1]])用逻辑斯蒂回归求loss 画出sigmoid效果图。Pd(x=i)lnPt(x=i) 两个分布之间差异性的大小,值越大越好,表示。2)函数被压缩在0-1之间,并且函数是连续变换的,函数表达的是概率,1)对y值做进一步的函数映射,采用signmoid ()):值越小越好,取负号了。

2022-10-17 20:47:58 360

原创 【深度学习】(三)用pytorch实现线性回归

1、准备数据集2、设计使用类的模型继承nn.Module3、构造loss、optimizer使用pytorchAPI4、循环训练forward,backward,updata model.linear.weight.item()是一个数y_test.data是一个张量 这里不明白的看上一章节

2022-10-15 20:39:14 1059

原创 【深度学习】(二)反向传播+tensor原理+w.data&w.grad&w.grad.data&w.grad.item()区别+练习

1)w.data 表示张量w的值,其本身也是张量,输出格式tensor[数]。2)w.grad 表示张量w的梯度,其本身w.grad是张量 用时(标量计算时)需要取w.grad.data,表示张量w.grad的值,输出格式tensor[数],(梯度输出时)需要取w.grad.item(),表示返回的是一个具体的数值,输出格式 数>3)w.grad.item() l.item() 表示返回的是一个具体的数值,输出格式 数。对于元素不止一个的tensor列表,使用item()会报

2022-10-15 15:16:56 1570

原创 【深度学习】(一)梯度下降算、随机梯度下降原理公式+小练习

模型开始w是一个随机猜测,w=random value,搜索的过程:就是要找一个w最适合数据集的w目的:使得Σ(y^-y)²最小。最直接的方法:将认为权重可能取值的区间w_list=[]表示出来,循环,每层循环求取一个loss(损失) loss最小的w最佳,例如当权重增多时,并不可取。

2022-10-14 19:52:50 1222 1

原创 【机器学习】决策树回归模型+tips 数据集实战

上一篇讲述了决策树分类模型。

2022-10-11 18:38:47 598 3

原创 【机器学习】决策树原理+实战水仙花iris分类+绘制决策树+graphviz-2.38.msi下载-安装

1、决策树是一个树结构(可以二叉或非二叉),每一个非叶子节点表示一个特征属性的测试,每一个分支代表这个特征属性在某个值域上的输出,叶节点存放类别。2、决策过程:从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分支,直到达到叶子节点,叶子节点存放的类别作为决策结果。

2022-10-10 20:34:01 1572

原创 【机器学习】贝叶斯分类原理+实战垃圾短信分类-SMSSpamCollection下载数据集

GaussianNB解决连续型数据的模型,期望样本特征取值都是符合正太分布MultinomialNB 大文本集的分类处理(文章影评)适合有几个BernoulliNB 小文本集的分类处理(短信、消息、商品评论)适合判断有无。

2022-10-07 19:15:57 2076 2

原创 机器学习中X[:,1]与X[1]区别以及data[“column_name“]与data[[“column_name“]]区别

虽然SMS[0]与sms[:,0]的shape都是(5572,)但是文本处理(词频转换)用SMS[0]x=(200,)-> x=(200,1)只需要x-.>x=x.reshape(-1,1)训练时候要用 x=(200,1)这种格式pandas.core.series.Series格式train=tip[["total_bill"]]训练时使用train=tip[["total_bill"]] 训练使用二维

2022-10-06 21:23:48 602 1

transformer代码

之前的文章好多人蹲代码 这就上传了

2022-12-11

训练CNN分类模型-pokemon(文件包括数据集)

训练CNN分类模型-pokemon 任务: 1.尝试修改模型,加入归-化层,DropOut层 2.尝试可视化每层的输出内容 3.尝试收集新的分类数据集来体验训练过程 4.记得提交docx,或pdf文件

2022-11-10

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除