自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 可解释性lime

区分信任的两个不同的(但相关的)定义很重要:(1)信任预测,即用户是否充分信任单个预测,以便基于该预测采取一些行动;(2)信任模型,即用户是否信任模型在部署时以合理的方式运行。这篇文章提出为单个预测提供解释作为“信任预测”问题的解决方案,并选择多个这样的预测(和解释)作为“信任模型”问题的解决方案。我们的主要贡献总结如下。•LIME,一种算法,通过使用可解释的模型对其进行局部近似,以忠实的方式解释任何分类器或回归器的预测。•SP-LIME,一种通过子模块优化选择一组具有代表性的实例和解释来解决“信

2021-01-24 18:23:41 2520

原创 怎么写论文

摘要引言(introduction)给你的论文定位。论文的研究目标是合理的,它在你的研究领域中有一个合理的位置。论据应该是参考文献中的相关研究资料。从普遍到特定问题。结论这篇论文是有价值的,论据是我们自己的实验结果以及参考文献中的相关内容。从特定问题到普遍意义。引言示例:问题A在学术界普遍存在,有人发现(提出)了1,有人发现(提出)了2,有人发现(提出)了3,基于此,我们认为回答问题c对解决问题A至关重要。...

2021-01-12 20:24:13 115

原创 远程部署代码

pip install 包名 -i https://pypi.tuna.tsinghua.edu.cn/simplepip install 包名 -i https://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com

2021-01-04 20:11:41 147

原创 可解释性啊

可解释分为 local explanation 和 global explanation以图像识别为例:local explanation 要求解释“这张图片”为啥是一只猫?global explanation 要求解释 你认为猫长得什么样?local explanation方块的大小和颜色也是需要选择的,也是参数的一部分像素点越亮,代表当前像素对结果预测越重要在图中点处的偏微分约为0,证明鼻子长度对是否大象影响不大,但事实并不是如此。解决这一问题的方法

2020-11-25 19:30:15 218

原创 bert和他的家人

albert轻量级bert,参数量减少,跨层的参数共享,每一个Trm共享参数; bert中每一个Trm的参数是不共享的中文分词多用结巴分词bert-wwm (中文)可以对所有的词语进行maskerine (中文) 只能 mask实体feature-based :预训练获得的模型参数在下游任务中不会进行调整fine-tuning : 预训练获得的模型参数在下游任务中进行微调...

2020-10-16 11:50:44 77

原创 BERT执行原理

1、组织好项目结构2、在远程服务器新建好项目文件夹BERT3、连接远程服务器4、配置参数5、run

2020-10-16 11:50:09 524

转载 roberta

roberta的准备工作

2020-08-21 19:28:17 642

原创 ELMO、BERT、ERNIE、GPT

word embedding是根据词汇的上下文训练出来的词向量的每一个维度代表了这个词的某些信息用word embedding 当做某一个词汇的feature在传统的embedding中,不同的word tokens只要属于同一个word type,那它们的word embedding就是一样的(即它们的vector是一样的),换句话说每一个word type对应一个embedding。这样有很多不足,因为属于同一个word type的不同的word tokens可能有不同的语义。现在,我们希望.

2020-08-15 15:54:48 396

原创 transformer--变形金刚

bert就是无监督训练的transformertransformer :seq2seq model with “self-attention”单向的RNN:在输出b4的时候,已经看了a1~a4在输出b3的时候,已经看了a1~a3双向的RNN:在输出每一个bi的时候,已经看了a1~a4RNN的优点:可以考虑到长距离的依赖RNN的缺点:不能实现并行化也可以用CNN来处理序列数据,图中每一个三角代表一个filterCNN的优点:如果想要考虑长距离依赖,需要叠加多层filterCNN的优

2020-08-15 09:32:36 798

转载 关于attention的一些事儿

soft attention机制可以起到对齐的作用。比如对于机器翻译来说,本质上是目标语单词和源语单词之间的一种单词对齐机制。self attention机制Self Attention也经常被称为intra Attention(内部Attention)。 在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention机制发生在Target的元素Query和

2020-08-11 22:26:25 143

原创 RNN的变迁

一个神经元的计算图

2020-08-05 17:10:51 145

原创 NLP的一些知识

NLP的一些知识EmbeddingEmbedding 是一个将离散变量转为连续向量表示的一个方式。在神经网络中,embedding 是非常有用的,因为它不光可以减少离散变量的空间维数,同时还可以有意义的表示该变量。分词分词(Segment):中英文都存在分词的问题,不过相对来说,英文单词与单词之间本来就有空格进行分割,所以处理起来相对方便。但是中文书写是没有分隔符的,所以分词的问题就比较突出。分词常用的手段可以是基于字典的最长串匹配,据说可以解决85%的问题,但是歧义分词很难。另外就是当下主流的统计

2020-08-05 10:34:16 441

原创 运行FLAT代码遇到的bug以及解决方法

记录一下运行FLAT代码遇到的bug以及解决方法运行flat_main.pyTraceback (most recent call last): File "<input>", line 1, in <module> File "D:\study\PyCharm 2020.1.3\plugins\python\helpers\pydev\_pydev_bundle\pydev_umd.py", line 197, in runfile pydev_import

2020-07-29 12:34:42 575

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除