- 博客(13)
- 收藏
- 关注
原创 可解释性lime
区分信任的两个不同的(但相关的)定义很重要:(1)信任预测,即用户是否充分信任单个预测,以便基于该预测采取一些行动;(2)信任模型,即用户是否信任模型在部署时以合理的方式运行。这篇文章提出为单个预测提供解释作为“信任预测”问题的解决方案,并选择多个这样的预测(和解释)作为“信任模型”问题的解决方案。我们的主要贡献总结如下。•LIME,一种算法,通过使用可解释的模型对其进行局部近似,以忠实的方式解释任何分类器或回归器的预测。•SP-LIME,一种通过子模块优化选择一组具有代表性的实例和解释来解决“信
2021-01-24 18:23:41 2520
原创 怎么写论文
摘要引言(introduction)给你的论文定位。论文的研究目标是合理的,它在你的研究领域中有一个合理的位置。论据应该是参考文献中的相关研究资料。从普遍到特定问题。结论这篇论文是有价值的,论据是我们自己的实验结果以及参考文献中的相关内容。从特定问题到普遍意义。引言示例:问题A在学术界普遍存在,有人发现(提出)了1,有人发现(提出)了2,有人发现(提出)了3,基于此,我们认为回答问题c对解决问题A至关重要。...
2021-01-12 20:24:13 115
原创 远程部署代码
pip install 包名 -i https://pypi.tuna.tsinghua.edu.cn/simplepip install 包名 -i https://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com
2021-01-04 20:11:41 147
原创 可解释性啊
可解释分为 local explanation 和 global explanation以图像识别为例:local explanation 要求解释“这张图片”为啥是一只猫?global explanation 要求解释 你认为猫长得什么样?local explanation方块的大小和颜色也是需要选择的,也是参数的一部分像素点越亮,代表当前像素对结果预测越重要在图中点处的偏微分约为0,证明鼻子长度对是否大象影响不大,但事实并不是如此。解决这一问题的方法
2020-11-25 19:30:15 218
原创 bert和他的家人
albert轻量级bert,参数量减少,跨层的参数共享,每一个Trm共享参数; bert中每一个Trm的参数是不共享的中文分词多用结巴分词bert-wwm (中文)可以对所有的词语进行maskerine (中文) 只能 mask实体feature-based :预训练获得的模型参数在下游任务中不会进行调整fine-tuning : 预训练获得的模型参数在下游任务中进行微调...
2020-10-16 11:50:44 77
原创 ELMO、BERT、ERNIE、GPT
word embedding是根据词汇的上下文训练出来的词向量的每一个维度代表了这个词的某些信息用word embedding 当做某一个词汇的feature在传统的embedding中,不同的word tokens只要属于同一个word type,那它们的word embedding就是一样的(即它们的vector是一样的),换句话说每一个word type对应一个embedding。这样有很多不足,因为属于同一个word type的不同的word tokens可能有不同的语义。现在,我们希望.
2020-08-15 15:54:48 396
原创 transformer--变形金刚
bert就是无监督训练的transformertransformer :seq2seq model with “self-attention”单向的RNN:在输出b4的时候,已经看了a1~a4在输出b3的时候,已经看了a1~a3双向的RNN:在输出每一个bi的时候,已经看了a1~a4RNN的优点:可以考虑到长距离的依赖RNN的缺点:不能实现并行化也可以用CNN来处理序列数据,图中每一个三角代表一个filterCNN的优点:如果想要考虑长距离依赖,需要叠加多层filterCNN的优
2020-08-15 09:32:36 798
转载 关于attention的一些事儿
soft attention机制可以起到对齐的作用。比如对于机器翻译来说,本质上是目标语单词和源语单词之间的一种单词对齐机制。self attention机制Self Attention也经常被称为intra Attention(内部Attention)。 在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention机制发生在Target的元素Query和
2020-08-11 22:26:25 143
原创 NLP的一些知识
NLP的一些知识EmbeddingEmbedding 是一个将离散变量转为连续向量表示的一个方式。在神经网络中,embedding 是非常有用的,因为它不光可以减少离散变量的空间维数,同时还可以有意义的表示该变量。分词分词(Segment):中英文都存在分词的问题,不过相对来说,英文单词与单词之间本来就有空格进行分割,所以处理起来相对方便。但是中文书写是没有分隔符的,所以分词的问题就比较突出。分词常用的手段可以是基于字典的最长串匹配,据说可以解决85%的问题,但是歧义分词很难。另外就是当下主流的统计
2020-08-05 10:34:16 441
原创 运行FLAT代码遇到的bug以及解决方法
记录一下运行FLAT代码遇到的bug以及解决方法运行flat_main.pyTraceback (most recent call last): File "<input>", line 1, in <module> File "D:\study\PyCharm 2020.1.3\plugins\python\helpers\pydev\_pydev_bundle\pydev_umd.py", line 197, in runfile pydev_import
2020-07-29 12:34:42 575
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人