自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(81)
  • 资源 (1)
  • 问答 (1)
  • 收藏
  • 关注

原创 javamail 发送邮件报错:Could not connect to SMTP host: smtp.163.com, port: 25 ,问题解决

报错内容其实代码没啥问题,主要就是两个步骤。

2024-01-08 07:44:08 942

原创 论文笔记:AugGPT: Leveraging ChatGPT for Text Data Augmentation

文本数据增强是克服许多自然语言处理(NLP)任务中样本量有限的挑战的有效策略。这一挑战在小样本学习场景中尤为突出,其中目标域中的数据通常更加稀缺且质量较低。缓解此类挑战的一种自然且广泛使用的策略是执行数据增强,以更好地捕获数据不变性并增加样本量。然而,当前的文本数据增强方法要么无法确保生成的数据的正确标记(缺乏忠实性),要么无法确保生成的数据足够的多样性(缺乏紧凑性),或者两者兼而有之。

2023-07-14 17:18:31 1719 4

原创 maven进阶总结

1. maven之间可以互相导包2. maven的依赖是具有传递性的4. 继承与聚合4.1聚合4.2 继承5. 属性的配置与使用6. 版本管理8. 多环境开发和跳过测试(了解)

2023-02-28 01:47:39 298 1

原创 SpringMVC中的mybatis

没有必要在 Spring 的 XML 配置文件中注册所有的映射器。这个类可以让你直接注入数据映射器接口到你的 service 层 bean 中。当使用映射器时,你仅仅如调 用你的 DAO 一样调用它们就可以了,但是你不需要编写任何 DAO 实现的代码,因为 MyBatis-Spring 将会为你创建代理。首先,Mybatis中的有一段配置非常方便,省去我们去写DaoImpl(Dao层实现类)的时间,这个配置就是包扫描。映射过去对应的POJO封装对象。

2023-02-23 22:00:00 489

原创 Spring的IOC,注入问题,包括自动注入的条件和前提

Spring的核心技术IOC(Intorol of Converse控制反转)的实现途径是DI(dependency Insert依赖注入)。而依赖注入(DI)的实现方式又有两种,xml方式和注解方式。属性注入就是在实例化对象时,同时向对象中的属性进行相应的赋值。即,通俗点说,属性注入就是给类中的属性赋值。

2023-02-19 12:38:17 586

原创 AOP总结

切入点表达式标准格式:动作关键字( 访问修饰符 返回值 包名类/接口名方法名(参数异常名)表示模块名,例如UserService的匹配描述为。表示名词,例如getById匹配描述为getBy*5.方法名书写保留动词,例如get,使用。6.参数根据实际情况灵活调整。2查询操作的返回值建议使用。切入点表达式描述通配符。切入点表达式书写技巧。

2023-02-16 21:14:37 262

原创 论文笔记:Cross-Lingual Cross-Modal Consolidation for Effective Multilingual Video Corpus Moment Retrieva

现有的多语言视频语料库矩检索(mVCMR)方法主要基于双流结构。视觉流利用视频中的视觉内容来估计查询视觉相似性,而字幕流利用查询字幕相似性。最后的查询视频相似性集合了来自两个流的相似性。在我们的工作中,我们提出了一种简单有效的策略,称为跨语言跨模态整合(C3),以提高mVCMR的准确性。我们采用整体相似性作为教师来指导每个流的训练,从而产生更强大的整体相似性。同时,我们使用特定语言的教师来指导学生使用另一种语言,以开发不同语言之间的互补知识。在mTVR数据集上的大量实验证明了我们的C3方法的有效性。

2023-01-06 02:43:54 346

原创 ffmpeg压缩视频

然后又用ffmpeg来压缩,先设置视频的帧率为为 20fps,然后再设置视频的码率为1Mb/s,最后发现视频也被压缩到80M,但是效果要好很多,清晰度也比较高。

2022-11-14 21:34:09 10756

原创 JS正则表达式的规则

正则表达式规则

2022-08-17 02:37:25 198

原创 MyBatis流程以及套路

构建 SqlSessionFactory官方文档给出的有两种方法,一种是从 XML 中构建 SqlSessionFactory,另一种是不使用 XML 构建 SqlSessionFactory,我学习的就是从 XML 中构建 SqlSessionFactory,所以另一种方法也不多解释。但现在有了一种更简洁的方式——使用和指定语句的参数和返回值相匹配的接口(比如 BlogMapper.class),现在你的代码不仅更清晰,更加类型安全,还不用担心可能出错的字符串字面值以及强制类型转换。...

2022-08-16 12:22:26 900

原创 论文笔记:DeBERTa: Decoding-enhanced BERT with Disentangled Attention

DeBERTa:具有分离注意力的解码增强型 BERT摘要介绍2 背景2.1 TRANSFORMER2.2 MASKED LANGUAGE MODEL(屏蔽语言模型)3 THE DEBERTA ARCHITECTURE3.1 DISENTANGLED ATTENTION: A TWO-VECTOR APPROACH TO CONTENT AND POSITION EMBEDDING(解开注意力:内容和位置嵌入的双向量方法)摘要预训练神经语言模型的最新进展显着提高了许多自然语言处理 (NLP) 任务的性能

2022-07-15 19:49:36 1010

原创 论文笔记:Cross-View Language Modeling: Towards Unified Cross-Lingual Cross-Modal Pre-training

本文介绍了一种简单有效的语言模型预训练框架Cross-ViewLanguageModeling,该框架将跨语言跨模态预训练与共享的架构和目标相结合。我们的方法受到一个关键观察的启发,即跨语言和跨模式的预训练具有相同的目标,即将同一对象的两个不同视图对齐到一个共同的语义空间中。为此,跨视图语言建模框架将多模态数据(即图像-字幕对)和多语言数据(即并行句子对)视为同一对象的两个不同视图,并通过条件掩码语言建模和对比学习来训练模型以最大化它们之间的相互信息来对齐两个视图。两个开创性的工作,M3PM3。...

2022-07-15 19:48:55 1082

原创 pytorch-Detach的作用

它可以使两个计算图的梯度传递断开,从而实现我们所需的功能。

2022-07-14 20:00:45 776

原创 为什么测试的时候不需要batch normalization 和dropout?

转载自:Batch NormalizationBN,Batch Normalization,就是在深度神经网络训练过程中使得每一层神经网络的输入保持相近的分布。BN训练和测试时的参数是一样的嘛?对于BN,在训练时,是对每一批的训练数据进行归一化,也即用每一批数据的均值和方差。而在测试时,比如进行一个样本的预测,就并没有batch的概念,因此,这个时候用的均值和方差是全量训练数据的均值和方差BN训练时为什么不用全量训练集的均值和方差呢?因为在训练的第一个完整epoch过程中是无法得到输入层之外其他层全量训练

2022-07-05 17:06:39 728

原创 论文笔记:A CLIP-Hitchhiker’s Guide to Long Video Retrieval

  本文的目标是将图文模型应用于长视频检索。最近的研究表明,通过采用CLIP,视频检索具有最先进的性能,有效地搭乘了视频任务的图文表示。然而,在学习时间聚合方面取得的成功有限,其性能优于平均池化由 CLIP 每帧提取的图像级表示。我们发现,通过查询评分的帧嵌入加权平均值的简单而有效的基线是比所有先前的时间建模尝试和均值池化的显着改进。通过这样做,我们提供了一个改进的基准,以供其他人进行比较,并在一套长视频检索基准上演示这一简单基准的最新性能。  预先训练的视觉语言模型正变得越来越普遍,因为它们在一系列下游任

2022-06-29 11:09:10 331

原创 论文笔记:Composable Sparse Fine-Tuning for Cross-Lingual Transfer

用于跨语言传输的可组合稀疏微调Abstract1 简介2 Background7 Conclusion and Future WorkAbstract对大型预训练模型的整个参数进行微调已成为迁移学习的主流方法。为了提高效率并防止灾难性的遗忘和干扰,已经开发了适配器和稀疏微调等技术。适配器是模块化的,因为它们可以组合以使模型适应知识的不同方面(例如,专用语言和/或任务适配器)。(每一个模块负责一个功能,然后组合起来)。稀疏微调具有表现力,因为它控制所有模型组件的行为。在这项工作中,我们介绍了一种具有这两

2022-06-07 21:32:02 721

原创 论文笔记:Multi-Source Cross-Lingual Model Transfer: Learning What to Share

多源跨语言模式迁移:学习分享什么摘要二级目录三级目录摘要利用神经网络模型,现代NLP应用已经享受了巨大的推动。然而,由于缺乏各种NLP任务的标注训练数据,这种深度神经模型不适用于大多数人类语言。跨语言迁移学习(CLTL)是一种通过利用来自其他(源)语言的标记数据来为低资源目标语言建立NLP模型的可行方法。在这项工作中,我们将重点放在多语言转换设置上,利用多种源语言的训练数据来进一步提高目标语言的性能。二级目录三级目录...

2022-05-11 21:56:53 555

原创 论文笔记:Cross-Lingual Ability of Multilingual BERT: An Empirical Study

多语种BERT跨语言能力的实证研究摘要介绍2 BACKGROUND2.1 BERT摘要最近的研究展示了多语言BERT(M-BERT)令人惊讶的跨语言能力-令人惊讶的是,它的训练没有任何跨语言目标,也没有对齐的数据。在这项工作中,我们对M-BERT中不同成分对其跨语言能力的贡献进行了全面的研究。我们研究了语言的语言属性、模型的体系结构和学习目标的影响。这项实验研究是在三种不同类型的语言-西班牙语、印地语和俄语-的背景下进行的,并使用了两种概念上不同的自然语言处理任务:文本蕴涵和命名实体识别。我们的主要结论

2022-04-29 16:12:06 700

原创 论文笔记:WORD TRANSLATION WITHOUT PARALLEL DATA

没有平行数据的单词翻译摘要1 介绍摘要学习跨语言词嵌入的最先进方法依赖于双语词典或平行语料库。最近的研究表明,使用字符级信息可以减轻对平行数据监督的需求(再看看)。虽然这些方法显示了令人鼓舞的结果,但它们与受监督的方法相比并不相同,并且仅限于共享一个公共字母表的语言对。在这项工作中,我们表明,我们可以在不使用任何平行语料库的情况下,通过以无监督的方式对齐单语单词嵌入空间来建立两种语言之间的双语词典。在不使用任何字符信息的情况下,我们的模型在一些语言对的跨语言任务上甚至优于现有的监督方法。我们的实验表明,

2022-04-27 01:05:51 503

原创 论文笔记:Cross-Lingual Semantic Role Labeling with High-Quality Translated Training Corpus

基于高质量翻译训练语料库的跨语言语义角色标注摘要摘要许多研究工作致力于语义角色标记(SRL),这对于自然语言理解至关重要。当大规模语料库可用于资源丰富的语言(如英语)时,监督方法取得了令人印象深刻的表现。而对于没有注释 SRL 数据集的低资源语言,获得有竞争力的性能仍然具有挑战性。跨语言 SRL 是解决该问题的一种很有前途的方法,它在模型转移和注释投影的帮助下取得了很大进展。在本文中,我们提出了一种基于语料库翻译的新替代方案,从源黄金标准 SRL 注释构建目标语言的高质量训练数据集。在 Universa

2022-04-17 14:21:45 297 1

原创 论文笔记:Cross-lingual Dependency Parsing with Unlabeled Auxiliary Languages

使用未标记辅助语言的跨语言依存句法分析摘要摘要跨语言迁移学习已成为对抗低资源语言注释资源不可用的重要武器。跨语言迁移的基本技术之一是以词嵌入或上下文编码的形式学习与语言无关的表示。在这项工作中,我们建议利用来自辅助语言的未注释句子来帮助学习与语言无关的表示。具体来说,我们探索了用于学习上下文编码器的对抗性训练,这些编码器产生跨语言的不变表示,以促进跨语言迁移。我们对跨语言依赖解析进行了实验,我们在源语言上训练依赖解析器并将其转换为广泛的目标语言。对 28 种目标语言的实验表明,对抗训练在几种不同的设置下

2022-04-14 01:50:55 1031

原创 论文笔记:UC2: Universal Cross-lingual Cross-modal Vision-and-Language Pre-training

视觉和语言预训练在学习视觉和语言之间的多模态表示方面取得了令人瞩目的成功。 为了将这种成功推广到非英语语言,我们介绍了 UC2,这是第一个用于跨语言跨模态表示学习的机器翻译增强框架。 为了解决图像数据集多语言字幕的稀缺问题,我们首先通过机器翻译 (MT) 将现有的仅英语数据集与其他语言进行扩充。 然后,我们将标准 Masked Language Modeling 和 Image-Text Matching 训练目标扩展到多语言设置,其中通过共享视觉上下文(即使用图像作为枢轴)捕获不同语言之间的对齐。 为了促

2022-03-21 10:57:58 4830 1

原创 李宏毅 Transformer(Decoder部分)

Transformer P2_DecoderDecoder – Autoregressive (AT)Autoregressive (AT )😗 利用前期若干时刻的随机变量的线性组合来描述以后某时刻随机变量的线性回归模型。即已知N个数据,可由模型推出第N点前面或后面的数据(设推出P点)

2022-03-10 00:53:30 4109

原创 在Ubuntu20.0.4安装cuda11.4遇到的nvidia-smi和nvcc-V 版本不一致的问题

去官网下载cuda.deb 文件wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pinsudo mv cuda-ubuntu2004.pin /etc/apt/preferences.d/cuda-repository-pin-600wget https://developer.download.nvidia.com/compute/cuda/11.4.4/l

2022-03-09 23:09:12 1292

原创 linux下ubantu20.0.4安装CUDA 11.4.0的流程

NVIDIA官网全部的cuda版本查询CUDA 11.4.0 版本的下载具体页面linux查看cuda版本1.cat /usr/local/cuda/version.txt2.或者 nvcc -v如果1不行,那就把txt改成改成json流程官网介绍的流程步骤,但是很繁琐,想看的可以看一下安装步骤:0、检查是否安装显卡驱动cat /proc/driver/nvidia/version显示:NVRM version: NVIDIA UNIX x86_64 Kernel Module

2022-03-09 19:19:51 1775

原创 李宏毅 Transformer(介绍 + Encoder部分)

Transformer就是一个,Sequence-to-sequence的model,他的缩写,我们会写做Seq2seq,那Sequence-to-sequence的model,又是什麼呢我们之前在讲input a sequence的,case的时候,我们说input是一个sequence,那output有几种可能一种是input跟output的长度一样我们不知道应该要output多长,由机器自己决定output的长度,即Seq2seq举例来说,Seq2seq一个很好的应用就是 语音辨识

2022-03-08 01:14:25 7516

原创 论文笔记 :Multi30K: Multilingual English-German Image Descriptions

多语言英德图像描述 摘要1 介绍2 Multi30K数据集2.1翻译2.2独立描述2.3翻译VS独立的描述2.4 English vs. German3 讨论3.1 Multi30K for Image Description (没用)3.2 Multi30K for Machine Translation(没用)4 结论摘要我们引入Multi30K数据集来刺激多语言多模态研究。图像描述的最新进展几乎完全在英语语言数据集上得到证实,但图像描述不应局限于英语。该数据集扩展了Flickr30K数据集,其中

2022-03-04 23:29:08 3422

原创 论文笔记:Towards Zero-shot Cross-lingual Image Retrieval and Tagging

面向零镜头跨语言图像检索与标注摘要导言三级目录摘要最近,人们对多模态语言和视觉问题的兴趣激增。在语言方面,大多数模型主要关注英语,因为大多数多模态数据集都是单语的。我们试图通过在文本侧使用跨语言预训练来学习多模态表征的零镜头方法来弥合这一差距。我们提出了一种简单而实用的方法来构建跨语言图像检索模型,该模型在单语训练数据集上进行训练,但可以在推理过程中以零拍跨语言方式使用。我们还引入了一个新的目标函数,该函数通过将不同的文本相互推离来收紧文本嵌入簇。为了进行评估,我们引入了一个新的1K多语言MSCOCO

2022-03-02 18:01:22 2341

原创 论文笔记:M3P: Learning Universal Representations via Multitask Multilingual Multimodal Pre-training

M3P:通过多任务多语言多模态预训练学习通用表征摘要1.导言摘要我们提出了多任务多语言多模式预训练模型M3P,该模型通过多任务预训练将多语言预训练和多模式预训练结合到一个统一的框架中。我们的目标是学习通用表示法,将以不同方式出现的对象或以不同语言表达的文本映射到一个共同的语义空间。此外,为了明确鼓励图像和非英语语言之间的细粒度对齐,我们还提出了多模态代码切换训练(MCT),通过代码切换策略将单语预训练和多模态预训练结合起来。在MSCOCO和Multi30K两个基准数据集上对多语言图像检索任务进行了实验。

2022-02-14 10:25:03 1596

原创 李宏毅 self-attention

解决的问题:输入的长度不固定怎么表示么?one-hot向量法word-enbedding一整个输入,一堆输出一整个输入,一个输出请看作业五 seq2seq

2022-02-07 22:09:29 834

原创 李宏毅 bert 讲解

bert就是transformer的encoder输入seq,输出seq先决定盖哪几个,再决定怎么盖然后输出输出的就是一个向量,里面就是词典所有的单词的概率(是吗)然后跟我那个真实值,最小化,(就是一个分类问题),训练的时候,bert里面的参数和我们那个liner的参数一起训练。除了上述的mask之外,还会预测下一个句子这个输出的yes或者or,意思就是我这两个句子是不是相接的,后来说这个方法其实没有什么用。 然后就是bert其实它的作用就是填空,但是他却可以使用在其他的任务上,这些

2022-01-28 02:45:17 1340

原创 三篇助你理解Transformer 中的 Query、Key 与 Value

如何理解 Transformer 中的 Query、Key 与 Value这一篇主要是帮助你用比喻的手法来了解一下attention机制中的query,key,value的概念解释这一篇帮你用图来了解过程如何理解 Transformer 中的 Query、Key 与 Value这一篇总结收尾就是Query*Key其实就是计算相关度或叫依赖度,然后经过softmax转为权重,针对可能的y计算加权和就得到最终的结果了。其实就是用你Query*Key算出来一个权重,然后再跟value计算一下子,出

2022-01-20 23:41:50 5993 1

转载 VSCode输出框中文乱码问题

问题在输出框打印中文的时候乱码。佛了,强迫症真的忍不了。找教程emmm莫名找到的都是些说代码本身中出现乱码的。直到我在知乎上找到一个哥们的链接解答。https://www.jianshu.com/p/e634bff989f2解决方法添加系统全局变量PYTHONIOENCODING,值设置为UTF8然后再重启VSCode就好了附上全局变量设置方式教程诶担心新手们抛弃了VSCode这么好用的东西。右键我的电脑,点属性高级系统设置3.环境变量点新建变量名PY

2022-01-06 18:01:56 200

原创 论文笔记:Multilingual Multimodal Pre-training for Zero-Shot Cross-Lingual Transfer of Vision-Language Mo

视觉-语言模型零镜头跨语言迁移的多语种多模态预训练摘要介绍方法Multilingual Multimodal Transformers摘要本文研究视觉-语言模型的零镜头跨语言迁移。具体来说,我们关注于多语言文本到视频的搜索,并提出了一个基于Transformer-based的模型来学习语境化的多语言多模态嵌入。在零镜头设置下,我们的经验表明,当我们使用非英语句子查询多语言文本-视频模型时,性能会显著下降。为了解决这一问题,我们引入了一种多语言多模态的预训练策略,并收集了一个新的多语言教学视频数据集(Mu

2022-01-01 14:44:52 2474

原创 论文笔记:COCO-CN for Cross-Lingual Image Tagging, Captioning, and Retrieval

COCO-CN用于跨语言图像标记、标题和检索摘要介绍摘要本文从数据和基线方法两方面对跨语言图像标注和检索做出了贡献。我们提出了一种新的中文句子和标记丰富MS-COCO的数据集coco - cn。为了有效的标注获取,我们开发了一个推荐辅助的集体标注系统,自动为标注者提供与图片内容相关的几个标签和句子。COCO-CN拥有20 342幅图像,27 218个中文句子,70 993个标签,是目前最大的汉英图像标注数据库,为跨语言图像标注、字幕标注和检索提供了统一的、具有挑战性的平台。我们从跨语言资源中开发概念简单

2021-12-21 13:16:26 2560 1

原创 论文笔记:COOKIE: Contrastive Cross-Modal Knowledge Sharing Pre-training for Vision-Language Representati

面向视觉语言表示的跨模态知识共享预训练摘要介绍预训练整体结构跨模态对比学习结论摘要最近,人们对跨模态预培训的兴趣激增。然而,现有的方法预先训练一个单流模型来学习联合视觉语言表示,这在进行跨模态检索时会受到计算爆炸的影响。在这项工作中,我们提出了对比跨模态知识共享预训练(COOKIE)方法来学习通用文本图像表示。其中有两个关键设计,一个是视觉和文本编码器上的权重共享transformer ,用于对齐文本和图像语义,另一个是三种对比学习,用于在不同模式之间共享知识。跨模态知识共享极大地促进了单峰表示的学习

2021-12-10 17:24:34 2674 1

原创 论文笔记:Frozen in Time: A Joint Video and Image Encoder for End-to-End Retrieval

冻结时间:一种用于端到端检索的视频图像联合编码器摘要介绍方法模型架构培训策略结论摘要我们在这项工作中的目标是视频文本检索——特别是一种联合嵌入,使高效的文本到视频检索成为可能。这一领域的挑战包括视觉体系结构的设计和训练数据的性质,因为可用的大规模视频文本训练数据集(如HowTo100M)是有噪声的,但是只有通过大量计算才能在规模上实现有竞争力的性能。我们在本文中解决了这两个挑战。我们提出了一种端到端的可训练模型,旨在利用大规模图像和视频字幕数据集。我们的模型是对最近的ViT and Timesform

2021-12-08 23:27:34 989

原创 论文笔记TACo: Token-aware Cascade Contrastive Learning for Video-Text Alignment

用于视频文本对齐的令牌感知级联对比学习摘要介绍结论摘要对比学习被广泛用于训练基于变换器的视觉语言模型,用于视频文本对齐和多模态表示学习。本文提出了一种新的算法,称为TACo,该算法利用两种新技术改进了对比学习。第一种是标记感知对比损失,它是通过考虑单词的句法类别来计算的。这是因为观察到,对于视频-文本对,文本中的内容词(如名词和动词)比虚词更可能与视频中的视觉内容对齐。其次,采用级联采样方法生成一组小的硬负示例,用于有效估计多模态融合层的损耗。为了验证TACO的有效性,在我们的实验中,我们对一组下游任务

2021-12-06 16:05:05 440

原创 论文笔记:TEACHTEXT: CrossModal Generalized Distillation for Text-Video Retrieval

跨模态广义蒸馏的文本-视频检索摘要介绍动机文本嵌入集合展示方法结论摘要近年来,通过对视频和音频数据集进行大规模的预训练来构建强大的视频编码器,文本视频检索的任务取得了长足的进展。相比之下,尽管存在自然对称性,但开发大规模语言预训练的有效算法的设计仍有待探索。在这项工作中,我们首先研究了此类算法的设计,并提出了一种新的广义提取方法TEACHTEXT,该方法利用来自多个文本编码器的互补线索为检索模型提供增强的监控信号。此外,我们将我们的方法扩展到视频端模式,并表明我们可以在不影响性能的情况下有效地减少测试时

2021-12-03 21:47:09 2866

原创 论文笔记:Adaptive Cross-Modal Prototypes for Cross-Domain Visual-Language Retrieval

用于跨域视觉语言检索的自适应跨模态原型摘要介绍方法问题描述单峰组合龙骨摘要在本文中,我们研究了在高度实用的环境下的视觉文本检索任务,在这种环境下,带有成对文本描述的标记视觉数据在一个域(“源”)中可用,而在感兴趣的域(“目标”)中只有未标记视觉数据(没有文本描述)可用。我们提出了AdaptiveCross-MODAL原型框架,该框架旨在通过学习跨模态可视文本表示来实现目标域检索,同时最小化源域和目标域之间的单峰和跨模态分布偏移。。我们的方法基于两个关键思想:第一,我们对归纳偏差进行编码,即学习到的跨模态

2021-12-02 22:07:05 2795 1

socket.rar

里面包含的三组Linux下的socket编程,过程从简单到复杂,有服务端和客户端,生产者消费者,上锁,以及多线程的交互

2020-05-07

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除