自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

叶梓老师AI人工智能前沿分享

人工智能系列课程:机器学习深度学习机器学习强化学习自然语言处理计算机视觉

  • 博客(629)
  • 资源 (1)
  • 收藏
  • 关注

原创 人工智能讲师AI讲师大模型讲师叶梓介绍及大语言模型技术原理与实践提纲

本课程旨在通过实际案例展示ChatGPT、ChatGLM、Langchain等相关大语言模型的具体应用场景及实践技巧,从而帮助学习者深入了解和掌握大语言模型的概念和更广泛的应用,深入理解其工作方式,包括其基础知识、核心算法和实现方式,掌握其在各行业领域中的应用情况等。该课程适合于对大语言模型技术感兴趣的学习者,从初学者到进阶者均可受益。经过本课程的学习,获得相关技术实战经验,通过一系列的实践案例提高利用大模型解决实际问题能力。

2024-02-21 16:30:38 1275

原创 AI人工智能大模型讲师叶梓《基于人工智能的内容生成(AIGC)理论与实践》培训提纲

本课程介绍了chatGPT相关模型的具体案例实践,通过实操更好的掌握chatGPT的概念与应用场景,可以作为chatGPT领域学习者的入门到进阶级课程。1、指示学习(Instruct Learning)6、Batch Norm与Layer Norm。2、Transformer中的block。1、你需要的仅仅是“注意力”7、chatGPT的应用领域。8、chatGPT引发的讨论。5、位置编码(抛弃RNN)4、从人类反馈中RL的思路。3、有监督微调(SFT)5、奖励建模(RM)

2023-12-30 13:26:21 795

原创 人工智能AIGC培训讲师叶梓介绍及AI强化学习培训提纲

强化学习是当前最热门的研究方向之一,广泛应用于机器人学、电子竞技等领域。本课程系统性的介绍了强化学习(深度强化学习)的基本理论和关键算法,包括:马尔科夫决策过程、动态规划法、蒙特卡罗法、时间差分法、值函数逼近法,策略梯度法等;以及该领域的最新前沿发展,包括:DQN及其变种、信赖域系方法、Actor-Critic类方法、多Agent深度强化学习等;同时也介绍大量的实际案例,包括深度强化学习中最著名的工程应用:Alpha Go。

2023-12-06 14:16:05 266

原创 人工智能ai大模型培训师专家讲师叶梓介绍及ChatGPT提纲

叶梓,长期负责城市信息化智能平台的建设工作,牵头多个省级、市级智能化信息系统的建设,主持设计并搭建多个行业省级、市级大数据平台。参与国家级行业人工智能课题研究,牵头市级行业人工智能课题(智能化医疗产品、智能化场景应用)研究。带领团队在相关行业领域研发多款人工智能创新产品,成功落地多项大数据、人工智能前沿项目。参与国家级、省级大数据技术标准的制定,曾获省部级以上的科技创新一等奖。8、chatGPT的应用领域。9、chatGPT引发的讨论。2、 GPT的内部架构。5、 GPT的应用场景。6、奖励建模(RM)

2023-03-25 16:42:58 2365

原创 AI工智能讲师叶梓培训简历及提纲:AI人工智能之基于人工智能的内容生成(AIGC)简历提纲

AIGC并不是一个全新的概念,它最早出现在深度学习模型“对抗生成网络”GAN的应用中,被誉为“21世纪最强大的算法模型之一” ,后续发展起来的扩散模型,以及自然语言领域BERT、GPT等都是典型的AIGC模型。

2023-02-05 20:25:56 989

原创 人工智能讲师自然语言处理培训讲师介绍叶梓:人工智能之最新自然语言处理技术与实战NLP讲师简历

人工智能讲师叶梓九月新课推出:《人工智能之最新自然语言处理技术与实战》,助理QQ:526346584人工智能之最新自然语言处理技术与实战l课程介绍:自然语言处理(简称NLP)是计算机科学和人工智能研究的一个重要方向,研究计算机和理解和运用人类语言进行交互的问题,它是集语言学、机器学习、统计学、大数据于一体的综合学科。本课程主要介绍了NLP中的常用知识点:分词、词法分析、句法分析、向量化方法、经典的NLP机器学习算法,还重点介绍了NLP中最近两年来基于大规模语料预训练的词嵌入模...

2020-09-04 09:32:09 479

原创 AI讲师人工智能讲师机器学习讲师深度学习讲师叶梓简历(机器学习深度学习强化学习人工智能老师)

上海交通大学计算机专业博士毕业,在校期间的主研方向为数据挖掘、机器学习、AI人工智能。毕业后即进入某大型软件上市公司从事大数据、人工智能等技术相关工作。在大数据应用、人工智能等方面都有着丰富的经验。点击博客个人主页查看更多详情案例及课程:主要课程:《数据分析与数据挖掘导论》 《机器学习与深度学习》 《基于深度学习的计算机视觉》 《强化学习与深度强化学习》 《强化学习》 《...

2019-09-24 16:45:23 1885

原创 大数据人工智能培训讲师老师:叶梓简介 人工智能讲师ai讲师大数据讲师人工智能老师

上海交通大学计算机专业博士毕业,在校期间的主研方向为数据挖掘、机器学习、人工智能。毕业后即进入某大型软件上市公司从事大数据、人工智能等技术相关工作,曾先后作为技术经理或总工程师,负责大型信息平台、市级信息平台的建设工作,并参与省级信息平台的建设;主持制定了包括多份信息化工程标准。在大数据应用、人工智能等方面都有着丰富的经验。个人助理QQ:526346584案例及课程:主要课程:《数据分...

2019-09-11 09:45:18 10912 1

原创 叶梓老师 人工智能兼职讲师之深度学习《计算机视觉的深度学习实践》

人工智能的时代,深度学习这个热点是每个程序员必须了解的内容。近年来深度学习研究得到了充分的发展,但系统的课程少之又少,能够理论联系实际,适合初学程序员学习的课程更是凤毛麟角。叶梓老师,拥有多年的企业实践经验,结合实践在小象学院平台直播《计算机视觉的深度学习实践》14堂课细说深度学习之计算机视觉第一讲 课程概述第二讲 图像预处理第三讲 图像特征提取第四讲 未有深度学习之...

2018-12-27 10:42:31 1932 6

原创 人工智能兼职讲师ai讲师强化学习讲师叶梓老师《强化学习》课程介绍及提纲

2018年11月29日,叶梓老师在线直播课《强化学习》第一期正式开班。这是人工智能之机器学习中除深度学习之外另一门经典课程,是AI必修之课。人工智能的重要领域——强化学习当前的机器学习算法可以分为3种:有监督的学习(Supervised Learning)、无监督的学习(Unsupervised Learning)和强化学习(Reinforcement Learning)...

2018-12-27 10:39:34 991 1

原创 AI兼职讲师人工智能兼职讲师叶梓老师 机器学习与深度学习培训提纲

课程时长】6天(6小时/天)【课程简介】人工智能的浪潮正在席卷全球,各种培训课程应运而生,但真正能让学员系统、全面掌握人工智能深度学习知识点,并且能学以致用的实战课程并不多见。本课程包含机器学习、深度学习的重要概念及常用算法(决策树、关联规则、聚类、贝叶斯网络、神经网络、支持向量机、隐马尔科夫模型、遗传算法、CNN、RNN、GAN等),以及人工智能领域当前的热点。通过6天的系...

2018-12-27 10:36:10 938 1

原创 叶梓老师 大数据机器学习培训提纲

(一)统计分析、数据仓库与可视化表达1、 综述(大数据、人工智能、数据挖掘、机器学习:这些词的确切含义)2、 假设检验:“小数据”时代是怎么玩的?3、 “回归”是数据挖掘算法吗?4、 度量、指标与维度5、 星型模型与雪花模型6、 下钻与上卷7、 数据仓库的应用案例8、 图表该怎么画才对?(二)大数据相关技术综述1、 hadoop:HD...

2018-12-27 10:34:27 410 1

原创 叶梓老师 数据分析与数据挖掘-培训提纲

第一天上午:统计分析原理1、 统计基础2、 R语言基础知识3、 R语言数据类型4、 描述性统计5、 随机变量与概率密度分布6、 定性相关分析7、 定量相关分析8、 回归分析:多元线性回归9、 回归分析:logistics回归10、 R语言实现的回归分析第一天下午:统计分析与数据仓库1、 方差分析:单...

2018-12-27 10:30:11 525

转载 AAAI2024 | 分享10篇优秀论文,涉及图神经网络、大模型优化、表格分析等热门话题

我们在11个下游视觉数据集上进行了实验证明,本文方法在少样本场景中显著提高了现有多模态提示学习模型的性能,相较于16张图像的最先进方法,平均准确率提升了2.31%。本文在诸如链接预测和网络完成等各种下游任务中进行了定量评估,结果表明本文的建模框架能够有效跟踪潜在空间中节点的内在轨迹,捕捉不断演变的网络结构的基本特征。最终,本文收集了2249个查询-结果对和347个表格,使用三种不同的评估指标对五个最先进的模型进行评估,结果显示本文的基准在表格数据分析领域提出了相当大的挑战。

2024-04-24 21:20:22 10

原创 大模型检索召回系统:RAG技术的全面调查与未来展望

随着人工智能技术的飞速发展,大型语言模型(LLMs)在自然语言处理(NLP)领域取得了显著成就。然而,这些模型在处理特定领域或知识密集型任务时仍面临挑战,如产生错误信息或“幻觉”。为了克服这些难题,检索增强生成(Retrieval-Augmented Generation,简称RAG)技术应运而生,它通过整合外部数据库的知识来增强模型的生成能力,特别是在知识密集型任务中表现出色。

2024-04-24 17:10:38 413

原创 图大模型前沿技术介绍

图大模型(Graph Large Models,简称GLMs)是一个活跃的研究领域,它结合了图神经网络(GNNs)和大型语言模型(LLMs)的优势来处理图数据。

2024-04-24 16:43:35 242

原创 知识图谱嵌入领域的重要研究:编辑基于语言模型的知识图谱嵌入

作者们首先定义了两个关键的研究任务:EDIT和ADD。这两个任务分别针对知识图谱嵌入中的错误知识修正和新知识添加。EDIT任务关注于如何准确地纠正KG嵌入中已经存在的错误知识,而ADD任务则着眼于如何将新出现的知识有效地整合进已有的KG嵌入中。这两个任务的提出,为动态更新KG嵌入提供了明确的目标和方向。

2024-04-24 16:09:39 615

原创 检索增强生成(RAG)技术

随着大型语言模型(LLMs)在自然语言处理(NLP)领域的显著进步,它们在多个评估基准测试中显示出超越人类水平的语言和知识掌握能力。然而,这些模型在实际应用中也面临着一系列挑战,如制造事实、知识更新缓慢和答案缺乏透明度等问题。为了解决这些问题,研究者提出了检索增强生成(Retrieval-Augmented Generation,RAG)技术,它通过从外部知识库检索相关信息来辅助大型语言模型回答问题,已经被证明能显著提高回答的准确性。

2024-04-23 21:39:52 456

原创 “PowerInfer:消费级GPU上的高效大语言模型推理引擎“

PowerInfer的开源性质,加上其活跃的社区和不断更新的特性,使其成为一个在消费级硬件上部署和运行大型语言模型的强大工具。这种局部性表现为神经元激活的幂律分布,即少数热激活的神经元在多数情况下被频繁使用,而大多数冷激活的神经元则在特定输入下才被激活。推理中的高局部性,实现了快速且资源消耗低的模型推理,这一局部性主要体现在神经元激活的幂律分布上,即少数。量化,这有助于减少模型的存储占用和提高推理速度,进一步适应资源受限的设备。内存的需求,并且降低了两者之间的数据传输,提高了整体的计算效率。

2024-04-23 21:24:49 516

转载 大模型微调实践——Prefix tuning与P-tuning v2的原理、区别与代码解析最终章

回归传统的分类标签范式,而不是映射器。第二,缺少深度提示优化,在Prompt Tuning和P-tuning中,连续提示只被插入transformer第一层的输入embedding序列中,在接下来的transformer层中,插入连续提示的位置的embedding是由之前的transformer层计算出来的,这可能导致两个可能的优化挑战。在实验中,发现不同的理解任务通常用不同的提示长度来实现其最佳性能,这与 Prefix-Tuning 中的发现一致,不同的文本生成任务可能有不同的最佳提示长度。

2024-04-23 13:37:27 55

原创 秒懂图神经网络(GNN)

在这项任务中,GNN的目标是预测图中每个节点的类别标签。通过这种方式,GNN可以学习到图中的局部结构特征,这对于许多任务,如节点分类、图分类和链接预测等,都是非常重要的。GNN通过分析节点之间的交互模式和它们在图中的位置来预测潜在的联系,类似于根据一个人的朋友圈子来推测他可能结识的新朋友。例如,在社交网络中,人与人之间的友谊关系通过边来表示,每个个体(节点)的社交网络可能对个体的行为和特征产生影响。消息传递允许GNN捕捉图中的结构信息,因为节点的新状态不仅取决于自己的特征,还取决于其邻居的特征。

2024-04-23 13:31:29 493

原创 轻松了解深度学习的几大模型

这时,如果你有一个特别的记忆系统,能够让你记住长期的重要信息,同时更新短期的细节,那么这个案件对你来说就会容易得多。随着时间的推移,你不断改进你的作品,而你的对手也不断提高他的鉴别能力。在传统的RNN中,信息是单向传递的,随着时间的推移,早期的信息可能会逐渐丢失,导致网络难以捕捉长期依赖。生成器的任务是生成新的数据样本,比如图片、音频或文本,而判别器的任务是判断这些数据样本是真实的还是生成器生成的。在收缩路径中,网络逐步减小特征图的分辨率,同时增加特征图的通道数,这使得网络能够捕捉到图像的上下文信息。

2024-04-23 13:06:59 376

转载 微调方法大全,你必须了解

以下是您可以针对您的用例微调LLM的不同方法:监督式微调 - 这是最常见的方法,您需要一个任务特定的标签数据集。Llama-2的LoRa微调显示出与全参数微调几乎相当的性能,甚至在生成SQL查询或基于文本的功能表示等专业任务中超越了GPT-4。基于强化学习的微调:强化学习算法,如近端策略优化(PPO),用于优化策略,在这种情况下是用于生成令牌序列的模型的参数化。尽管这些模型刚开始可能不如GPT-4表现出色,但有不同的技术可以应用于微调它们,使它们在特定用例中与大型模型的性能相匹配。

2024-04-23 12:49:53 8

转载 超强!深度学习Top10算法!

生成器的任务是生成假数据,而判别器的任务是判断输入的数据是来自真实数据集还是生成器生成的假数据。GAN的训练过程是一个优化问题。在每个训练步骤中,首先使用当前参数下的生成器生成假数据,然后使用判别器判断这些数据是真实的还是生成的。GAN由蒙提霍尔问题(一种生成模型与判别模型组合的问题)演变而来,但与蒙提霍尔问题不同,GAN不强调逼近某些概率分布或生成某种样本,而是直接使用生成模型与判别模型进行对抗。在训练过程中,模型尝试学习到每个词的向量表示,使得在给定上下文中出现的词与目标词的向量表示尽可能接近。

2024-04-23 06:38:56 19

原创 构建云原生湖仓:Apache Iceberg与Amoro的结合实践

随着大数据技术的快速发展,企业对数据的处理和分析需求日益增长。传统的数据仓库已逐渐无法满足现代业务对数据多样性和实时性的要求,这促使了数据湖和数据仓库的融合,即湖仓一体架构的诞生。在云原生技术的推动下,构建云原生湖仓成为企业提升数据处理能力的重要途径。本文将探讨如何利用Apache Iceberg和Amoro在云原生环境下构建高效的湖仓一体解决方案。Apache Iceberg与云原生Apache Iceberg是一个开源的表格式,专为大规模分析型数据而设计。

2024-04-22 21:45:25 1532

转载 openchat-3.5-1210:迄今为止最优秀的开源7B模型,支持中文

在这个方法中,我们考虑一个通用的非成对(或非排序)SFT训练数据,包括少量的专家数据和大量的次优数据。有趣的是,C-RLFT中的最优策略可以通过单阶段、无需强化学习的监督学习轻松解决,从而避免了昂贵的人类偏好标签收集。通过C-RLFT进行微调:我们将预训练的LLM视为类条件策略πθ(y|x, c),并使用类信息增强的参考策略πc而不是原始预训练的LLM π0对其进行正则化。类条件数据集和奖励:根据不同的数据来源(如GPT-4和GPT-3.5),为每个示例分配类标签,并构建类条件数据集Dc。

2024-04-22 21:22:21 28

原创 通过创新的MoE架构插件缓解大型语言模型的世界知识遗忘问题

LoRAMoE的核心思想是在微调阶段引入局部平衡约束损失(Localized balancing constraint),以协调模型中的多个专家(experts),确保一部分专家专注于下游任务,而另一部分专家则利用模型中存储的世界知识,从而避免知识遗忘。在推理阶段,路由器根据输入数据的类型和当前任务的需求,动态地为不同的专家分配权重,实现灵活的专家调用。通过上述设计,LoRAMoE能够在处理各种下游任务时,根据任务的需要合理地协调不同专家的工作,从而在保持世界知识的同时,提升模型在多个任务上的性能。

2024-04-22 13:34:48 911

原创 探索数学语言模型的前沿进展——人工智能在数学教育和研究中的应用

数学一直被认为是科学的基石,对于推动技术进步和解决现实世界问题具有重要意义。然而,传统的数学问题解决方式正面临着数字化转型的挑战。MLMs的出现,预示着数学学习和研究方式的一次革命。MLMs,包括预训练语言模型(PLMs)和大规模语言模型(LLMs),已经成为数学问题解决领域的新星。这些模型通过在大量数学数据集上的预训练和微调,展示了在数学问题解决上的巨大潜力。预训练语言模型是通过在大量文本数据上进行预训练来构建的,目的是让模型学习语言的基本结构和语义。

2024-04-22 13:11:23 789

转载 如何将任何文本转换为图谱

source=post_page-----110844f22a1a--------------------------------[6] Pyvis是一个用于可视化网络的Python库: https://github.com/WestHealth/pyvis/tree/master#pyvis---a-python-library-for-visualizing-networks。记住,我们已经计算出了每条边的权重来确定边的粗细,每个节点的社区来确定它们的颜色,以及每个节点的度来确定它们的大小。

2024-04-22 12:44:04 30

原创 大模型培训老师叶梓:通过微调提升小型语言模型的复杂推理能力

在人工智能的快速发展中,复杂推理能力的提升一直是研究者们追求的目标。最近,一项发表在arXiv上的研究成果【1】,提出了一种创新的方法,即通过微调小型语言模型(LMs),并将其与大型语言模型(LLMs)的协作,以显著提升复杂推理能力。这一方法的核心在于利用大型教师模型的思维链(Chain-of-Thought,CoT)推理能力来指导小模型解决复杂任务。大型语言模型,如GPT-3,已经展示出在多步推理任务中的卓越性能。然而,这些模型的计算要求和推理成本非常庞大,这限制了它们在实际应用中的大规模部署。

2024-04-22 12:40:00 787

转载 数字化系统不好用的4个真相

0-100-1000是一个简单的流程再造的步骤,需要产品经理和业务人员一起参与,业务上给全信息,陈述规则,产品上贴近系统,延续业务目标,考虑到系统的限制和优势,去重新进行流程设计。而管理者的精力分配,来自于高层的关注方向,这就导致,数字化需要公司从上到下时时刻刻紧盯,成为了一个管理成本、执行成本极高的项目。有系统之前,沟通基本靠吼,对规则的弹性极高,没有规则可以现定,有规则可以通融,这是人和人之间的游戏。正如前文所言,线上的系统化是代码工程的产物,它规范,它非此即彼,它控制人的行为,它改动起来成本不小。

2024-04-21 16:36:14 22

原创 AI大模型老师叶梓:构建知识图谱,从文本到知识的智能转换

知识图谱,也称为语义网络,是一种通过图形结构表示实体及其关系的技术。实体可以是物体、事件、情况或概念,而关系则说明了这些实体之间的联系。知识图谱通常存储在图形数据库中,并可以被可视化为网络图,从而提供了一种直观的方式来探索和分析数据。

2024-04-21 16:27:11 716

原创 人工智能大模型培训老师叶梓 探索知识库问答中的查询图生成:处理多跳复杂问题的新方法

分阶段查询图生成方法的核心思想是将复杂问题分解为多个简单的子问题,并逐步构建查询图。起始实体识别:首先从问题中识别出一个主题实体,作为查询图的起点。核心关系路径识别:确定一个或多个与主题实体相关的核心关系路径,这些路径定义了从主题实体到潜在答案实体的基本方向。约束条件融合:在查询图生成过程中,将问题中提到的约束条件(如时间、地点、属性等)融入到查询图中,以指导搜索方向并减少搜索空间。查询图扩展:通过扩展、连接和聚合操作,逐步构建查询图。Extend:在已存在的关系路径上增加新的关系,以探索多跳推理路径。

2024-04-21 16:10:25 488

原创 人工智能大模型培训老师叶梓:图模型数据处理的应用探索

图模型数据处理技术正迎来快速发展期。从图查询算法的创新到大图模型的研究,从图数据库的发展趋势到图基础模型的前景,图智能技术正不断突破传统边界,为各行各业带来新的机遇。未来,图模型数据处理将在提高数据处理效率、优化算法设计、加强系统融合等方面持续进步,推动人工智能技术的全面发展。参考资料CNCC|图查询算法:发展、前沿与应用-中国计算机学会图机器学习领域四位海外专家作高水平学术前沿讲座 - USTC大模型热潮之后的未来新方向:图神经网络与组合优化 | 文献 ...

2024-04-20 20:19:22 655

原创 AI人工智能培训老师叶梓:大数据治理的关键工具:开源数据血缘分析系统

Calcite 是由 Apache 软件基金会维护的一个开源框架,它为 Java 应用程序提供了一个强大的工具集,用于处理关系型数据。Calcite 的功能包括 SQL 解析、查询优化、以及能够与各种数据源交互的适配器。它能够将 SQL 查询转换成优化的执行计划,这些计划可以在不同的数据平台上执行,从而提高了查询性能并降低了成本。

2024-04-20 11:55:55 1431

转载 Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性idea

为了学习三角形词汇,研究者采用了图形卷积编码器,对网格的三角形及其邻域进行操作,以提取丰富的几何特征,捕捉 3D 形状的复杂细节。在 ShapeNet 数据集上进行的多个类别的实验表明,与现有技术相比,MeshGPT 显著提高了生成 3D 网格的质量,形状覆盖率平均提高了 9%,FID 分数提高了 30 个点。训练完成后,transformer 可以自回归采样,以预测嵌入序列,然后对这些嵌入进行解码,生成新颖多样的网格结构,显示出与人类绘制的网格类似的高效、不规则三角形。

2024-04-20 11:16:24 32

转载 关于数仓建设及数据治理的超全概括

从数据的产生、加工、使用乃至消亡都应该有一个科学的管理办法,将极少或者不再使用的数据从系统中剥离出来,并通过核实的存储设备进行保留,不仅能够提高系统的运行效率,更好的服务客户,还能大幅度减少因为数据长期保存带来的储存成本。如上面所说,数据治理的范围非常广,其中最重要的是数据质量治理,而数据质量涉及的范围也很广,贯穿数仓的整个生命周期,从数据产生->数据接入->数据存储->数据处理->数据输出->数据展示,每个阶段都需要质量治理,评价维度包括完整性、规范性、一致性、准确性、唯一性、关联性等。

2024-04-20 11:13:54 23

转载 数据治理平台与数据运营体系建设方案

数据治理平台与数据运营体系建设方案

2024-04-19 12:06:09 24

转载 万字长文梳理 LLM 中的长文本问题

靠后的维度,在训练中无法见到完整的旋转周期,或者见到的旋转周期非常少,训练不够充分,外推性能弱,需要进行位置插值。与标准的 Transformer 相比,一般的 Transformer 的训练过程中,相关与不相关文档没有被得到有效区分(正负样本分散均匀),当文档数量扩展时,注意力变得越来越分散,而 Focused Transformer 则通过 CrossBatch 的训练目标使得模型有效的关注与区分的长文本下的相关与无关的 key-value 的空间结构,从而解决了分心的问题。

2024-04-19 12:03:54 33

原创 人工智能大模型培训老师叶梓:探索AI的边界:本地化、定制化与隐私保护

随着人工智能技术的不断进步,AI商业智能工具正变得越来越重要。它们不仅提高了企业的决策效率,还为企业提供了前所未有的数据洞察力。在众多新兴工具中,AnythingLLM、LocalAI、VectorAdmin等平台以其独特的功能和优势,引领着AI商业智能的新潮流。AnythingLLM是一个可以在你的桌面上运行的工具,支持MacOS、Linux和Windows操作系统。这意味着你可以在本地计算机上直接使用它,而不必依赖于网络连接或云服务。这样,你的数据就不会离开你的电脑,大大增强了数据的安全性。

2024-04-19 11:57:52 840

Hadoop2.2.0+Hbase0.98.4+sqoop-1.4.4+hive-0.98.1安装手册(All)_ZCX

叶梓老师整理的Hadoop2.2.0+Hbase0.98.4+sqoop-1.4.4+hive-0.98.1安装手册,非常实用

2018-12-27

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除