自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(391)
  • 问答 (1)
  • 收藏
  • 关注

翻译 Mini-Gemini: Mining the Potential of Multi-modality Vision Language Models翻译

随着大型语言模型 (LLM) 的快速发展,为多模态输入提供令人印象深刻的功能正在成为当前视觉语言模型 (VLM) 的重要组成部分。为了弥合模态之间的差距,开展了几项研究,将视觉与从图像到视频的LLM结合起来。尽管取得了这些进步,学术研究与 GPT-4 和 Gemini 等经过大量数据和资源训练的成熟模型的实力之间仍然存在巨大差距。对于视觉本身来说,图像分辨率是明确的核心部分,尽管周围环境具有最小的视幻觉。为此,人们进行了更多的尝试来进一步提高当前 VLM 的视觉理解。

2024-04-27 04:44:57

翻译 Can Large Language Models Beat Wall Street? Unveiling the Potential of AI in Stock Selection翻译

资本市场是经济体内资本配置的有效渠道,其价格发现过程在维护金融体系的健康和稳定方面发挥着关键作用。价格发现过程取决于多种因素的复杂相互作用,包括公司和行业的具体因素、宏观经济数据、动量效应以及政治和地缘政治影响。市场参与者共同参与这一复杂的价格发现机制,从而确保金融市场的有效运作。选股本质上是一种价格发现机制,市场参与者通过该机制关注被认为“定价错误”的股票,从而提供相对于更广泛市场有吸引力的回报潜力。这一原则构成了价值投资的本质。

2024-04-22 04:37:04 2

翻译 Data-Copilot: Bridging Billions of Data and Humans with Autonomous Workflow翻译

在数据驱动的世界中,金融、气象、能源等各个行业每天都会产生大量异构数据。这种范围广泛、形式多样的数据包含了重要的见解,可用于从预测金融趋势到监控能源消耗等众多应用。最近,大型语言模型(LLM)的进步,特别是 ChatGPT 和 GPT-4 的出现,彻底改变了人工智能研究,并为先进的人工智能系统铺平了道路。利用思维链提示、人类反馈强化学习 (RLHF) 和指令遵循学习,LLM在对话、推理和生成方面表现出了卓越的能力。然而,面对数据的巨大和复杂性,LLM面临着管理、处理和显示数据的巨大挑战。

2024-04-18 05:03:23 7

翻译 AUTOACT: Automatic Agent Learning from Scratch via Self-Planning翻译

语言agent利用大语言模型(LLM)强大的推理能力基于外部世界的观察来生成可执行动作,已成为旨在解决复杂交互任务的人工智能系统的重要组成部分。赋予LLM这种交互能力的过程被称为其中规划起着关键作用,它负责分解复杂的任务,调用外部工具,反思过去的错误,并聚合来自各种来源的信息以达到最终目标。有很多工作直接促使闭源现成的LLM制定特定任务的计划。尽管闭源LLM非常方便和灵活,但它不可避免地会遇到未解决的问题,因为它们的可访问性通常要付出高昂的代价,而且它们的黑盒性质使得结果复现变得困难。

2024-04-04 04:40:55 19

翻译 Efficient Tool Use with Chain-of-Abstraction Reasoning翻译

推理,这是一种鲁棒且高效的方法,可供LLM使用工具执行多步骤推理。如图 1 所示,LLM 进行了微调,目标是使用抽象占位符构建推理链。占位符不会影响LLM的推理流程,随后会填充从专业工具中检索到的特定知识,为最终答案的生成奠定基础。

2024-03-31 04:15:41 42

翻译 KNOWLEDGE FUSION OF LARGE LANGUAGE MODELS翻译

随着 GPT 和 LLaMA 系列等大型语言模型 (LLM) 在广泛的自然语言处理 (NLP) 任务中不断取得成功,创建自己的 LLM 已成为企业的战略当务之急。然而,与LLM开发相关的成本是天文数字。除了需要大量的训练数据、先进的技术、大量的计算资源和熟练的专家外,开发过程还对能源消耗和环境造成巨大的压力。虽然这些LLM在结构和功能上存在差异,但它们在一系列 NLP 任务中具有相似的能力。

2024-03-29 04:44:22 19

翻译 Common 7B Language Models Already Possess Strong Math Capabilities翻译

长期以来,数学能力一直被认为非常具有挑战性,以至于它们被认为只能大规模地出现在通用语言模型中。例如,(Wei et al., 2022a,b) 的研究表明,只有参数大小超过 500 亿的模型才能获得有意义的准确性或从数学问题的思维链处理中受益。为较小的语言模型配备数学能力的策略包括创建特定于数学的基础模型,并在数千亿个与数学相关的预训练数据上进行训练。然而,此类模型的准确性仍然较低。例如,Llemma-7B 在 GSM8K 数据集上仅达到 36.4%,在 MATH 数据集上仅达到 18.0%。

2024-03-25 04:09:09 21

翻译 A Multimodal Foundation Agent for Financial Trading: Tool-Augmented, Diversified, and Generalist翻译

金融市场对于经济稳定、促进资本配置和风险管理至关重要。由技术分析策略开发的金融交易系统通过实现高效交易来增强这些市场。基于规则的交易系统是僵化的,难以适应市场波动,常常导致在不断变化的市场中表现不佳。基于强化学习的系统表现出增强的适应性,但遇到了巨大的障碍,例如需要大量的训练数据和决策过程的不可解释性。此外,他们很难在不同的市场条件下进行泛化,对市场噪音敏感,并且往往无法将新闻和报告等多模态市场情报整合到他们的分析中。

2024-03-21 05:41:19 33

翻译 SelectIT: Selective Instruction Tuning for Large Language Models翻译

大型语言模型(LLM)因其在指令遵循和解决复杂问题方面的令人印象深刻的能力而备受关注。提高LLM性能的一个关键方面是指令微调(IT),其中涉及使用成对的指令数据对LLM进行有监督调整,这对于提高模型准确响应人类指令的能力至关重要。最近的突破性研究,例如 LIMA,强调了指令数据的质量比数量至关重要。与仅仅增加数据集大小的方法相反,精心挑选的、较小的、较高质量的数据集可以显着提高LLM的表现。尽管出现了各种选择高质量数据的方法,但这些方法通常依赖于外部资源并限制了更广泛的实现。

2024-03-10 19:47:50 27

翻译 Topologies of Reasoning: Demystifying Chains, Trees, and Graphs of Thoughts翻译

大型语言模型 (LLM) 已成为现代机器学习 (ML) 的主要工具。源于简单的自然语言处理(NLP)任务,其广泛的潜力已迅速应用于其他领域,例如逻辑推理、规划、医学等。由于LLM的主要交流媒介是自然语言,提示工程已成为一个受到广泛关注和重视的新研究领域。首先,它使任何人都易于使用和尝试,从而实现了LLM和整个生成式人工智能领域的民主化。其次,它具有成本效益,不需要昂贵且耗时的微调或预训练。精心设计 LLM 问题以提高结果的准确性以及逻辑或代数查询等任务的成本效益具有挑战性。

2024-03-04 04:53:47 34

翻译 The Power of Noise: Redefining Retrieval for RAG Systems翻译

大型语言模型 (LLM) 在各种任务中表现出了前所未有的熟练程度,从文本生成和复杂问答到信息检索 (IR) 任务。然而,LLM在处理长上下文方面受到限制,这一限制导致他们更加依赖他们预训练的知识。这种限制不仅限制了他们有效管理扩展对话(例如书籍或长时间对话)的能力,而且还增加了产生幻觉的可能性,即模型产生事实上不正确或无意义信息的情况。为了提高LLM生成的答案的准确性,检索增强生成(RAG)系统已成为一种有前景的解决方案。

2024-02-25 04:51:53 70

翻译 TOOLLLM: FACILITATING LARGE LANGUAGE MODELS TO MASTER 16000+ REAL-WORLD APIS翻译

工具学习旨在释放大语言模型 (LLM) 的力量,以有效地与各种工具 (API) 交互以完成复杂的任务。通过将 LLM 与 API 集成,我们可以极大地扩展它们的效用,并使它们能够充当用户和庞大的应用程序生态系统之间的高效中介。尽管 LLaMA 等开源LLM已经通过指令微调实现了多种功能,但它们在执行更高级别任务方面仍然缺乏复杂性,例如与工具(API)适当交互以完成复杂的人类指令。这种缺陷是因为当前的指令微淘主要集中在基本语言任务上,而相对忽视了工具使用领域。

2024-02-20 04:42:39 192

翻译 Deductive Closure Training of Language Models for Coherence, Accuracy, and Updatability翻译

人们越来越有兴趣使用语言模型(LM)作为信息来源和事实验证工具。但如今的语言模型无法稳健地执行这两项任务:它们很容易生成事实上不正确、自相矛盾的信息,并且难以用新信息进行更新。然而,即使它们对事实的判断不完美,当前的 LM 也是文本片段之间事实关系的相当可靠的模型:它们可以识别语句之间的逻辑和概率关系,并根据作为输入提供的新信息生成文本。例如,LM 无法回答以下问题:How old was Charlie Chaplin when he died?

2024-02-10 04:27:47 30

翻译 Self-Rewarding Language Models翻译

使用人类偏好数据对齐大型语言模型 (LLM) 可以极大地提高预训练模型的指令遵循性能。基于人类反馈的强化学习 (RLHF) 的标准方法从这些人类偏好中学习奖赏模型。然后奖赏模型被冻结并用于 RL 训练 LLM,例如通过 PPO。最近的一个替代方案是完全避免训练奖赏模型,并直接使用人类偏好来训练 LLM,如直接偏好优化 [DPO]。在这两种情况下,该方法都受到人类偏好数据的大小和质量的瓶颈,并且在 RLHF 的情况下,还受到从它们训练的参数固定的奖赏模型的质量瓶颈。

2024-02-04 04:52:09 44

翻译 Mixtral of Experts翻译

在本文中,我们提出了 Mixtral 8x7B,这是一种具有开放权重的稀疏混合专家模型 (SMoE),在 Apache 2.0 下获得许可。Mixtral 在大多数基准测试中都优于 Llama 2 70B 和 GPT-3.5。由于它仅对每个token使用其参数的子集,因此 Mixtral 可以在小批量大小下实现更快的推理速度,并在大批量大小下实现更高的吞吐量。Mixtral 是一个稀疏的混合专家网络。它是一个纯解码器模型,其中前馈块从 8 个不同的参数组中进行选择。

2024-01-29 03:24:53 47

翻译 Learning From Mistakes Makes LLM Better Reasoner翻译

随着数据规模和模型规模的指数级增长,当代大型语言模型在各种 NLP 任务上表现出了显着的进步,特别是在需要复杂的思维链 (CoT) 推理的数学问题解决方面。在 GSM8K 和 MATH 等具有挑战性的数学任务上的性能方面,专有的大语言模型(包括 GPT-4 和 PaLM-2)取得了显着的成绩。然而,开源LLM,例如LLaMA-2和Baichuan-2,仍然有很大的改进空间。

2024-01-20 19:09:42 56

翻译 KnowGPT: Black-Box Knowledge Injection for Large Language Models翻译

生成式大语言模型 (LLM) 以其卓越的性能令世界惊叹不已,特别是随着 ChatGPT 和 GPT4 的出现。尽管如此,LLM经常因其有限的事实知识和产生幻觉的倾向而受到批评,其中模型对超出其知识和感知范围的任务做出了错误的陈述。考虑 OpenbookQA 提出的一个生态领域特定问题,如图 1 所示。当询问营养素的比例时,ChatGPT 错误地提供了“能量”响应。这种不准确可能源于其对碳水化合物及其与营养物质关系的潜在缺乏了解。

2024-01-15 03:29:45 65

翻译 Direct Preference Optimization: Your Language Model is Secretly a Reward Model翻译

在非常大的数据集上训练的大型无监督语言模型(LM)获得了令人惊讶的能力。然而,这些模型是根据人类生成的数据进行训练的,这些数据具有各种目标、优先级和技能。其中一些目标和技能可能不适合模仿;例如,虽然我们可能希望人工智能编码助手即了解常见的编程错误以便纠正它们,同时,在生成代码时,我们希望将我们的模型偏向于其训练中存在的(可能罕见的)高质量编码能力数据。同样,我们可能希望我们的语言模型能够意识到 50% 的人相信的常见误解,但我们当然不希望模型在 50% 的问题中声称这种误解是正确的!

2023-12-30 04:33:16 255

翻译 Sparse Low-rank Adaptation of Pre-trained Language Models翻译

以参数高效的方式适应大规模预训练语言模型在研究界越来越受到关注。这种范式的方法通常保持底层模型的大部分参数不变,要么在模型中插入额外的可训练参数,要么指定少量可训练参数,要么将适应过程重新参数化为更有效的形式。它们已被验证在各种模型和任务中都是有效的,通常会产生与全参数微调相当甚至更好的结果。经过对参数高效微调性能的广泛验证后,其发展潜力变得显而易见。这些方法提供了调整base模型以适应任何数据的机会,从而允许针对特定任务和个性化用户特征来定制语言模型以进行增强和自定义。

2023-12-17 19:05:06 197

翻译 System 2 Attention翻译

大型语言模型(LLM)能力很强,但它们仍然容易犯简单的错误,这似乎表现出较弱的推理能力。例如,它们可能会因不相关的上下文或输入提示中固有的偏好或意见而做出错误的判断,在后一种情况下,表现出一种称为“阿谀奉承”的问题,即模型与输入问题的观点一致。虽然有几种方法试图通过添加更多有监督训练数据或强化学习策略来缓解这些问题,但我们认为根本问题是 Transformer 本身的构建方式所固有的,特别是其注意力机制。

2023-12-10 04:16:49 70

翻译 THINK-ON-GRAPH: DEEP AND RESPONSIBLE REASONING OF LARGE LANGUAGE MODEL ON KNOWLEDGE GRAPH翻译

大型语言模型 (LLM) 在各种自然语言处理任务中表现出了卓越的性能。这些模型利用应用于大量文本语料库的预训练技术来生成连贯且上下文适当的响应。尽管LLM的表现令人印象深刻,但在面临需要复杂知识推理任务时,LLM仍存在很大的局限性。首先,LLM通常无法为超出了预训练阶段所包含的专业知识的问题(图1a中的过时知识)或需要长逻辑链和多跳知识推理的问题提供准确的答案。其次,LLM缺乏可信度、可解释性和透明度,引发了人们对幻觉或有毒文本风险的担忧。

2023-12-05 04:18:48 287

翻译 Better Zero-Shot Reasoning with Self-Adaptive Prompting翻译

大型语言模型 (LLM) 的最新进展已在现有自然语言处理 (NLP) 任务中实现了最先进的性能,并带来了令人兴奋的新兴能力。后者的一个突出例子是在需要分析推理和/或有条理的规划任务上具有出色表现,而这些任务以前被认为即使对于大型LLM来说也很困难。这是通过扩展模型大小和训练语料库、现代LLM强大的few-shot和zero-shot能力以及诸如思想链(CoT)方法之类的新技术来实现的:Few-shot CoT 使用已解决的输入输出对作为上下文样例拼接到测试问题前,以提示LLM生成推理过程。

2023-11-24 04:41:48 89

翻译 On Generative Agents in Recommendation翻译

推荐系统在当代信息传播中发挥着关键作用,其能够主动塑造个人偏好和认知过程。尽管传统的有监督推荐方法取得了巨大成功并被广泛采用,但它仍然存在不足,离线指标和在线性能之间的巨大差距就证明了这一点。这种脱节阻碍了将学术研究有效地整合到现实世界推荐的应用中,这成为了该领域未来发展的瓶颈。想象一下存在一个用于推荐系统的可配置模拟平台——该平台忠实地捕获用户意图并对人类认知机制进行编码。这样的模拟器无疑有可能彻底改变推荐领域的传统研究范式,为数据收集、推荐器评估和算法开发提供创新途径。

2023-11-18 04:01:01 163

翻译 MINIGPT-5: INTERLEAVED VISION-AND-LANGUAGE GENERATION VIA GENERATIVE VOKENS翻译

在最近大规模视觉和语言模型的发展中,多模态特征集成不仅是一种不断发展的趋势,而且是塑造从多模态对话agent到前沿内容创建工具等广泛应用的关键进步。随着研究和开发的激增,诸如此类的视觉和语言模型正处于一个时代的边缘,人们期望它们能够无缝地理解和生成文本和图像内容。这种多方面的能力至关重要,因为它可以促进虚拟现实、媒体和电子商务等各个领域之间的增强互动。本质上,任务是使模型能够使用视觉和文本模态连贯地合成、识别和响应,协调信息流并创建紧密的叙述。

2023-11-13 04:31:26 93

翻译 Improved Baselines with Visual Instruction Tuning翻译

大型多模态模型 (LMM) 在研究界越来越受欢迎,因为它们是通用助手的关键构建模块。最近对 LMM 的研究正在集中在一个称为视觉指令微调的核心概念上。结果是有希望的,例如 LLaVA 和 MiniGPT-4 在自然语言指令遵循和视觉推理能力方面展示了令人印象深刻的结果。为了更好地了解 LMM 的功能,人们提出了多个基准测试。最近的工作进一步证明了通过分别扩展预训练数据、指令遵循数据、视觉编码器或语言模型来提高性能。

2023-11-05 05:05:34 226

翻译 MEMGPT: TOWARDS LLMS AS OPERATING SYSTEMS翻译

近年来,大型语言模型(LLM)及其底层transformer架构已成为对话式AI的基石,并导致了广泛的消费者和企业应用。尽管取得了这些进步,LLM使用有限的固定长度上下文窗口极大地阻碍了它们对长对话或长文档推理的适用性。例如,最广泛使用的开源LLM在超过其最大输入长度之前只能支持几十条来回消息或推理短文档。由于 Transformer 架构的自注意力机制,简单地扩展 Transformer 的上下文长度会导致计算时间和内存成本的成倍增加,这使得新的长上下文架构的设计成为紧迫的研究挑战。

2023-11-02 20:22:18 146

翻译 WALKING DOWN THE MEMORY MAZE: BEYOND CONTEXT LIMIT THROUGH INTERACTIVE READING翻译

由于模型大小的增加、预训练数据的扩展以及具有自注意力机制的 Transformer 架构的调整,大型语言模型 (LLM) 取得了显着的进步。随着LLM能力的发展,用户越来越多地寻求在推理过程中使用更长的输入序列。这导致查询长文档中的信息、分析法律或科学论文以及管理扩展对话的需求不断增长。这些任务涉及消耗大量信息,凸显了较长上下文处理的重要性。尽管发展迅速,但自注意力机制的局限性变得明显,因为它的内存使用量随着序列的增加而增加,从而限制了上下文窗口的大小。

2023-10-29 19:09:24 135

翻译 SELF-RAG: LEARNING TO RETRIEVE, GENERATE, AND CRITIQUE THROUGH SELF-REFLECTION翻译

尽管模型和数据规模不断扩大,SOTA的LLM仍然会产生事实类错误。检索增强生成 (RAG) 方法(图 1 左)通过检索相关段落来增强LLM的输入,从而减少知识密集型任务中的事实错误。然而,这些方法可能会阻碍LLM的多功能性,或者引入不必要的或偏离主题的段落,从而导致低质量的生成,因为它们不加区别地检索段落,而且不管事实基础是否有帮助。此外,不能保证输出与检索到的相关段落一致,因为模型没有经过明确的训练来利用和遵循所提供段落中的事实。

2023-10-26 02:40:41 486

翻译 Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models翻译

大型语言模型(LLM)以其巨大的参数量为特征,已成为自然语言处理(NLP)和人工智能发展的有前途的基石。通过适当的对齐技术,例如监督微调(SFT)和来自人类反馈的强化学习(RLHF),最近的LLM在解决各种下游任务方面表现出了强大的能力。尽管如此,如图 1 所示,LLM尽管取得了显着的成功,但有时会产生看似合理的输出,但实际上偏离了用户输入、与先前生成的上下文相反或不符合事实知识的内容——这种现象通常被称为幻觉,这极大地破坏了LLM在现实场景中的可靠性。

2023-10-21 05:07:17 230 1

翻译 EFFICIENT STREAMING LANGUAGE MODELS WITH ATTENTION SINKS翻译

大型语言模型 (LLM) 正变得无处不在,为许多自然语言处理应用提供支持,例如对话系统、文档摘要、代码补全和问答。为了充分发挥预训练LLM的潜力,他们应该能够高效、准确地执行长序列生成。例如,理想的 ChatBot 助手可以稳定地处理最近一整天的对话内容。然而,LLM 很难推广到比预训练更长的序列长度,例如 Llama-2的 4K。原因是LLM在预训练期间受到的注意力窗口的限制。尽管付出了大量努力来扩大此窗口大小并提高长输入的训练和推理效率,但可接受的序列长度本质上仍然是有限的,这不允许持久部署。

2023-10-07 20:33:24 164

翻译 LONGLORA: EFFICIENT FINE-TUNING OF LONGCONTEXT LARGE LANGUAGE MODELS翻译

大型语言模型 (LLM) 通常使用预定义的上下文大小进行训练,例如 LLaMA 为 2048 个token,LLaMA2 为 4096 个token。然而,预定义的大小限制了LLM在许多应用中的应用,例如总结长文档或回答长问题。为了解决这个限制,最近的一些工作对LLM进行了训练或微调以适应更长的上下文。然而,使用长序列从头开始训练 LLM 会带来计算挑战,并且对现有预训练的 LLM 进行微调也相当昂贵。

2023-10-05 03:38:48 322

翻译 Cumulative Reasoning With Large Language Models翻译

尽管大型语言模型(LLM)在各种应用中取得了显着的进步,但在面对高度复杂的任务时,它们仍然难以提供稳定和准确的答案。例如,据观察,语言模型很难直接生成高中数学问题的正确答案。考虑到LLM所采用的训练方法,这种不足是可以预见的。具体来说,他们被训练为根据给定的上下文顺序预测下一个token,而不会暂停进行思考。正如 Kahneman (2011) 所阐明的,我们的认知处理过程由两个不同的系统组成:System 1是快速的、本能的和情感的;系统2是缓慢的、深思熟虑的、合乎逻辑的。

2023-09-29 19:47:04 220

翻译 RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback翻译

基于人类反馈的强化学习 (RLHF) 可以有效地将大型语言模型 (LLM) 与人类偏好保持一致,但收集高质量的人类偏好标签是一个关键瓶颈。我们对 RLHF 与来自 AI 反馈 (RLAIF) 的 RL 进行了正面的比较,RLAIF是一种由现有的LLM代替人类来标记偏好的技术,我们发现它们会带来类似的改进。在摘要任务中,约 70% 的情况下,人类评估者更喜欢使用 RLAIF 和 RLHF 生成,而不是基线的有监督微调模型。此外,当被要求对 RLAIF 与 RLHF 总结进行评分时,人们对两者的偏好程度相同。

2023-09-24 19:06:35 169

翻译 YaRN: Efficient Context Window Extension of Large Language Models翻译

基于 Transformer 的大型语言模型 (LLM) 已表现出上下文学习 (ICL) 的强大能力,并且已成为许多自然语言处理 (NLP) 任务的几乎普遍的选择。Transformer 的自注意力机制使得训练高度并行化,允许以分布式方式处理长序列。LLM 训练的序列长度称为上下文窗口。Transformer 的上下文窗口直接决定了可以提供样例的空间数量,从而限制了其 ICL 能力。然而,如果模型的上下文窗口有限,则为模型提供可执行 ICL 的鲁棒样例的空间就较小。

2023-09-17 20:46:08 488

翻译 LARGE LANGUAGE MODELS AS OPTIMIZERS翻译

优化对于所有领域都至关重要。许多优化技术都是迭代的:优化从初始解决方案开始,然后迭代更新解决方案以优化目标函数。优化算法通常需要针对单个任务进行定制,以应对决策空间和性能带来的特定挑战,尤其是导数无关的优化。在这项工作中,我们提出了 Optimization by PROmpting (OPRO),这是一种利用大型语言模型 (LLM) 作为优化器的简单有效的方法。随着提示技术的进步,LLM在各个领域都取得了令人印象深刻的表现。

2023-09-15 03:15:42 173

翻译 PROMPT2MODEL: Generating Deployable Models from Natural Language Instructions翻译

传统上,从头开始构建 NLP 模型是一项艰巨的任务。寻求解决新问题的 NLP 从业者需要定义其任务范围、查找或创建满足预期系统行为的数据、选择合适的模型架构、训练模型、通过评估其性能,然后将其部署到实际环境中。像 GPT-3 这样的LLM通过“提示”为 NLP 系统构建提供了一种更轻量级的范式。从业者现在可以编写一个提示,指定预期的系统行为(可选地提供一些演示),并要求LLM通过文本补全生成所需的输出。这使得无需编写一行代码即可快速为各种应用程序构建 NLP 系统原型。

2023-09-07 02:15:59 98

翻译 Giraffe: Adventures in Expanding Context Lengths in LLMs翻译

近年来,Transformer 凭借其灵活性和在超大数据集上训练的适应性,已成为各种自然语言建模任务中的主要神经网络结构。随后,对于这些神经网络采用了一个流行术语,即“大语言模型”(LLM)——“大”指的是训练数据集大小及其参数数量(实际上,还有相关的训练和环境成本)。标准transformer架构的一个关键要素是其对输入序列的顺序不敏感。注意力操作是一种类似集合的操作,其中元素的位置并不重要。然而,序列中元素的顺序对于许多任务(例如解析自然语言、编码、预测等)至关重要。

2023-09-03 20:09:38 152

翻译 InstructionGPT-4: A 200-Instruction Paradigm for Fine-Tuning MiniGPT-4翻译

GPT-4 展示了其在生成高度详细和精确的图像描述方面的强大能力,这标志着语言和视觉处理的新时代的到来。因此,像GPT-4这样的多模态大语言模型 (MLLM) 最近已成为一个突出的研究领域,利用强大的大语言模型 (LLM) 作为执行多模态任务的认知框架。MLLM 所展现出的卓越且意想不到的能力超越了传统方法,表明了通向通用人工智能的潜在途径。为了实现这一目标,大量的图像文本对和视觉语言微调数据被用来训练冻结的 LLM(例如 LLaMA和Vicuna)和视觉表示(例如CLIP 和 BLIP-2)。

2023-09-01 02:27:51 196

翻译 AgentSims: An Open-Source Sandbox for Large Language Model Evaluation翻译

LLM彻底改变了自然语言处理 (NLP) 及其他领域。它们在小样本学习、代码生成、推理和其他任务中表现出巨大的潜力。此外,由LLM驱动的自动智能体广泛被应用于解决复杂问题,如多模态生成、软件开发和社会模拟。尽管LLM改革了自然语言处理的范式,但评估问题一直困扰着这个领域。旧的基准已经过时了。由于LLM达到了人类水平的自然语言理解(NLU)和自然语言生成(NLG)能力。

2023-08-27 19:25:48 241

翻译 Reinforced Self-Training (ReST) for Language Modeling翻译

大型语言模型(LLM)在生成高质量文本和解决众多语言任务方面表现出了令人印象深刻的能力。这些模型经过使用大量文本的训练,可以用来自回归地最大化下一个token的似然。然而,Perez et al. (2022) 表明,生成具有高似然的文本不一定与人类在各种任务上的偏好完全对齐。如果没有适当的对齐,语言模型还可能输出不安全的内容,从而产生有害的后果。此外,对齐LLM有助于改进其他下游任务。来自人类反馈的强化学习(RLHF)旨在通过利用人类偏好来解决对齐问题。

2023-08-25 02:38:41 385

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除