Prefix Tuning是LLM微调技术中另一个重要的技术分支,于2021年由Stanford提出。 本文通过解读论文**《Prefix-Tuning:
【chatGPT】学习笔记43-LLM微调技术之Adapter Tuning
Adapter Tuning是LLM微调技术中一个重要的技术分支,于2019年由Google的Neil Houlsby等研究员提出。 Adapter Tuning方法证明了
【chatGPT】学习笔记42-LLM微调技术概览
笔者在使用大语言模型开展具体业务领域的任务时,遇到了如下问题: LLM的预训练模型不具备垂域知识,无法很好回答垂域的问题; 希望用各种提示词技巧
【chatGPT】学习笔记41-多模态-Sora浅析
Sora自2024年2月16日发布以来,持续霸屏、热度不断。从OpenAI官网上的演示视频看,效果也是相当震撼。 本篇基于OpenAI发布的技
【chatGPT】学习笔记40-LLM应用-如何构建RAG数据集
2023年是基础大模型的爆发元年,专家预测2024年将是AI应用的爆发元年。 因此,本专栏希望通过一系列文章,和大家探讨AI应用的规划、落地、
【chatGPT】学习笔记39-LangChain解读-LCEL语言之领域功能(5)
在LLM应用程序中,不可避免的会存在大量可知或不可知的故障点,比如模型API调用异常、链组合集成的问题、自定义的组件运行出错等。如果针对这些
【chatGPT】学习笔记38-LangChain解读-LCEL语言之领域功能(4)
langchain基础的链包括三个组件:提示词、LLM模型、输出解析器,但实际LLM应用开发会复杂很多,可能需要更多组件。 本篇我们介绍LCE
【chatGPT】学习笔记37-LangChain解读-LCEL语言之领域功能(3)
LCEL 可以轻松的构建复杂的链,并灵活调用它们,是因为LCEL基于Runnable协议封装了一系列组合方法和调用接口。 之前我们介绍了LCEL的核心
【chatGPT】学习笔记36-LangChain解读-LCEL语言之领域功能(2)
并发是LLM应用常见的使用场景,LCEL提供了非常简便的方式来实现并发处理。 本篇我们就来学习LCEL这一核心特性——batch/abatch
【chatGPT】学习笔记35-LangChain解读-LCEL语言之领域功能(1)
LCEL是专门为方便开发LLM应用而设计的编程语言,它提供了一系列直观、好用的功能和语法。 本篇我们来学习提升LLM应用体验的一个功能——st