迷茫有一阵子了,感觉应该慢下来,那就读书吧。 耐不下性子,就用AI来帮我读吧。 《我的阿勒泰》想表达什么? 这本书的目录? 我所能带给你们的事物 写这
【chatGPT】学习笔记47-LLM微调技术之P-Tuning V2
上篇专栏我们讲到,P-Tuning V1通过在预训练模型的输入层加入可训练的连续提示,有效提升了训练效果。但其在复杂NLU任务和小参数模型上表
【chatGPT】学习笔记46-LLM微调技术之P-Tuning V1
前面给大家分享了Soft Prompt技术分支下的Prefix-Tuning和Prompt Tuning,在这个技术分支下,还有一项需要重点了解
【chatGPT】学习笔记45-LLM微调技术之Prompt Tuning
紧接着Stanford的Prefix Tuning论文,Google迅速发表了Prompt Tuning技术论文。Google声称该技术比Pre
【chatGPT】学习笔记44-LLM微调技术之Prefix Tuning
Prefix Tuning是LLM微调技术中另一个重要的技术分支,于2021年由Stanford提出。 本文通过解读论文**《Prefix-Tuning:
【chatGPT】学习笔记43-LLM微调技术之Adapter Tuning
Adapter Tuning是LLM微调技术中一个重要的技术分支,于2019年由Google的Neil Houlsby等研究员提出。 Adapter Tuning方法证明了
【chatGPT】学习笔记42-LLM微调技术概览
笔者在使用大语言模型开展具体业务领域的任务时,遇到了如下问题: LLM的预训练模型不具备垂域知识,无法很好回答垂域的问题; 希望用各种提示词技巧
【chatGPT】学习笔记41-多模态-Sora浅析
Sora自2024年2月16日发布以来,持续霸屏、热度不断。从OpenAI官网上的演示视频看,效果也是相当震撼。 本篇基于OpenAI发布的技
【chatGPT】学习笔记40-LLM应用-如何构建RAG数据集
2023年是基础大模型的爆发元年,专家预测2024年将是AI应用的爆发元年。 因此,本专栏希望通过一系列文章,和大家探讨AI应用的规划、落地、
【chatGPT】学习笔记39-LangChain解读-LCEL语言之领域功能(5)
在LLM应用程序中,不可避免的会存在大量可知或不可知的故障点,比如模型API调用异常、链组合集成的问题、自定义的组件运行出错等。如果针对这些