在论文《GPTQ:Accurate Post-Training Quantization for Generative Pre-trained Transformers》中,提出了GPTQ这种模型量化的方法。它针对生成式预训练大模型,实现精
【chatGPT】学习笔记55-LLM微调技术之QLoRA(2)
笔者在写模型量化技术相关文章时,正逢2024诺贝尔颁奖,Hiton、Lecun这些大神萦绕耳边。那我们就借Lecun在1990年发表的《Op
【chatGPT】学习笔记56-AgentScope解读-模型
模型是智能体的"大脑”,帮助智能体实现复杂的自然语言交互和精准的推理决策。 本文为小伙伴介绍AgentScope中模型的
【chatGPT】学习笔记54-AgentScope解读-概览
人类一直试图构建一个能够自主完成任务的代理或实体,即智能体 (AI Agents 或 Agents)。大型语言模型(LLM)的引入为智能体的构建提供了新的核心组件
【chatGPT】学习笔记53-LLM微调技术之QLoRA(1)
我们下一步是解读QLoRA这种微调技术。与LoRA、AdaLoRA不同,理解QLoRA还需要对模型量化技术有一定的了解。因此,本专栏将通过后
【chatGPT】学习笔记52-麦肯锡《生成式AI与美国的未来工作》报告解读
近期萝卜快跑成为了热点话题,人工智能对就业产生多大的影响成为社会关注的焦点。 我们试图通过解读麦肯锡《生成式AI与美国的未来工作》研究报告,为
【chatGPT】学习笔记51-LLM微调技术之AdaLoRA
今天我们通过解读论文《ADALORA: ADAPTIVE BUDGET ALLOCATION FOR PARAMETER-EFFICIENT FINE-TUNING》来学习一下AdaLoRA。 1.Abstract(摘要) 首先我们看一下
【chatGPT】学习笔记50-LLM微调技术之LoRA
前面的专栏我们介绍了Adapt Tuning、Soft Prompt Tuning等微调技术,本文让我们跟随着论文《LORA: LOW-RANK ADAPTATION OF LARGE LAN- GUAGE MODELS》,来
【chatGPT】学习笔记49-AiDD 2024_AI人才培养分论坛参会纪要
在AIGC时代,AI对高等教育及人才培养有怎样的变革?如何培养适应时代发展需求的计算机人才? 1.AIGC时代下的人才需求趋势 (1)时代背景 生
【chatGPT】学习笔记48-AiDD 2024参会纪要
本文记录笔者参加AiDD 2024(AI+研发数字峰会)相关的议题,方便各位小伙伴快速了解最新AI理论研究和行业应用情况。 1.AiDD 2024概览 (1)