妙木山
  • 首页
  • 技术专栏
  • Tags
  • 全部文章
  • 关于
妙木山
  • 首页
  • 技术专栏
  • Tags
  • 全部文章
  • 关于

【chatGPT】学习笔记21-LangChain之Retrieval,对LLM的抽象4

2023-10-30
AI拾遗
约 6026 字 预计阅读 13 分钟
本专栏通过解读了Transformer模型,实现简版GPT后,帮大家建立了对NLP原理、关键技术的理解。 接下来,我们再关注一下应用层面的技术
阅读全文

【chatGPT】学习笔记20-如何搭建ChatGLM3

2023-10-29
AI拾遗
约 1185 字 预计阅读 3 分钟
1.ChatGLM3更新了什么 (1)模型列表 智谱AI刚刚发布了ChatGLM3,其中ChatGLM3-6B的能力提升如下: 更强大的基础模型:
阅读全文

【chatGPT】学习笔记19-自己实现一个简版ChatGPT(下)

2023-10-20
AI拾遗
约 2160 字 预计阅读 5 分钟
前两篇实现了简版GPT,并对其进行了SFT,我们接下来看ChatGPT整体训练流程的最后一个环节——对齐训练(Alignment Traini
阅读全文

【chatGPT】学习笔记18-自己实现一个简版ChatGPT(中)

2023-10-18
AI拾遗
约 3446 字 预计阅读 7 分钟
根据上文我们实现的简版GPT,在足够数据、足够算力的前提下,理论上是可以训练出类GPT3的大语言模型的。 但GPT3距离ChatGPT还有很远
阅读全文

【chatGPT】学习笔记17-自己实现一个简版ChatGPT(上)

2023-10-16
AI拾遗
约 2176 字 预计阅读 5 分钟
接下来,我们用三篇文章阐述**如何实现一个简版ChatGPT。** 1.回顾 想实现一个简版ChatGPT,依赖于如下前置知识: 机器学习基本原理
阅读全文

【chatGPT】学习笔记16-Transformer架构,大语言模型的关键部件5

2023-09-26
AI拾遗
约 3397 字 预计阅读 7 分钟
在《AI拾遗》这个专栏中,我们建立了从N-Gram到词嵌入再到神经概率语言模型,从Seq2Seq到注意力机制的知识脉络。 这条脉络本质就是NL
阅读全文

【chatGPT】学习笔记15-LangChain之Chain,对LLM的抽象3

2023-09-20
AI拾遗
约 2356 字 预计阅读 5 分钟
我们继续写点儿偏工程实践的内容——LangChain的核心模块3——Chain。 1.核心模块3:Chain 在《【chatGPT】学习笔记11
阅读全文

【chatGPT】学习笔记14-LangChain之Memory,对LLM的抽象2

2023-09-19
AI拾遗
约 3024 字 预计阅读 7 分钟
我们继续写点儿偏工程实践的内容——LangChain的核心模块2——Chain。 1.核心模块2:Memory 实现一个问答系统,通常需要将历史
阅读全文

【chatGPT】学习笔记13-Transformer之注意力机制,大语言模型的关键部件4

2023-09-18
AI拾遗
约 3761 字 预计阅读 8 分钟
1.问题 在《【chatGPT】学习笔记9-Transformer之Seq2Seq,大语言模型的关键部件3》中,我们实现了Seq2Seq,看到
阅读全文

【chatGPT】学习笔记12-昇腾计算产业发展白皮书解读

2023-09-12
AI拾遗
约 3235 字 预计阅读 7 分钟
本文来解读华为的《昇腾计算产业发展白皮书》,跟踪一下国内AI行业的宏观动态。 1.AI发展趋势和挑战 1.1.AI发展趋势 白皮书首先阐述了AI发
阅读全文
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
Powered by Hugo | Theme - Jane © 2021 - 2025 猴王无敌 访客数/访问量:/