妙木山
  • 首页
  • 技术专栏
  • Tags
  • 全部文章
  • 关于
妙木山
  • 首页
  • 技术专栏
  • Tags
  • 全部文章
  • 关于

【chatGPT】学习笔记14-LangChain之Memory,对LLM的抽象2

2023-09-19
AI拾遗
约 3024 字 预计阅读 7 分钟
我们继续写点儿偏工程实践的内容——LangChain的核心模块2——Chain。 1.核心模块2:Memory 实现一个问答系统,通常需要将历史
阅读全文

【chatGPT】学习笔记13-Transformer之注意力机制,大语言模型的关键部件4

2023-09-18
AI拾遗
约 3761 字 预计阅读 8 分钟
1.问题 在《【chatGPT】学习笔记9-Transformer之Seq2Seq,大语言模型的关键部件3》中,我们实现了Seq2Seq,看到
阅读全文

【chatGPT】学习笔记12-昇腾计算产业发展白皮书解读

2023-09-12
AI拾遗
约 3235 字 预计阅读 7 分钟
本文来解读华为的《昇腾计算产业发展白皮书》,跟踪一下国内AI行业的宏观动态。 1.AI发展趋势和挑战 1.1.AI发展趋势 白皮书首先阐述了AI发
阅读全文

【chatGPT】学习笔记11-LLM应用-垂直领域知识问答系统(基于ChatGLM2)

2023-09-05
AI拾遗
约 3889 字 预计阅读 8 分钟
今天我们再来写一篇关于大语言模型的实战应用——如何开发一个垂直领域的知识问答系统? 1.原理 (1)基于传统技术的实现方案 在没有大语言模型之前,
阅读全文

【chatGPT】学习笔记10-LangChain之Model IO,对LLM的抽象1

2023-08-28
AI拾遗
约 2734 字 预计阅读 6 分钟
最近的专栏都是在拆解大语言模型的内部实现及论文,我们再来写点儿偏工程实践的内容——LangChain。 1.LangChain简介 (1)如何实
阅读全文

【chatGPT】学习笔记9-Transformer之Seq2Seq,大语言模型的关键部件3

2023-08-21
AI拾遗
约 2369 字 预计阅读 5 分钟
1.Seq2Seq,Transformer的雏形 1.1.为什么会出现Seq2Seq? 在神经概率语言模型NPLM出现后的很长一段时间,都是在这
阅读全文

【chatGPT】学习笔记8-神经概率语言模型,大语言模型的关键部件2

2023-08-19
AI拾遗
约 1881 字 预计阅读 4 分钟
1.问题:词嵌入的局限性 在《【chatGPT】学习笔记7-词的向量化,大语言模型的关键部件》中,我们了解了词嵌入。 获取词向量后,在向量空间中
阅读全文

【chatGPT】学习笔记7-词的向量化,大语言模型的关键部件

2023-08-17
AI拾遗
约 4785 字 预计阅读 10 分钟
人类的科学发展就是这样:每个十年百年就有一个天才振臂一呼,用一个理论解决那个时代的一个问题,同时成为下一个十年百年的天才理论的基石。 目前炙手
阅读全文

【chatGPT】学习笔记6-手撸一个上古GPT

2023-07-26
AI拾遗
约 2164 字 预计阅读 5 分钟
大家都在说chatGPT的本质是成语接龙——基于下一个词出现的概率,生成完整的句子,那么如何实现呢? 今天我们来手撸一个上古GPT,理解一下其
阅读全文

【chatGPT】学习笔记5-四次发展&三个世界

2023-07-25
AI拾遗
约 4060 字 预计阅读 9 分钟
红杉资本在2022年7月,发布了大语言模型洞察报告。一年后的今天回看这篇洞察报告,洞察地很准。 我们详细解读一下这份报告,从中提炼一些观点和知
阅读全文
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
Powered by Hugo | Theme - Jane © 2021 - 2026 猴王无敌 访客数/访问量:/