❝大模型架构专栏已经更新了30多篇文章。完整的专栏内容欢迎订阅: LLM 架构专栏
1、LLM大模型架构专栏|| 从NLP基础谈起
2、 LLM大模型架构专栏|| 自然语言处理(NLP)之建模
3、 LLM大模型架构之词嵌入(Part1)
3、 LLM大模型架构之词嵌入(Part2)
3、 LLM大模型架构之词嵌入(Part3)
4、 LLM架构从基础到精通之 Word2Vec 训练全解析
5、 LLM架构从基础到精通之循环神经网络(RNN)
6、 全网最全的LLM架构讲解||LSTM原理
7、 LLM架构从基础到精通之门控循环单元(GRUs)
8、 深入探究编码器 - 解码器架构:从RNN到Transformer的自然语言处理模型
9、 2w8000字深度解析从RNN到Transformer:构建NLP应用的架构演进之路
10、 3w字 使用pytorch实现Transformer
11. 全网最全的神经网络数学原理(代码和公式)直观解释 ,全网最全,没有之一
12. 20000字的注意力机制讲解,全网最全
13. 2w字解析量化技术,全网最全的大模型量化技术解析
14. Transformer :数学解释为什么缩放点积会导致更稳定的梯度
15. 2W8000字深度剖析25种RAG变体:全网最全~没有之一
16. 大模型进化史:从Transformer到DeepSeek-R1的AI变革之路
17. LLMs的知识蒸馏:技术和应用
18. 3W6000字了解大模型LLM:部署、优化与框架
19. 2W8000字揭秘RAG:从基础到高级的逆袭,彻底重塑大模型!
20. 3W4000字 大模型评估全解析:方法、指标与框架
21. 2W6000字 大模型核心技术综述:微调、推理与优化指南
22. 1W8000 字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析
以下是重新整理的部分文章的阅读指北(微信文章 可直接跳转):
1、LLM大模型架构专栏|| 从NLP基础谈起
本文是自然语言处理(NLP)相关的技术科普文章,从定义、应用、术语和工作流程等方面,对NLP进行了全面的解析。
2、 LLM大模型架构专栏|| 自然语言处理(NLP)之建模 13. 2w字解析量化技术,全网最全的大模型量化技术解析
本文围绕自然语言处理(NLP)建模技术展开,详细介绍了NER、语言模型、传统机器学习与深度学习技术、学习策略等内容,展示了 NLP 建模技术的应用和发展趋势。
3、 LLM大模型架构之词嵌入(Part1)
3、 LLM大模型架构之词嵌入(Part2)
3、 LLM大模型架构之词嵌入(Part3)
以上三部分介绍了词嵌入的各种方法
4、 LLM架构从基础到精通之 Word2Vec 训练全解析
本文围绕自然语言处理技术Word2Vec展开,详细介绍了其训练过程、架构、应用及优化方法,帮助读者深入理解这一技术。
5、 LLM架构从基础到精通之循环神经网络(RNN)
这篇文章围绕循环神经网络(RNN)展开,从神经网络基础讲起,深入探讨RNN及其相关内容,主要涵盖以下要点:
6、 全网最全的LLM架构讲解||LSTM原理
本文围绕长短期记忆网络(LSTM)展开,从原理、架构、工作流程、架构类型到Python实现与训练,进行了全面深入的介绍。
7、 LLM架构从基础到精通之门控循环单元(GRUs)
本文围绕门控循环单元(GRUs)展开,涵盖从基础概念到实践应用等多方面内容,是关于GRUs的深度技术科普文章。
8、 深入探究编码器 - 解码器架构:从RNN到Transformer的自然语言处理模型
文章围绕编码器 - 解码器架构展开,深入探讨其在自然语言处理领域的应用,详细介绍架构原理、训练方式、优缺点及改进方法,并列举了实际应用案例。
9、 2w8000字深度解析从RNN到Transformer:构建NLP应用的架构演进之路
这篇文章围绕大型语言模型(LLM)和Transformer展开,深度解析了从传统模型到Transformer的架构演进,以及LLM的构建、训练、推理和优化等内容。
10、 3w字 使用pytorch实现Transformer
文章围绕Transformer架构展开,详细介绍其理论、构建过程、训练方法及相关知识,旨在帮助读者深入理解并掌握Transformer模型。
11. 全网最全的神经网络数学原理(代码和公式)直观解释 ,全网最全,没有之一
文章主要对神经网络背后的数学原理进行了直观解释,通过理论讲解、公式推导和Python代码示例,深入剖析了神经网络在分类和回归问题中的应用及原理。
12. 20000字的注意力机制讲解,全网最全
这篇文章围绕注意力机制展开,详细介绍其在深度学习模型中的应用,涵盖自然语言处理和计算机视觉领域,具体内容如下:
13. 2w字解析量化技术,全网最全的大模型量化技术解析
这篇文章围绕机器学习中的量化技术在大语言模型中的应用展开,介绍了量化的概念、优势、技术方法等内容。
14. Transformer :数学解释为什么缩放点积会导致更稳定的梯度
15. 2W8000字深度剖析25种RAG变体:全网最全~没有之一
本文围绕25种RAG变体展开,深入探讨其架构、组件、流程及代码实现,为LLM动态增强提供全面指引。
16. 大模型进化史:从Transformer到DeepSeek-R1的AI变革之路
这篇文章回顾了2017 - 2025年大语言模型的发展历程,介绍关键模型、技术及影响,强调发展推动人工智能走向更具包容性和影响力的未来。
17. LLMs的知识蒸馏:技术和应用
这篇文章围绕LLMs的知识蒸馏技术展开,全面介绍了其技术原理和应用,旨在帮助读者深入理解并掌握这一重要技术,具体内容如下:
18. 3W6000字了解大模型LLM:部署、优化与框架
文章围绕大语言模型(LLM)的部署、优化与框架展开,全面介绍了LLM服务相关知识,具体内容如下:
19. 2W8000字揭秘RAG:从基础到高级的逆袭,彻底重塑大模型!
文章围绕检索增强生成(RAG)技术展开,全面且深入地介绍了从基础概念到高级技术、应用场景以及性能评估等多方面的内容,具体如下:
20. 3W4000字 大模型评估全解析:方法、指标与框架
这篇文章围绕大语言模型评估展开,详细介绍了评估方法、指标、框架等内容,旨在帮助读者全面了解大语言模型评估体系,具体如下:
21. 2W6000字 大模型核心技术综述:微调、推理与优化指南
这篇文章围绕大语言模型展开,涵盖模型基础概念、架构发展、训练优化、推理参数、提示工程以及模型优化技术等多方面内容。
22. 1W8000 字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析
本文围绕检索增强生成(RAG)应用程序中的搜索过程展开探讨,涵盖搜索优势、面临问题、搜索类型、检索算法等多方面内容,强调持续优化和全面评估的重要性。
本文由 mdnice 多平台发布