自然语言NLP学习

2-7 门控循环单元(GRU)_哔哩哔哩_bilibili

自然语言NLP学习_第1张图片

GRU  LSTM

自然语言NLP学习_第2张图片

自然语言NLP学习_第3张图片

自然语言NLP学习_第4张图片

双向RNN

CNN 卷积神经网络

自然语言NLP学习_第5张图片

输入层  转化为向量表示

自然语言NLP学习_第6张图片

自然语言NLP学习_第7张图片

自然语言NLP学习_第8张图片

dropout

ppl

自然语言NLP学习_第9张图片

自然语言NLP学习_第10张图片

自然语言NLP学习_第11张图片

标量

在物理学和数学中,标量(Scalar)是一个只有大小、没有方向的量。它只用一个数值就可以完全描述,且满足交换律。例如,质量、温度、时间、体积、密度、功、能量等都是标量。

在向量代数中,标量与向量是相对的概念,标量可以与向量相乘,从而改变向量的长度但不改变其方向。例如,在三维空间中,如果一个向量的长度为3,一个标量为2,那么这个标量乘以向量的结果将得到一个长度为6,方向不变的新向量。

自然语言NLP学习_第12张图片

注意力分数

隐向量

隐向量(Latent Vector)是机器学习和深度学习中一个重要的概念,特别是在自然语言处理、推荐系统、图像识别等领域。隐向量是用来表示复杂数据的一种低维实数向量,它通过训练学习到的,并试图捕捉原始高维数据中的潜在结构和语义信息。

在推荐系统中:

  • 隐向量通常用来表示用户和物品(如电影、音乐等),每个用户和每件物品都被映射到一个固定维度的向量空间中。
  • 例如,在因子分解机(FM,Factorization Machines)模型中,各个特征(比如用户ID或商品ID)对应的隐向量可以通过矩阵分解得到,这些隐向量的内积可以用来预测用户对商品的评分或者偏好。

在自然语言处理中:

  • 单词或文档也可以用隐向量来表示,这种表示方法常被称为词嵌入(Word Embeddings),如Word2Vec、GloVe等模型生成的向量。
  • 这些隐向量可以捕获单词之间的语义相似性,使得在向量空间中距离相近的单词具有类似的含义。

在深度学习架构中:

  • 在神经网络中,Embedding层就是用来将离散的高维输入(如one-hot编码)转换为连续的低维隐向量,以便进行后续的计算和模式挖掘。

总的来说,隐向量是一种压缩和抽象的表示形式,它有助于模型理解和处理高维稀疏数据,并能够发现数据内部隐藏的模式和联系。

自然语言NLP学习_第13张图片

自然语言NLP学习_第14张图片

softmax函数是一种在机器学习和深度学习中广泛使用的归一化指数函数,主要用于多分类问题的输出层计算预测类别概率分布。

自然语言NLP学习_第15张图片

激活函数

注意力机制解决信息瓶颈问题

Transformer

自然语言NLP学习_第16张图片

自然语言NLP学习_第17张图片

BPE

交叉熵

自然语言NLP学习_第18张图片

自然语言NLP学习_第19张图片

自然语言NLP学习_第20张图片

自然语言NLP学习_第21张图片

自然语言NLP学习_第22张图片

自然语言NLP学习_第23张图片

正则化

自然语言NLP学习_第24张图片

加权平均是一种统计方法,用于计算一组数值的平均值时,考虑到每个数值的重要性(权重)不同。在普通平均数中,所有数据点都同等重要,而在加权平均中,每个数据点有一个与其对应的权重值,这个权重反映了该数据点在最终结果中的相对影响程度。

加权平均的计算公式为:

加权平均数=∑(每个数据值×对应权重)∑(所有权重)加权平均数=∑(所有权重)∑(每个数据值×对应权重)​

例如,在学校教育场景中,一个学生的学期总评成绩可能由平时测验、期中考试和期末考试的成绩按不同比例(权重)综合得出:

  • 平时测验:80 分,权重 20%
  • 期中考试:90 分,权重 30%
  • 期末考试:95 分,权重 50%

那么,该学生的学期总评成绩可以通过以下步骤计算:

学期总评成绩=(80×0.2)+(90×0.3)+(95×0.5)0.2+0.3+0.5学期总评成绩=0.2+0.3+0.5(80×0.2)+(90×0.3)+(95×0.5)​

此外,在财务领域,加权平均法常用于库存管理,计算存货的单位成本。例如,考虑一段时间内多次购入商品的情况,每次购入的数量和单价不同,这时会根据各批次进货的数量(作为权重)和其相应的单价来计算整个库存的平均单位成本。

自然语言NLP学习_第25张图片

自然语言NLP学习_第26张图片

自然语言NLP学习_第27张图片

自然语言NLP学习_第28张图片

自然语言NLP学习_第29张图片

自然语言NLP学习_第30张图片

自然语言NLP学习_第31张图片

自然语言NLP学习_第32张图片

自然语言NLP学习_第33张图片

自然语言NLP学习_第34张图片

自然语言NLP学习_第35张图片

自然语言NLP学习_第36张图片

自然语言NLP学习_第37张图片

3-13 预训练语言模型--PLM介绍_哔哩哔哩_bilibili

自然语言NLP学习_第38张图片

预训练

自然语言NLP学习_第39张图片

自然语言NLP学习_第40张图片

自然语言NLP学习_第41张图片

自然语言NLP学习_第42张图片

预训练语言模型

Transformers

自然语言NLP学习_第43张图片

PyTorch

fine-tune

“微调”(fine-tune)的具体含义略有不同,但核心都是对已有的事物进行精细化调整和优化:

  1. 在机器学习和人工智能领域,微调通常是指对预训练模型的参数进行进一步调整。例如,在深度学习中,我们可能首先采用一个已经在大规模数据集上预训练好的模型,然后将其应用到特定任务上时,针对这个特定任务的数据进行再次训练,通过调整部分或全部模型参数,使得模型能够更好地适应新任务的需求,从而提升模型在新任务上的性能。

自然语言NLP学习_第44张图片

自然语言NLP学习_第45张图片

load metric

3-20 Transformers教程--Demo讲解_哔哩哔哩_bilibili  重点看下

4-1 课程内容介绍_哔哩哔哩_bilibili

自然语言NLP学习_第46张图片

自然语言NLP学习_第47张图片

自然语言NLP学习_第48张图片

4-2 Prompt-Learning和Delta-Tuning--背景和概览_哔哩哔哩_bilibili

自然语言NLP学习_第49张图片

representation

在自然语言处理(NLP)和机器学习中,representation(表示法或表征)特指将语言中的单词、短语、句子或文档转化为计算机可以理解与操作的形式。这个过程是模型理解和生成自然语言的关键步骤。

在语言模型中,representation通常是指:

  • 词嵌入(Word Embedding):这是一种将每个单词映射到一个固定维度向量空间的技术,如Word2Vec、GloVe或BERT等预训练模型所生成的词向量,使得语义相近的词在向量空间上距离较近。

  • 上下文相关的表示(Contextual Representation):比如Transformer架构中的BERT和GPT系列模型产生的表示,它们不仅能捕捉单个词的一般含义,还能考虑词语在具体上下文环境下的含义变化,生成动态的上下文嵌入。

这些表示被用于各种下游NLP任务,如情感分析、命名实体识别、问答系统等,通过学习到的有效数据表示,模型能够更好地理解和推断文本信息。

sequence to sequence

Sequence to Sequence(简称Seq2Seq)是一种在自然语言处理和机器学习领域广泛应用的模型架构,主要用于处理输入和输出都是变长序列的任务。中文可以解释为“序列到序列”或“顺序到顺序”。

具体来说,Seq2Seq模型设计用于将一个输入序列(比如一段文本)通过神经网络转换成另一个不同长度的输出序列(比如翻译后的另一段文本)。这种模型通常包含两个主要部分:编码器(Encoder)和解码器(Decoder)。

  • 编码器负责读取并理解输入序列的信息,并将其压缩成一个固定维度的向量(称为上下文向量),这个向量包含了输入序列的整体语义信息。

  • 解码器则依据该上下文向量逐步生成目标序列,每次生成一个元素(如一个词或子词单元),直到生成结束标记或者达到预设的最大长度。

Seq2Seq模型常应用于机器翻译、文本摘要、对话系统、语音识别转文字等场景中。随着注意力机制(Attention Mechanism)的发展,Seq2Seq模型能够更灵活地处理源序列和目标序列之间的依赖关系,进一步提升模型性能。

自然语言NLP学习_第50张图片

自然语言NLP学习_第51张图片

自然语言NLP学习_第52张图片

自然语言NLP学习_第53张图片

自然语言NLP学习_第54张图片

在自然语言处理和机器学习的上下文中,“trigger”这个词有多重含义:

  1. 事件触发词:在信息抽取或情感分析等领域,触发词(Trigger)是指引起特定事件发生的词语。例如,在识别文本中的“灾害事件”,“发生”、“爆发”等词可能是表示灾害开始的触发词。

  2. 条件触发器:在自动化流程或者智能系统中,触发器(Trigger)指的是一种当满足特定条件时启动某个操作或过程的机制。例如,在数据库中,一个时间触发器会在特定时间点执行预设的SQL脚本。

  3. 心理触发:在心理学上,触发(Trigger)可能指的是某些刺激因素,它们能够激发个体的情绪反应、记忆或者其他心理状态。

  4. 对话系统触发:在构建对话系统时,触发也可以指代用户话语中引导系统进行某种响应的部分,比如特定命令词或问题类型。

根据不同的语境,触发(Trigger)的具体意义会有所不同。

在自然语言处理中,"positive"(积极的、正面的)通常用于描述文本的情感倾向或评价。例如,在情感分析任务中,如果一段文本被标记为“positive”,则表示这段文字传达了积极的情绪、正面的态度或者对某个主题给予了肯定评价。

另外,在机器学习和数据分析中,“positive”也可能指代一个实例所属的类别标签,比如在疾病诊断问题中,“positive”可能意味着测试结果呈阳性,即存在某种病症。

而在日常对话或写作中,“positive”一词也常常用来鼓励乐观态度、积极思维和正向行为。

在自然语言处理(NLP)领域中,embedding(嵌入、词嵌入或向量化)是指将文本中的单词、短语或者整个句子映射到一个低维连续向量空间的技术。这种向量空间通常被称为嵌入空间,其中每个词汇都有一个对应的向量表示。

通过embedding技术,原本离散的文本数据转换为数值型数据,使得机器学习和深度学习模型能够理解并处理自然语言。这些向量代表了词语在上下文环境中的语义特征,相似含义的词语在向量空间中的距离会比较接近,从而让模型能够捕捉词汇间的语义关系。

例如,在Word2Vec、GloVe等词嵌入方法中,通过训练可以得到每个词的向量表示。而在更复杂的模型如BERT、Transformer等中,不仅考虑单个词的嵌入,还引入了位置编码,并生成上下文相关的词嵌入,进一步提升了对文本理解的能力。

自然语言NLP学习_第55张图片

自然语言NLP学习_第56张图片

自然语言NLP学习_第57张图片

4-8 Prompt-Learning--应用_哔哩哔哩_bilibili

你可能感兴趣的:(自然语言处理,学习,人工智能)