E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NLP损失函数
Naturali 论文 | 基于多篇章多答案的阅读理解系统
为了应对这些挑战,我们在数据预处理、特征表示、模型选择、
损失函数
的设定和训练目标的选择等方面基于以往的工作做出了对应的设计和改进,构建出一个最先进的中文阅读理解系统。
奇点机智
·
2024-01-11 16:01
【深度学习PyTorch入门】6.Optimizing Model Parameters 优化模型参数
OptimizingModelParameters优化模型参数OptimizingModelParameters优化模型参数前置代码Hyperparameters超参数OptimizationLoop优化循环LossFunction
损失函数
冰雪storm
·
2024-01-11 15:36
深度学习PyTorch入门
pytorch
人工智能
python
深度学习
机器学习
BERT Intro
继续
NLP
的学习,看完理论之后再看看实践,然后就可以上手去kaggle做那个入门的project了orz。
Karen_Yu_
·
2024-01-11 14:57
bert
人工智能
自然语言处理
笔记
论文阅读
Intro project based on BERT
LeeMeng-進擊的BERT:
NLP
界的巨人之力與遷移學習这篇博客使用的是PyTorch,如果对PyTorch的使用比较陌生,建议直接去看PyTorch本身提供的tutorial,写的非常详细,还有很多例子
Karen_Yu_
·
2024-01-11 14:26
bert
人工智能
深度学习
每个人竭是自己人生剧本的导演、编剧兼主演
这段时间比较迷恋心理学的学习,昨天就收到一份”大礼”,是
NLP
一个落地实操课,一看就对此很感兴趣,
NLp
对于我是默生的。
素心如竹焦点团队
·
2024-01-11 13:40
Linux常用命令
1.查看端口属于哪个程序lsof-i:8080netstat-tu
nlp
|grep80802.查看一个程序是否运行ps-ef|greptomcat查看所有有关tomcat的进程3.终止线程kill-919979
Vicent_Z
·
2024-01-11 13:23
查准率与查全率在自然语言处理中的核心概念与联系、核心概念和实践应用,如何使用朴素贝叶斯、SVM 和深度学习实现查准率和查全率的计算?
1.背景介绍自然语言处理(
NLP
)是人工智能领域的一个重要分支,其主要目标是让计算机理解、生成
代码讲故事
·
2024-01-11 11:59
机器人智慧之心
自然语言处理
支持向量机
深度学习
朴素贝叶斯
SVM
查准率
查全率
从零开始复现BERT,并进行预训练和微调
https://gitee.com/guojialiang2023/bert模型BERT是一种基于Transformer架构的大型预训练模型,它通过学习大量文本数据来理解语言的深层次结构和含义,从而在各种
NLP
青云遮夜雨
·
2024-01-11 11:28
代码复现
bert
人工智能
深度学习
【
NLP
】多标签分类【上】
简介《【
NLP
】多标签分类》主要介绍利用三种机器学习方法和一种序列生成方法来解决多标签分类问题(包含实验与对应代码)。
Twilight Sparkle.
·
2024-01-11 11:28
NLP
自然语言处理
分类
人工智能
简单几个步骤几行代码一步一步掌握
NLP
自然语言处理通过Transformers模型实现包括情感分析,垃圾邮件检测,语法纠错,文本推理等
简单几个步骤几行代码一步一步掌握
NLP
自然语言处理通过Transformers模型实现包括情感分析,垃圾邮件检测,语法纠错,文本推理等。
代码讲故事
·
2024-01-11 11:55
机器人智慧之心
自然语言处理
人工智能
NLP
Transformers
情感分析
垃圾邮件
语法纠错
PyTorch知识图谱
2.模型构建:模型构建部分涵盖了神经网络层、模块、
损失函数
和优化器。包括各种神经网络层(如全连接层、卷积层、循环神经网络等)、模型构建(Sequential、Module等
xianyinsuifeng
·
2024-01-11 09:21
pytorch
知识图谱
人工智能
《FITNETS: HINTS FOR THIN DEEP NETS》论文整理
二、Hint-BasedTraining思想1、hint层与guided层:2、核心思想:三、Fitnet训练过程及效果1、FItnet训练过程可以分为三个阶段:2、需要注意的问题:3、具体流程:4、
损失函数
LionelZhao
·
2024-01-11 08:40
知识蒸馏论文阅读
人工智能
神经网络
深度学习
竞赛保研 基于深度学习的植物识别算法 - cnn opencv python
文章目录0前言1课题背景2具体实现3数据收集和处理3MobileNetV2网络4
损失函数
softmax交叉熵4.1softmax函数4.2交叉熵
损失函数
5优化器SGD6最后0前言优质竞赛项目系列,今天要分享的是
iuerfee
·
2024-01-11 07:49
python
神经网络中的
损失函数
(上)——回归任务
神经网络中的
损失函数
前言
损失函数
的含义回归任务中的
损失函数
平均绝对误差(MAE)L1范数曼哈顿距离优点缺点均方误差(MSE)均方误差家族L2范数欧氏距离极大似然估计优点缺点smoothL1LossHuber
liuzibujian
·
2024-01-11 07:53
神经网络
回归
人工智能
机器学习
损失函数
中文分词、去停用词、发现新词
NLP
涵盖的内容较多,分词是基础,特别是对中文来说。中文分词目前使用过snow
nlp
、jieba,简单对比下,jieba的默认模识更好用,snow
nlp
分的过细了。
废柴社
·
2024-01-11 06:06
【论文阅读】InstructGPT: Training language models to follow instructions with human feedback
论文链接:InstructGPT关注公众号fun
NLP
er了解更多AI算法文章目录1.摘要2.导论2.1背景2.2方法2.3发现3.方法及实验细节3.1数据集3.2模型3.3实验结果总结1.摘要把语言模型变大并不意味着会让模型更好的理解用户意图
orangerfun
·
2024-01-11 06:25
自然语言处理
论文阅读
人工智能
机器学习
ChatGPT
解释文本向量化的原理
在自然语言处理(
NLP
)中,文本向量化是一种常用的技术,用于将文本表示为计算机可以处理的形式。
andeyeluguo
·
2024-01-11 06:20
笔记
人工智能
批量归一化
一、为什么要批量归一化
损失函数
出现最后,后面的层训练较快.数据在最底部底部的层训练较慢底部层一变
笔写落去
·
2024-01-11 06:37
深度学习
人工智能
深度学习
杀疯了的ChatGPT——开启AI智能交流新纪元 「文末有彩蛋」
广泛的知识覆盖3.零样本学习4.多语言支持5.上下文感知对话如何使用ChatGPT1.智能助手2.个性化交互3.语言学习伙伴4.创造性写作5.技术支持结论文末彩蛋引言随着人工智能技术的飞速发展,自然语言处理(
NLP
八了个戒
·
2024-01-11 04:54
ChatGPT
chatgpt
人工智能
人工智能作画
程序人生
个人开发
2019-03-15
【优胜行动派️学习日记】[打卡宝宝]:王燕[打卡日期]:2019/3/15[学习内容]:教练式管理[学习笔记]:
NLP
教练技术的核心工作原理:ABCD法则如何定义‘
NLP
教练技术’的呢?
meng7277
·
2024-01-11 03:07
2024-01-04 学习笔记
1.语义分割中的lossfunction最全面汇总摘要这篇文章主要讨论了在图像语义分割任务中常用的几种
损失函数
,包括交叉熵损失、加权损失、焦点损失和Dicesoft损失。
qq_19986067
·
2024-01-11 01:43
学习
笔记
【
NLP
十二条前提假设之八】
【
NLP
十二条前提假设之八】八、每一个人都选择给自己最佳利益的行为(Everyonechoosesthebestbehavioratthemoment.)8.1每一个人做任何事都是为满足自己的一些深层需要
屈婧
·
2024-01-11 01:47
免费英-挪平行语料赠送啦!
因为工作的原因业余时间整理出5W英语-挪威语平行语料,现免费赠送给各位
NLP
大佬,有意向的同学麻烦私信我获取!希望大家多多交流共同进步!
AONDATA
·
2024-01-10 23:34
nlp
人工智能
数据标注
文本分析
平行语料
YOLOv8
损失函数
改进 | 引入 Shape-IoU 考虑边框形状与尺度的度量
️改进YOLOv8注意力系列一:结合ACmix、Biformer、BAM注意力机制论文讲解加入代码 本文提供了改进YOLOv8注意力系列包含不同的注意力机制以及多种加入方式,在本文中具有完整的代码和包含多种更有效加入YOLOv8中的yaml结构,读者可以获取到注意力加入的代码和使用经验,总有一种适合你和你数据集。️YOLOv8实战宝典--星级指南:从入门到精通,您不可错过的技巧 --聚焦于YO
一休哥※
·
2024-01-10 23:30
YOLOv8改进宝典
YOLO
2018-09-13
2018年9月13日360修炼第67天,这两天的修炼一直围绕着
NLP
的破框法展开,之前一位学员问我:“如果我们一直持有接受的态度与外界互动,是否就纵容了一些不法分子的行为呢?”
丁调调
·
2024-01-10 21:32
【
NLP
大脑操作手册07】重定因果
在【
NLP
大脑操作手册06】里,我们学会了用“重定立场”的方式站在对方的角度看待事情,拿到对方最真实的感受和想法,合力将事情解决。今天将介绍第四种方法:重定因果。
龙姑娘Long
·
2024-01-10 21:05
Pytorch学习记录-基于CRF+BiLSTM的CGED
理论方面的论文也都是英文的2.AlibabaatIJC
NLP
-2017Task1:EmbeddingGrammaticalFeaturesintoLSTMsforChineseGrammat
我的昵称违规了
·
2024-01-10 20:06
梯度下降法
前言:在均方差
损失函数
推导中,我使用到了梯度下降法来优化模型,即迭代优化线性模型中的和。现在进一步了解梯度下降法的含义以及具体用法。
Visual code AlCv
·
2024-01-10 20:46
人工智能入门
人工智能
计算机视觉
深度学习
基于DL的人脸超分辨率(FSR)任务综述
LR图像用于网络的训练,HR图像用于监督,网络生成的图片记为SR(superresolution),
损失函数
可以基于评估HR图像和SR图像之间的差异构建。
多少学一点吧
·
2024-01-10 19:00
FSR
深度学习
计算机视觉
神经网络
实战美年健康AI大赛之二_相关问题与思考
说出来可能有人不信,我只用了五折的lightgbm,参数都没怎么调,去缺失值,去噪,特征选择,归一化,模型融合,目前为止都没做,所有时间都花在
NLP
上了,其中很多试尝还在进行中,还未加入模型,
xieyan0811
·
2024-01-10 16:58
深入理解TF-IDF、BM25算法与BM25变种:揭秘信息检索的核心原理与应用
文本挖掘和自然语言处理领域,IF-IDF这个名字,从它在20世纪70年代初被发明,已名震江湖近半个世纪而不曾衰歇.它表示的简单性,应用的有效性,使得它成为不同文本处理任务文本特征权重表示的首选方案.如果要评选一个
NLP
汀、人工智能
·
2024-01-10 14:00
tf-idf
人工智能
BM25算法
NLP
自然语言处理
检索系统
语义搜索
ChatGLM2-6B 大语言模型本地搭建
ChatGLM模型介绍:ChatGLM2-6B是清华
NLP
团队于不久前发布的中英双语对话模型,它具备了强大的问答和对话功能。拥有最大32K上下文,并且在授权后可免费商用!
雪峰空间
·
2024-01-10 11:42
语言模型
人工智能
自然语言处理
目标检测改进系列1:yolo v5网络中OTA
损失函数
替换
OTA
损失函数
替换标签分配(labelassignment)什么是标签分配OTA
损失函数
介绍背景方法如何在yolov5目标检测算法中改为OTA损失步骤一、修改loss.py文件步骤二、在train.py
Dynasty Song
·
2024-01-10 11:32
目标检测
目标检测
深度学习
计算机视觉
1.4.1机器学习——梯度下降+α学习率大小判定
1.4.1梯度下降4.1、梯度下降的概念※【总结一句话】:系统通过自动的调节参数w和b的值,得到最小的
损失函数
值J。如下:是梯度下降的概念图。
帅翰GG
·
2024-01-10 10:24
机器学习
机器学习
学习
人工智能
2.2.3机器学习—— 判定梯度下降是否收敛 + α学习率的选择
2.2.3判定梯度下降是否收敛+α学习率的选择2.1、判定梯度下降是否收敛有两种方法,如下图:方法一:如图,随着迭代次数的增加,J(W,b)
损失函数
不断下降当iterations=300之后,下降的就不太明显了
帅翰GG
·
2024-01-10 10:24
机器学习
机器学习
学习
人工智能
机器学习:自然语言处理介绍
机器学习在自然语言处理(
NLP
)领域扮演着关键的角色,它利用算法和统计模型来处理和理解人类语言。
rubyw
·
2024-01-10 10:22
#
机器学习理论知识
机器学习
自然语言处理
人工智能
nlp
人工智能论文解读精选 | PRGC:一种新的联合关系抽取模型
©
NLP
论文解读原创•作者|小欣论文标题:PRGC:PotentialRelationandGlobalCorrespondenceBasedJointRelationalTripleExtraction
NLP论文解读
·
2024-01-10 09:43
51-6 Vision Transformer ,ViT 论文精读
ViT取代了CNN,打通了CV和
NLP
之间的鸿沟,而且挖了一个更大的多模态的坑。ViT未来有可能真就是一个简洁、高效、通用的视觉骨干网络,而且可以完全不用任何标注信息
深圳季连AIgraphX
·
2024-01-10 08:41
AutoGPT
自动驾驶大模型
transformer
人工智能
深度学习
智慧城市
自动驾驶
gpt-3
LLM调研笔记
这里写目录标题LLM调研1.外挂知识库2.微调数据prompting和fine-tuning的对比3.
NLP
的发展4.大语言模型的涌现能力5.大模型的几个关键技术6.数据预处理7.主流架构8.模型训练9
国家一级假勤奋大学生
·
2024-01-10 07:24
LLM
大模型
LLM
调研笔记
模型参数访问
此时,我们的目标就是找到使
损失函数
最小化的模型参数。有时,我们希望提取参数,以便在其他环境中复用。
Kevin_D98
·
2024-01-10 07:59
动手学深度学习Pytorch版
pytorch
python
USTC Fall2023 高级人工智能期末考试回忆版
USTCFall2023高级人工智能期末考试回忆版填空题20'判断题10'简答题70'填空题20’1.搜索的五要素2.逻辑回归
损失函数
3.函数f的近似值h,评价h的优劣:完备性、准确性、复杂性4.遗传算法的东西
shlyyy
·
2024-01-10 06:01
USTC
人工智能
USTC
Softmax回归
目录1.Softmax回归的从零开始实现2.softmax回归的简洁实现对重新审视softmax的实现的思考:对交叉熵
损失函数
的思考:小批量随机梯度下降算法的理解:1.Softmax回归的从零开始实现importtorchfromIPythonimportdisplayfromd2limporttorchasd2l
sendmeasong_ying
·
2024-01-10 06:54
回归
数据挖掘
人工智能
李沐之数值稳定性+模型初始化和激活函数
目录1.数值稳定性1.1梯度爆炸1.2梯度消失2.模型初始化和激活函数2.1让训练更加稳定3.补充一点导数知识:1.数值稳定性层记为t,这里的y不是预测,还包括了
损失函数
,y是优化函数,不是预测的结果y
sendmeasong_ying
·
2024-01-10 06:54
深度学习
python
机器学习
算法
09 Softmax回归+
损失函数
+图片分类数据集
损失函数
蓝色曲线表示y=0时,变换预测值的曲线变化。绿色是似然函数,近似高斯分布,橙色是
损失函数
的梯度。L2
损失函数
的意义:当靠近原点的时候,梯度就
sendmeasong_ying
·
2024-01-10 06:53
深度学习
回归
分类
数据挖掘
NLP
预训练方法:从BERT到ALBERT详解
BERT基于所有层中的左、右语境进行联合调整,来预训练深层双向表征。只需要增加一个输出层,就可以对预训练的BERT表征进行微调,就能够为更多的任务创建当前的最优模型。使用的是Transformer,相对于rnn而言更加高效、能捕捉更长距离的依赖。1.预训练优点假设已有A训练集,先用A对网络进行预训练,在A任务上学会网络参数,然后保存以备后用,当来一个新的任务B,采取相同的网络结构,网络参数初始化的
nnnancyyy
·
2024-01-10 06:41
python
自然语言处理
bert
深度学习
神经网络
【组队学习】Task03:学习BERT和GPT
组队学习资料:datawhale8月组队学习-基于transformers的自然语言处理(
NLP
)入门Task03主要学习内容:2.3-图解BERT.md2.4-图解GPT.md声明:
NLP
纯小白,本文内容主要是作为个人学习笔记
诡途
·
2024-01-10 06:06
算法和机器学习
机器学习
人工智能
自然语言处理
nlp
深度学习
Transformers 2023年度回顾 :从BERT到GPT4
特别是机器学习(ML)模型在自然语言处理(
NLP
)领域取得了重大进展。一个关键的突破是引入了“自注意力”和用于序列处理的Transformers架构,这使得之前主导该领域的几个关键问题得以解决。
柴神
·
2024-01-10 06:32
语言模型
transformer
bert
人工智能
nlp
chatgpt
目标检测YOLO实战应用案例100讲-基于图像增强的鸟类目标检测(续)
目录SRGAN网络模型改进研究3.1SRGAN超分辨率模型3.1.1SRGAN网络结构3.1.2SRGAN的
损失函数
林聪木
·
2024-01-10 05:58
目标检测
YOLO
深度学习
“不缺钱,只缺人” ,同传翻译的那些事儿
点击左上方蓝字关注我们项目简介“手把手带你学
NLP
”是基于飞桨Paddle
NLP
的系列实战项目。
飞桨PaddlePaddle
·
2024-01-10 05:24
人工智能
编程语言
深度学习
自然语言处理
nlp
翻译:Building Efficient RAG Systems: A Deep Dive into devv.ai
RetrievalAugmentedGeneration(检索增强生成)最初来源于2020年Facebook的一篇论文:Retrieval-AugmentedGenerationforKnowledge-Intensive
NLP
Tasks
数大招疯
·
2024-01-10 05:23
人工智能
上一页
23
24
25
26
27
28
29
30
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他