E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NLP损失函数
Paddle
NLP
自然语言处理 知识图谱 uie-x-base,uie-m-large,uie-m-base模型使用时,报错Out of memory error on GPU 0 gpu内存不够
Hi,I’m@货又星I’minterestedin…I’mcurrentlylearning…️I’mlookingtocollaborateon…Howtoreachme…README目录(持续更新中)各种错误处理、爬虫实战及模板、百度智能云人脸识别、计算机视觉深度学习CNN图像识别与分类、PaddlePaddle自然语言处理知识图谱、GitHub、运维…WeChat:1297767084Git
货又星
·
2024-02-15 04:42
自然语言处理
语言模型
人工智能
运维
知识图谱
nlp
gpt-3
对话系统 | (6) 医疗健康领域的短文本理解
主要内容包括:丁香园主要的业务和所服务的对象,以及在垂直领域下
NLP
工作可能需要面对的挑战在医疗健康领域短文本理解上的尝试结合工
CoreJT
·
2024-02-15 04:08
对话系统
nlp
成长
这次写不出东西了,但是我知道我一直在坚持,我学会了坚持,坚持快乐,坚持
nlp
的核心理念我的人生是成功快乐的
宁静致远2009
·
2024-02-15 02:15
Huber loss
一种用于回归模型的
损失函数
,和mse相比,对outliers更不敏感。当残差较小时,
损失函数
是残差的二次方;当残差较大时,
损失函数
和残差是线性关系。
poteman
·
2024-02-15 02:06
今日arXiv最热
NLP
大模型论文:清华提出LongAlign,打破长上下文对齐瓶颈,数据、训练策略、评估基准一网打尽
随着LLMs的发展,其支持的上下文长度越来越长。仅一年时间,GPT-4就从一开始的4K、8K拓展到了128k。128k什么概念?相当于一本300页厚的书。这是当初只支持512个tokens的BERT时代不敢想象的事情。随着上下文窗口长度的增加,可以提供更丰富的语义信息,从而减少LLM的出错率和“幻觉”发生的可能性,提升用户体验。但现有的构建长上下文LLMs的工作主要集中在上下文扩展方面,即位置编码
夕小瑶
·
2024-02-15 02:27
人工智能
chatgpt
今日arXiv最热
NLP
大模型论文:智能谈判Agent综述,一文读懂谈判桌上的人工智能
谈判,就是大家坐下来聊聊,看怎么能达成共识,共同解决问题。可以是朋友间的闲聊,也可以是国与国之间的外交场合。但谈判这事儿,说简单也不简单。人们往往会带着偏见和情绪,忽略了别人的好建议,导致结果不尽如人意。而且,谈判也是门技术活,不是谁都能轻易搞定的。为了促进人类谈判过程,研究者们提出了智能谈判Agent,能够在多轮互动中辅助人类甚至直接与人类进行谈判。一个典型的谈判对话涉及到Agent和人类之间的
夕小瑶
·
2024-02-15 02:27
人工智能
今日arXiv最热
NLP
大模型论文:基于语言模型模拟的经济学研究
引言:经济选择预测的新视角在经济决策的预测领域,传统方法通常受限于获取人类选择数据的难度。实验经济学研究大多集中在简单的选择设置上,而这些设置往往无法捕捉复杂的人类行为。近年来,人工智能社区通过两种方式为这一领域做出了贡献:一是探讨大型语言模型(LLMs)是否能在简单的选择预测设置中替代人类;二是通过机器学习(ML)的视角研究更复杂的实验经济学设置,这些设置涉及不完全信息、重复游戏和自然语言交流,
夕小瑶
·
2024-02-15 02:26
人工智能
深度学习
大数据
自然语言处理
今日arXiv最热
NLP
大模型论文:大语言模型为什么始终会产生幻觉
随着LLMs的广泛应用,幻觉问题引起了越来越多的安全和道德关注,各种各样的幻觉缓解方法也层出不穷,比如各类知识增强方法、对模型答案进行验证、新的评估基准等。相信大家会和我一样有一个疑问:幻觉问题有望被彻底解决吗?今天介绍的这篇文章很特别,它没有具体讨论缓解幻觉的方法,而是通过对幻觉问题进行明确定义和形式化分析,对幻觉精确讨论与验证实验,最终得出了一个基本结果:即无论模型架构、学习算法、提示技术或训
夕小瑶
·
2024-02-15 02:56
大数据
人工智能
今日arXiv最热
NLP
大模型论文:无需数据集,大模型可通过强化学习与实体环境高效对齐 | ICLR2024
引言:将大型语言模型与环境对齐的挑战虽然大语言模型(LLMs)在自然语言生成、理解等多项任务中取得了显著成就,但是在面对看起来简单的决策任务时,却常常表现不佳。这个问题的主要原因是大语言模型内嵌的知识与实际环境之间存在不对齐的问题。相比之下,强化学习(RL)能够通过试错的方法从零开始学习策略,从而确保内部嵌入知识与环境的对齐。但是,怎样将先验知识高效地融入这样的学习过程是一大挑战,为了解决这一差距
夕小瑶
·
2024-02-15 02:56
自然语言处理
人工智能
深度学习
AllenAI 开源了关于大模型的所有细节!数据、代码、参数、训练过程,完全复现
开篇:OLMo的诞生与开放模型的重要性在人工智能领域,语言模型(LMs)的发展一直是推动自然语言处理(
NLP
)技术进步的核心力量。
夕小瑶
·
2024-02-15 02:56
自然语言处理
人工智能
深度学习
大数据
NLP
学习-05.问答系统基础-文本表示(word representation)-距离计算
上几节已经介绍了文本的分词,拼写纠错,这节介绍wordrepresentation和距离的计算都比较简单,不做详细说明.什么是wordrepresentation即将一个文本进行向量化,这样可以容易地进行距离的度量.有哪些方法进行文本向量化onehot:每个词都用onehot变化表示成稀疏向量;booleanrepresentation:即词典的长度为向量长度,有词的记为1;booleanrepr
logi
·
2024-02-15 01:35
如何使用pytorch自动求梯度
构建深度学习模型的基本流程就是:搭建计算图,求得
损失函数
,然后计算
损失函数
对模型参数的导数,再利用梯度下降法等方法来更新参数。
浩波的笔记
·
2024-02-14 23:47
吴恩达机器学习—大规模机器学习
学习大数据集数据量多,模型效果肯定会比较好,但是大数据也有它自己的问题,计算复杂如果存在100000000个特征,计算量是相当大的,在进行梯度下降的时候,还要反复求
损失函数
的偏导数,这样一来计算量更大。
魏清宇
·
2024-02-14 21:14
ApacheCN 交流社区热点汇总 2019.3
出国留学-微信讨论组自然语言处理(
NLP
)学习路线【每日一问】ID3、C4.5、C5.0和CART有什么联系、区别和优劣?【每日一问】假设模型准确率接近的情况下,模型融合越多越好吗?
布客飞龙
·
2024-02-14 21:40
20201110-
NLP
的巨人肩膀-1引子
转载:https://zhuanlan.zhihu.com/p/50443871没办法,写的太好了图片.png
NLP
的巨人肩膀我们都知道,牛顿说过一句名言IfIhaveseenfurther,itisbystandingontheshouldersofgiants
野山羊骑士
·
2024-02-14 20:54
手动下载spacy的en_core_web_sm模型
https://github.com/explosion/spacy-models/releases例子代码importspacy
nlp
=spacy.load("your/base/path/en_core_web
茫茫人海一粒沙
·
2024-02-14 19:08
自然语言处理
人工智能
(Ridge, Lasso) Regression
岭回归岭回归的
损失函数
MSE+L2岭回归还是多元线性回归y=wTx只不过
损失函数
MSE添加了损失项w越小越好?
王金松
·
2024-02-14 15:56
自然语言处理N天-Allen
NLP
学习(实现简单的词性标注)
有一篇帖子总结了一下学习处理
NLP
问题中间的坑。
NLP
数据预处理要比CV的麻烦很多。去除停用词,建立词典,加载各种预训练词向量,Sentence->Wo
我的昵称违规了
·
2024-02-14 12:54
使用模型Helsinki-
NLP
/opus-mt-en-zh实现英译中
googlecodlab运行需要5秒fromtransformersimportAutoModel,AutoTokenizer,MarianMTModelfromhuggingface_hub.hf_apiimportHfFolderHfFolder.save_token('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')text="Memphisisaserieso
hehui0921
·
2024-02-14 11:18
huggingface
自然语言处理
机器翻译
人工智能
断舍离(3)
22017年的夏日的洛阳,凯旋路上高大的梧桐树依稀可见,参加
NLP
专业执行师的学习,遇见应童老师,收到小树宝宝的礼物。回来
波光粼粼_
·
2024-02-14 10:30
Day30
3月
nlp
经验层次时,我有个心愿是未来12个月带领12场工作坊。
Vidya程莹
·
2024-02-14 09:14
随感
这次的讲师居然是我16年学习
NLP
时的同学,当叶老师讲述她自己的故事时,我有一种心有戚戚然的感觉。
10f4aa464b14
·
2024-02-14 06:13
使用word2vec+tensorflow自然语言处理
NLP
目录介绍:搭建上下文或预测目标词来学习词向量建模1:建模2:预测:介绍:Word2Vec是一种用于将文本转换为向量表示的技术。它是由谷歌团队于2013年提出的一种神经网络模型。Word2Vec可以将单词表示为高维空间中的向量,使得具有相似含义的单词在向量空间中距离较近。这种向量表示可以用于各种自然语言处理任务,如语义相似度计算、文本分类和命名实体识别等。Word2Vec的核心思想是通过预测上下文或
取名真难.
·
2024-02-14 05:18
机器学习
自然语言处理
word2vec
tensorflow
机器学习
深度学习
神经网络
使用Word Embedding+Keras进行自然语言处理
NLP
目录介绍:one-hot:pad_sequences:建模:介绍:WordEmbedding是一种将单词表示为低维稠密向量的技术。它通过学习单词在文本中的上下文关系,将其映射到一个连续的向量空间中。在这个向量空间中,相似的单词在空间中的距离也比较接近,具有相似含义的单词在空间中的方向也比较一致。WordEmbedding可以通过各种方法来实现,包括基于统计的方法(如Word2Vec和GloVe)和
取名真难.
·
2024-02-14 05:18
机器学习
keras
python
深度学习
神经网络
人工智能
自然语言处理
ERNIE实现酒店情感分析(文本分类)
ERNIE实现酒店情感分析(文本分类)引言在自然语言处理(
NLP
)领域,文本分类是一项重要的任务,它能够帮助我们理解和分析大量的文本数据。
OverlordDuke
·
2024-02-14 02:42
深度学习
NLP
分类
数据挖掘
人工智能
NLP
nlp
专业执行师课程单元一作业
NLP
专业执行师课程单元一(程晓毅)功课1.请列出身心语言程序学(
NLP
)的七项预设前题(Presuppositions)。试描述我们如何可以在日常生活里运用它们。一.尊重别人的内心世界。
似水流年cxy
·
2024-02-14 02:07
NLP
是什么?神经语言编程和自然语言处理是同一种技术吗?
NLP
是什么?
高达可以过山车不行
·
2024-02-14 01:53
从GPT学习
自然语言处理
人工智能
6.28 丰盛日记
仍然记得老师在
NLP
讲的终极目标和过程目标的案例。本次进入这个项目,最大的不同是焦虑情绪明显减少,明确知道要去控制什么,要去监管什么。家里领导说,也看不到我焦虑不安的样子。也许这是一个好的开始。
可乐加冰_007
·
2024-02-14 01:41
机器为什么能学习(上)
我们说机器学习算法是可行的,是指它的
损失函数
值很小。比如在回归问题里,我们的目标是让我们用更为数学化的语言表述这件事情:首先定义一下本文需要用到的数学符号我们让本质上就是要使得足够小且。
ringotc
·
2024-02-13 21:16
13自然语言处理基础入门
什么是自然语言处理
NLP
(NaturalLanguageProcessing,自然语言处理)当中所谓的「自然」是为了
Jachin111
·
2024-02-13 21:04
DS Wannabe之5-AM Project: DS 30day int prep day6
Q1.Whatis
NLP
?
wendyponcho
·
2024-02-13 20:01
Machine
Learning
NLP
自然语言处理
人工智能
学习
笔记
机器学习
ICLR 2024 | MolGen: 化学反馈引导的预训练分子生成
Domain-AgnosticMolecularGenerationwithChemicalFeedback发表会议:ICLR2024论文链接:https://arxiv.org/abs/2301.11259代码链接:https://github.com/zju
nlp
奈何辰星无可奈
·
2024-02-13 19:54
人工智能
深度学习
机器学习
语言模型
ICLR
AI4Science
分子生成
ICLR 2024 | Mol-Instructions: 面向大模型的大规模生物分子指令数据集
ALarge-ScaleBiomolecularInstructionDatasetforLargeLanguageModels论文链接:https://arxiv.org/pdf/2306.08018.pdf代码链接:https://github.com/zju
nlp
奈何辰星无可奈
·
2024-02-13 19:23
ICLR
AI4Science
人工智能
深度学习
机器学习
语言模型
自然语言处理
5.27.丰盛日记:
在
NLP
学习的过程中,须对人事物“全然”接纳、爱和尊重。可是,在我回家看到外面晾晒的衣服被雨水打湿时,心里还是有点小失落的叹了口气。又感觉自己好像否定了前面喜欢雨的感觉,并没有全然接纳。
佳馨_958
·
2024-02-13 15:19
简快身心积极疗法介绍
简快身心积极包含
NLP
疗法(此疗法由完形治疗、催眠治疗和家庭治疗三者提炼而成)、家族系统排列、情绪管理理论、其他后现代心理学(如能量心理学、运动机制学和催眠等)以及李中莹老师的研究心得五个部分构成。
子淇的自由天空
·
2024-02-13 14:29
BERT遇上知识图谱:预训练模型与知识图谱相结合的研究进展
转载自AI科技评论随着BERT等预训练模型横空出世,
NLP
方向迎来了一波革命,预训练模型在各类任务上均取得了惊人的成绩。
Necther
·
2024-02-13 14:04
自然语言处理
bert
知识图谱
深度学习
论文解读:知识图谱融入预训练模型
©
NLP
论文解读原创•作者|疯狂的Max背景及动机以BERT为基础的预训练模型在各项
NLP
任务获得巨大的成功,与此同时,如何在泛化的预训练模型基础上融入某些特定领域的知识图谱以获得在特定领域内让模型有更优秀的表现
NLP论文解读
·
2024-02-13 14:03
深度学习
机器学习
人工智能
自然语言处理
知识图谱
AI和人类到底啥关系?机器智能与人类智慧共存
就在刚刚结束的世界顶级机器翻译赛事之一——WMT2018国际机器翻译大赛上,达摩院“机器智能—
NLP
翻译团队”在提交的五项比赛中都获得冠军,成为比赛最大赢家。马云是这样“
一字之师顿悟
·
2024-02-13 14:58
机器学习入门--多层感知机原理与实践
反向传播是指通过计算
损失函数
对网络参数进行梯度
Dr.Cup
·
2024-02-13 13:37
机器学习入门
机器学习
人工智能
机器学习入门--BP神经网络原理与实践
BP算法的核心思想是通过计算
损失函数
相对于网络参数的梯度,然后利用这些梯度信息来更新网络的权重和偏置,从而最小化误差。数学原理BP算法的数学原理基于链式法则计算梯度。考虑一个简单的两层神经
Dr.Cup
·
2024-02-13 13:37
机器学习入门
机器学习
神经网络
人工智能
AI术语概念解释
LLM、AIagent、Token、AGI、
NLP
、知识库⼈⼯智能代理AIAgent专业解释:⼈⼯智能代理是⼀种ᇿ⽴的软件实体,能够在其环境中执⾏任务以实现既定⽬标。
nsa65223
·
2024-02-13 11:46
人工智能
中原焦点解决团队
网络初中级212020.06.21彭蓉坚持分享第103天
NLP
学习的第4天。4天的
NLP
课程结束了,收获很大。
努力前进
·
2024-02-13 10:12
2018-03-05
用户帐户,授权和密码管理的12个最佳实践
NLP
自然语言处理框架ClearTKApacheUIMAClearTKLoggingWiththeElasticStack
baitu
·
2024-02-13 08:15
「自然语言处理(
NLP
)」自然语言生成(NLG)论文速递(1)
来源:AI
NLP
er微信公众号(点击了解一下吧)编辑:ShuYini校稿:ShuYini时间:2020-02-27引言:下面是作者整理的关于自然语言生成(NLG)相关的论文文章,能找到源码的作者也直接贴出来了
Shu灬下雨天
·
2024-02-13 08:56
深度学习中的前向传播和反向传播
反向传递就是计算每个参数的梯度,然后用于最小化
损失函数
。在深度学习中,"forward"通常指前向传播(forwardpropagation),也称为前馈传递。
处女座_三月
·
2024-02-13 07:56
深度学习
深度学习
人工智能
神经网络
《零基础实践深度学习》波士顿房价预测任务1.3.3.5 总结
net.b)总结本节我们详细介绍了如何使用Numpy实现梯度下降算法,构建并训练了一个简单的线性模型实现波士顿房价预测,可以总结出,使用神经网络建模房价预测有三个要点:构建网络,初始化参数w和b,定义预测和
损失函数
的计算方
软工菜鸡
·
2024-02-13 06:36
《零基础实践深度学习》
numpy
深度学习
人工智能
大数据
机器学习
飞桨
百度云
回归预测模型:MATLAB岭回归和Lasso回归
岭回归通过在
损失函数
中添加一个L2正则项(λ∑j=1nβj2\lambda\sum_{j=1}^{n}\beta_j^2λ∑j=1nβj2)来减小回归系数的大小,从而控制模型的复杂度和防止过拟合。
抱抱宝
·
2024-02-13 06:01
数学建模算法与应用
回归
matlab
算法
数学建模
2022-03-23
自然语言处理实验演示-16.高级文本分词器除了基本的文本分词word_tokenize,NLTK还提供了更多的针对特定
NLP
任务的高级文本分词标记工具。
跨象乘云
·
2024-02-13 05:32
王树森《RNN & Transformer》系列公开课
本课程主要介绍
NLP
相关,包括RNN、LSTM、Attention、Transformer、BERT等模型,以及情感识别、文本生成、机器翻译等应用ShusenWang的个人空间-ShusenWang个人主页
如何原谅奋力过但无声
·
2024-02-13 05:24
深度学习
rnn
transformer
bert
GPT3是否是强人工智能?
今天和大家分享一下AI方向自然语言处理(
NLP
)领域内一个新的语言模型:GPT-3。
枯木嫩芽
·
2024-02-13 00:28
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他