E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NLP论文学习
一文读懂大型语言模型LLM
特别是,在自然语言处理(
NLP
)领域,AI的进步已经让计算机不仅能理解人类语言的基本结构,还能在更深层次上把握其语义和情感。
英智未来
·
2024-01-19 01:50
语言模型
搜索引擎
人工智能
报告老师:原来我真的不知道
在
nlp
学习中,我先学到了随观的觉察,为什么不是一笑了之,而是愤怒的情绪?老师教会我解读情绪,愤怒是想做而做不到的无力感,是想调取力量达到的强烈愿望。那这样推论,我是
胡楠同学
·
2024-01-18 23:53
欲望与恐惧
,2018年12月6日晚上,我去听了一个之前听过
NLP
的课,果然又有一些新的体验和收获。
NLP
的范畴中,人的动力有两种:第一是欲望,第二是恐惧。欲望好理解,想要什么东西,就会努力去得到。
三木龙
·
2024-01-18 22:34
大模型学习笔记03——模型架构
模型架构(Modelarchitecture):Transformer架构2、分词词元(token)一般在
NLP
(自然语言处理)中来说,通常指的是一个文本序列中的最小单元,可以是单词、标点符号、数
等风来随风飘
·
2024-01-18 22:17
大模型读书笔记
学习
笔记
解决 py
nlp
ir 分词 License 过期问题
获取安装目录方法:pipinstallpy
nlp
ir这时系统会显示已经安装好的的nplir的位置,我的应该覆盖在.
火禾子_
·
2024-01-18 20:16
PyTorch 2.0 正式版来了!
转自:机器之心进
NLP
群—>加入
NLP
交流群在PyTorchConference2022上,研发团队介绍了PyTorch2.0,并宣布稳定版本将在今年3月正式发布,现在PyTorch2.0正式版如期而至
zenRRan
·
2024-01-18 20:35
pytorch
深度学习
人工智能
python
机器学习
安装snow
nlp
包过程出现Requirement already satisfied:及Read timed out.问题解决方法
最近在做一个情感分析聚类方面的项目,使用电脑中安装的pycharm,解释器为python3.10运行一个python文件时,出现了ModuleNotFoundError:Nomodulenamed'snow
nlp
爱吃修狗的菜包
·
2024-01-18 19:40
python
python
pip
bug
pycharm
Python分词、情感分析工具Snow
NLP
使用方法
1、安装Snow
NLP
cmd下运行:pipinstallSnow
NLP
2、导入fromsnow
nlp
importSnow
NLP
text=“美国作家马克·吐温说过:“一句好听的赞辞能使我不吃不喝活上三个月
阿飞飞2008
·
2024-01-18 19:09
python
python
智慧的妈妈,总有三个以上的解决方法
直到2017年初,我坐到
NLP
的课堂上,子政老师给我重重地击了几棒!子政老师描述的“无价值、无希望”正在我家里上演着。我在课堂上坐如针毡,恨不得马上回家阻止这一切。从那一
券你要努力
·
2024-01-18 18:39
主动迈一步,朗朗乾坤
Nlp
的学习,让我迈出了一步,我就是我自己,我值得拥有,我需要做回我生命的主人,我
秀玲wanan
·
2024-01-18 16:12
Linux常用命令大全
1.查看端口号占用lsof-i:端口号lsof-i:8060sudonetstat-
nlp
|grep80602.查看CPU、核数、磁盘信息[hadoop@master1~]$cat/etc/redhat-releaseCentOSLinuxrelease7.9.2009
tuoluzhe8521
·
2024-01-18 13:52
Linux
linux
运维
服务器
2024年1月17日Arxiv热门
NLP
大模型论文:PRewrite: Prompt Rewriting with Reinforcement Learning
Google革新AI写作,推出PRewrite工具:用强化学习自动优化提示,效率和性能双提升!引言:自动化提示工程的必要性与挑战在当今的人工智能领域,大型语言模型(LLM)的应用日益广泛,它们在各种下游任务中展现出了令人印象深刻的性能。然而,要想充分发挥LLM的潜力,就需要精心设计的提示(prompt),这一过程被称为提示工程。传统上,提示工程通常是手动进行的,采用试错的方式,这不仅耗时耗力,而且
夕小瑶
·
2024-01-18 12:14
人工智能
深度学习
机器学习
如何十分钟快速看懂一篇
NLP
论文?
大家如果经常在刷
NLP
论文,肯定会觉得非常耗时耗力。已经2024年了,该出现一个写论文解读AIAgent了。但真正尝试过用GPT去刷论文、写论文解读的小伙伴,一定深有体验——费劲。
夕小瑶
·
2024-01-18 12:14
人工智能
深度学习
计算机视觉
语言模型
论文阅读
2024年1月17日Arxiv热门
NLP
大模型论文:MIT、IBM推出新方法,大幅提升LLMs的连贯性、准确性和可更新性!
引言:探索语言模型的真实性和一致性在当今信息爆炸的时代,语言模型(LanguageModels,简称LMs)已成为获取信息和验证事实的重要工具。然而,现有的LMs在生成事实性内容时常常出现错误,甚至自相矛盾,更新新信息也颇具挑战。为了解决这些问题,研究者们提出了一种新的LM微调方法——DeductiveClosureTraining(DCT)。DCT的核心思想是利用LMs自身在推理时的能力,通过自
夕小瑶
·
2024-01-18 12:13
人工智能
深度学习
机器学习
NLP
论文阅读
神经网络
2024年1月17日Arxiv热门
NLP
大模型论文:Generative Multi-Modal Knowledge Retrieval with Large Language Models
清华&腾讯AAAI2024联手突破!提出多模态知识检索新框架,性能大幅领先引言:多模态知识检索的重要性与挑战在当今信息爆炸的时代,多模态知识检索已成为支持知识密集型多模态应用的关键技术。例如,在视觉问答(VQA)、多模态实体链接和多模态对话等应用中,多模态上下文内的信息可能不足以满足需求,因此需要获取外部知识。然而,现有的方法在有效性和训练效率方面面临挑战,尤其是在训练和整合多个检索器以处理多模态
夕小瑶
·
2024-01-18 12:43
人工智能
深度学习
机器学习
基于Python大数据的京东产品评论的情感分析的研究,包括snwo
nlp
情感分析和LDA主题分析
研究背景网上购物已经成为大众生活的重要组成部分。人们在电商平台上浏览商品和购物,产生了海量的用户行为数据,其中用户对商品的评论数据对商家具有重要的意义。利用好这些碎片化、非结构化的数据,将有利于企业在电商平台上的持续发展,对这部分数据进行分析,依据评论数据来优化现有产品也是大数据在企业经营中的实际应用。用户对商品的评论数据对商家来说非常重要,可以为他们提供宝贵的市场洞察和决策依据,帮助他们改进产品
叫我:松哥
·
2024-01-18 12:11
大数据
python
网络爬虫
教育电商
自然语言处理
数据分析
聚类
2024年1月17日Arxiv热门
NLP
大模型论文:THE FAISS LIBRARY
Meta革新搜索技术!提出Faiss库引领向量数据库性能飞跃引言:向量数据库的兴起与发展随着人工智能应用的迅速增长,需要存储和索引的嵌入向量(embeddings)数量也在急剧增加。嵌入向量是由神经网络生成的向量表示,其主要目的是将输入媒体项映射(嵌入)到向量空间中,空间中的局部性编码了输入的语义。这些嵌入向量从各种媒体形式中提取,包括文字、图像、用户和推荐项目等。它们甚至可以编码对象关系,例如多
夕小瑶
·
2024-01-18 12:05
自然语言处理
人工智能
搜索
深度学习
神经网络
论文阅读
深入了解Transformer:从编码器到解码器的神经网络之旅
深入了解Transformer:从编码器到解码器的神经网络之旅0.引言自2017年问世以来,Transformer模型在自然语言处理(
NLP
)领域引发了一场革命。
机智的小神仙儿
·
2024-01-18 09:16
深度学习
transformer
神经网络
深度学习
NLP
教练式父母第二天学习感悟
今天上午的学习,让我对妈妈有了更深的看见和理解,兰馨老师帮我呈现出了和妈妈的关系,那个无力的、麻木的妈妈,她一直在渴望看见。我内心一方面知道她需要支持和看见,另一方面却又害怕背负她的人生课题,重复以前拯救者的模式,这个时候助教艳霞老师又给了我新的启发,不做拯救者,我也可以用作为女儿的方式去爱妈妈,支持妈妈,真正的看见妈妈。在和父母连接的体验中,我首先扮演了妈妈的角色,当我的手指指向那个孩子的时候,
缘方_8190
·
2024-01-18 09:58
大创项目推荐 深度学习的智能中文对话问答机器人
1项目架构2项目的主要过程2.1数据清洗、预处理2.2分桶2.3训练3项目的整体结构4重要的API4.1LSTMcells部分:4.2损失函数:4.3搭建seq2seq框架:4.4测试部分:4.5评价
NLP
laafeer
·
2024-01-18 09:11
python
大语言模型系列-ELMo
word2vec的缺点:为每个词汇表中每个分词静态生成一个对应的词向量表示,没有考虑到语境,因此无法无法处理多义词ps:先训练一个词嵌入模型,生成词向量表示,然后将生成的词向量输入下游任务新的模型中进行具体
NLP
学海一叶
·
2024-01-18 09:11
语言模型
人工智能
自然语言处理
深度学习
迁移学习
大语言模型系列-word2vec
的网络结构和流程1.Skip-Gram模型2.CBOW模型二、word2vec的训练机制1.Hierarchicalsoftmax2.NegativeSampling总结前言在前文大语言模型系列-总述已经提到传统
NLP
学海一叶
·
2024-01-18 08:39
LLM
语言模型
word2vec
人工智能
自然语言处理
深度学习
On Data Scaling in Masked Image Modelin
前言 本文验证SIMMIM无监督预训练方法,是否会出现与
NLP
类似的拓展法则现象。1、结论 这篇论文做了大量的对比实验,因此,先说结论: 1)大模型在小数据上过拟合;(感觉没啥a) 2)MIM
武乐乐~
·
2024-01-18 07:49
深度学习
人工智能
自然语言处理
DN-DETR
论文学习
摘要本文提出了一种新颖的去噪训练方法,以加快DETR(DEtectionTRansformer)训练,并加深了对类DETR方法的慢收敛问题的理解。我们表明,缓慢收敛是由于二分图匹配的不稳定性导致早期训练阶段的优化目标不一致。为了解决这个问题,除了匈牙利损失之外,我们的方法还向Transformer解码器馈送了带有噪声的GT边界框,并训练模型重建原始框,从而有效地降低了二分图匹配难度,并加快了收敛速
彭祥.
·
2024-01-18 07:45
DETR系列
学习
深度学习
计算机视觉
MS-DETR: Efficient DETR Training with Mixed Supervision
论文学习
笔记
论文地址:https://arxiv.org/pdf/2401.03989.pdf代码地址(中稿后开源):GitHub-Atten4Vis/MS-DETR:Theofficialimplementationfor"MS-DETR:EfficientDETRTrainingwithMixedSupervision"摘要DETR通过迭代生成多个基于图像特征的目标候选者,并为每个真实目标分配一个候选者,
athrunsunny
·
2024-01-18 07:13
Transformer
学习
笔记
transformer
深度学习
算法
NLP
任务中常用的损失函数
损失函数类型适用于:文本分类,情感分析,机器翻译,抽取式问答的有:y,y^y,\hat{y}y,y^分别表示真实和预测值二分类交叉熵损失L(y,y^)=−(ylogy^+(1−y)log(1−y^)L(y,\hat{y})=-(ylog\hat{y}+(1-y)log(1-\hat{y})L(y,y^)=−(ylogy^+(1−y)log(1−y^)多分类交叉熵损失函数L(y,y^)=−∑i=1m
bulingg
·
2024-01-18 04:22
算法工程师
自然语言处理
人工智能
中文
NLP
笔记:11. 基于 LSTM 生成古诗
基于LSTM生成古诗1.语料准备一共四万多首古诗,一行一首诗2.预处理将汉字表示为One-Hot的形式在每行末尾加上]符号是为了标识这首诗已经结束,说明]符号之前的语句和之后的语句是没有关联关系的,后面会舍弃掉包含]符号的训练数据。puncs=[']','[','(',')','{','}',':','《','》']defpreprocess_file(Config):#语料文本内容files_c
不会停的蜗牛
·
2024-01-18 04:37
我也有灰色地带
别以为我整天写
NLP
的好处,我的生活就一定过得完美,不可能的。
NLP
虽好,我也有用错的时候。在我看来,一旦用错,就必然会导致我所不期的结果。我把我行差踏错的场景标识成“我的灰色地带”。
福哥0075826
·
2024-01-17 22:23
NLP
三大特征提取器全梳理:RNN vs CNN vs Transformer
【嵌牛鼻子】RNNCNNTransformer【嵌牛提问】
NLP
三大特征提取器是什么?【嵌牛正文】如果用
d5cc63d9e177
·
2024-01-17 20:10
【OUC深度学习入门】第6周学习记录:Vision Transformer & Swin Transformer & ConvNeXt
Part1VisionTransformer1网络结构ViT模型不仅适用于
NLP
领域,在CV领域也能取得不错的效果。
深蓝与夜的呼吸
·
2024-01-17 19:41
深度学习
transformer
学习
【深度学习:BERT 】开源 BERT:最先进的自然语言处理预训练
双向性的力量使用云TPU进行训练BERT结果让BERT为您服务自然语言处理(
NLP
)的最大挑战之一是训练数据的短缺。
jcfszxc
·
2024-01-17 19:27
深度学习知识专栏
深度学习
自然语言处理
bert
2022-03-21
#知识##校园学习##
NLP
##自然语言处理##人工智能专业建设##textblob##文本数据清洗##实验视频##正则表达式##Python##keras##文本分词#个人用户获取相关代
跨象乘云
·
2024-01-17 19:45
儿子写给母亲的表扬颂
为期四天的心理学
NLP
系统学习结束了,回忆四天的学习,第三天培训的肖导留了一个作业,给我留下了深刻的印象,作业内容是要我们站在他人角度给自己写一篇表扬颂,她人可以是朋友,孩子,父母,兄弟姐妹。
蜗居娃娃
·
2024-01-17 18:48
PyTorch Tutorial 2.0
这里是对于PyTorchTutorial-CSDN博客的补充,但是与其相关的
NLP
内容无关,只是一些基础的PyTorch用法的记录,主要目的是能够自己生成一些模拟的数据集。
Karen_Yu_
·
2024-01-17 15:55
pytorch
人工智能
python
stanfordcore
nlp
提示RuntimeError: Java not found.
遇到问题:/anaconda3/envs/tensorflow/bin/python3/anaconda3/demo/demo/gcn_eca/gcn_model_tf/get_w2v_corpus.pyTraceback(mostrecentcalllast):File“/anaconda3/demo/demo/gcn_eca/gcn_model_tf/get_w2v_corpus.py”,li
liqiang12689
·
2024-01-17 15:18
python标准库
自然语言处理
normalization in nn (batchnorm layernorm instancenorm groupnorm)
importtorchimporttorch.nnasnn定义输入,本文以
nlp
或时间序列预测的数据结构为例。即[batch_size,time_ste
sdu_study
·
2024-01-17 14:48
人工智能
机器学习
算法
使用Ha
nlp
加载大字典
问题因为需要加载一个近1G的字典到Ha
nlp
中,一开始使用了CustomDictionay.add()方法来一条条的加载,果然到了中间,维护DoubleArraTre的成本太高,添加一个节点,都会很长时间
lanlantian123
·
2024-01-17 12:10
技术动态 | 知识图谱遇上RAG行业问答:回顾知识检索增强范式、挑战及与知识图谱的结合...
转载公众号|老刘说
NLP
今天我们来看看AIDD2023(https://aidd.vip/dhrc-sz2023)中有关知识图谱与行业问答上的一些有趣的分享,供大家一起参考。
开放知识图谱
·
2024-01-17 11:46
知识图谱
人工智能
冻结Prompt微调LM: T5 & PET (a)
2019.10ExploringtheLimitsofTransferLearningwithaUnifiedText-to-TextTransformerTask:EverythingPrompt:前缀式人工promptModel:Encoder-DecoderTakeAway:加入前缀Prompt,所有
NLP
AI-智能
·
2024-01-17 11:55
prompt
人工智能
大模型
机器学习
如何十分钟快速看懂一篇英文
NLP
论文?
已经2024年了,该出现一个写论文解读AIAgent了。大家肯定也在经常刷论文吧。但真正尝试过用GPT去刷论文、写论文解读的小伙伴,一定深有体验——费劲。其他agents也没有能搞定的,今天我发现了一个超级厉害的写论文解读的agent,传送门:赛博马良智能体-AI论文解读达人它不仅可以每天推荐你想看的AI论文,而且当你想快速看懂一篇英文论文的时候,可以直接丢给我们的agent,它就会给你写一篇详细
夕小瑶
·
2024-01-17 10:16
人工智能
自然语言处理
神经网络
深度学习
大模型
论文阅读
论文笔记
2024年1月16日Arxiv热门
NLP
大模型论文:Ada-Retrieval: An Adaptive Multi-Round Retrieval Paradigm for Sequential R
多轮次智能推荐新突破,MSRA&人大联合提出Ada-Retrieval,性能全面超越传统模型!引言:个性化推荐系统的新篇章个性化推荐系统在电子商务、社交媒体和娱乐平台等在线应用中扮演着至关重要的角色。通过根据用户的历史行为和偏好提供个性化推荐,这些系统增强了用户体验和参与度。尽管传统的单轮检索模型在推荐系统中已经取得了一定的成功,但它们在捕捉用户偏好的动态性和适应不断变化的项目空间多样性方面仍存在
夕小瑶
·
2024-01-17 10:16
自然语言处理
人工智能
大模型
神经网络
深度学习
语言模型
2024年1月16日Arxiv热门
NLP
大模型论文:Using Natural Language Inference to Improve Persona Extraction from Dialog
霍普斯金新研究:提高对话智能体在新领域中从对话中提取个性信息的能力引言:探索跨领域对话智能体的个性化挑战在构建对话智能体时,个性化是一个关键挑战,尤其是在跨领域的情况下。对话智能体需要能够根据其被赋予的角色或个性来生成回应,这要求它们能够理解并表达与特定角色相关的特征和行为。然而,现有的对话智能体往往在维持一致的个性上存在困难,尤其是在从现实世界场景转移到如幻想世界等不同叙事领域时。为了解决这一问
夕小瑶
·
2024-01-17 10:45
自然语言处理
人工智能
chatgpt
大模型
论文阅读
论文笔记
2024年1月16日Arxiv热门
NLP
大模型论文:A Closed-form Solution for Weight Optimization in Fully-connected ......
颠覆传统!一次迭代,全层并行,新神经网络权重优化方法,让机器学习效率飞跃引言:机器学习的崛起与发展概述在21世纪初,强大的计算机硬件和工作站的出现使得机器学习得以迅猛发展。作为人工智能的一部分,机器学习领域不断演进,并吸引了大量的研究兴趣,特别是在成功应用于各种学术和工业问题之后。这些机器的强大处理能力甚至在某些情况下超越了人类的表现。机器学习工具对于那些难以建立精确数学模型的实际问题尤其有趣,因
夕小瑶
·
2024-01-17 10:45
自然语言处理
搜索引擎
人工智能
chatgpt
transformer
深度学习
大模型
十分钟读完 OpenAI提出InstructGPT模型的经典论文:Training language models to follow instructions with human feedback
OpenAI提出新模型InstructGPT:通过人类反馈微调大型语言模型,减少有害输出引言:探索大型语言模型与用户意图对齐的新途径随着人工智能技术的飞速发展,大型语言模型(LMs)在自然语言处理(
NLP
夕小瑶
·
2024-01-17 10:15
语言模型
人工智能
自然语言处理
深度学习
大模型
chatgpt
2024年1月16日Arxiv最热
NLP
大模型论文:The Unreasonable Effectiveness of Easy Training Data for Hard Tasks
让AI从简单学起,竟然能解决难题?AllenAI最新研究发现:简单到困难的泛化能力出奇地强引言:探讨训练模型在难题上的表现:简单数据的不合理有效性在人工智能的发展过程中,一个重要的问题是如何训练模型以便它们能够在难度较高的测试数据上表现良好,尤其是在难以获取准确标注的难题训练数据的情况下。这个问题被称为可扩展监督问题(scalableoversightproblem),随着语言模型的不断进步,这个
夕小瑶
·
2024-01-17 10:14
人工智能
深度学习
chatgpt
自然语言处理
transformer
2024年1月16日Arxiv热门
NLP
大模型论文:Improved Learned Sparse Retrieval with Corpus-Specific Vocabularies
亚马逊颠覆搜索技术:自定义词汇库提升检索性能,效率提高50%,准确度飙升12%!引言:搜索引擎中的词汇选择与检索效率在搜索引擎的世界中,词汇的选择对于检索效率至关重要。传统的搜索引擎技术,如BM25,依赖于对文档中词汇的频率统计来估计词汇的重要性。然而,随着预训练语言模型(如BERT)的兴起,我们现在可以通过直接优化检索任务来学习文档中词汇的重要性。这些学习到的词汇重要性分数是许多学习型稀疏检索技
夕小瑶
·
2024-01-17 10:14
自然语言处理
人工智能
语言模型
神经网络
深度学习
大模型
论文阅读
2024年1月16日Arxiv最热
NLP
大模型论文:How Johnny Can Persuade LLMs to Jailbreak Them: Rethinking Persuasion to C
让大语言模型轻松「越狱」,人大研究揭示AI安全新风险,攻击成功率高达92%!引言:人工智能安全的新视角——以人类沟通者的角色挑战大型语言模型(LLMs)随着大型语言模型(LLMs)的日益普及和能力提升,它们在日常互动中的安全性问题也逐渐显现。传统的人工智能(AI)安全研究多从算法角度出发,关注由安全专家开发的基于算法的攻击手段。然而,非专家用户在与LLMs的日常交互中也可能带来风险。本文提出了一种
夕小瑶
·
2024-01-17 10:43
人工智能
语言模型
自然语言处理
神经网络
深度学习
2024 年1月15日Arxiv最热
NLP
大模型论文:APAR: LLMs Can Do Auto-Parallel Auto-Regressive Decoding
清华大学让大语言模型自动并行自回归解码,速度提升高达4倍!引言:大型语言模型的高效部署挑战随着大型语言模型(LLMs)在各种人工智能应用中的广泛应用,对于这些模型的高效部署需求日益增长。高效部署在这里指的是低延迟和高吞吐量。然而,LLMs的基础自回归(AR)结构给实现更高效的服务带来了显著挑战。首先,自回归解码过程中,每一个新的词元都是基于之前生成的所有词元条件生成的,这种增量式解码导致生成速度不
夕小瑶
·
2024-01-17 10:13
自然语言处理
人工智能
transformer
chatgpt
2024年1月16日Arxiv热门
NLP
大模型论文:Multi-Candidate Speculative Decoding
大幅提速
NLP
任务,无需牺牲准确性!
夕小瑶
·
2024-01-17 10:03
自然语言处理
人工智能
语言模型
神经网络
深度学习
大模型
刘知远LLM入门到实战——自然语言基础
文章目录自然语言处理基础词表示语言模型N-gramModelNeuralLanguageModel:为什么
NLP
等领域的模型越来越大?大模型会带来哪些新的范式和挑战?
李日音
·
2024-01-17 08:41
语言模型
笔记
langchain
python
上一页
13
14
15
16
17
18
19
20
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他