E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLM微调
Stable Diffusion 模型下载:国风4 GuoFeng4 XL
文章目录模型介绍生成案例案例一案例二案例三案例四案例五案例六案例七案例八案例九案例十下载地址模型介绍欢迎使用GuoFeng4模型-这是一个
微调
后的全能的SDXL模型,也可以说是对国人喜欢的画风
微调
过的模型
水滴技术
·
2024-02-05 12:38
AI绘画从入门到精通
stable
diffusion
AI作画
python
从领域外到领域内:
LLM
在Text-to-SQL任务中的演进之路
导语本文介绍了ODIS框架,这是一种新颖的Text-to-SQL方法,它结合了领域外示例和合成生成的领域内示例,以提升大型语言模型在In-contextLearning中的性能。标题:SelectiveDemonstrationsforCross-domainText-to-SQL会议:EMNLP2023Findings链接:https://arxiv.org/abs/2310.06302机构:T
Q同学的nlp笔记
·
2024-02-05 11:26
sql
数据库
人工智能
自然语言处理
深度学习
nlp
论文阅读
ChatGPT高效提问—基础知识(LM、PLM以及
LLM
)
ChatGPT高效提问—基础知识(LM、PLM以及
LLM
)了解语言模型(languagemodel,LM)、预训练语言模型(pre-trainedlanguagemodel,PLM)和大型语言模型(largelanguagemodel
Bruce_Liuxiaowei
·
2024-02-05 08:11
笔记
总结经验
chatgpt
Prompt提示词技巧:如何使用思维链COT巧妙提升
LLM
输出效果
一、为什么说我的Prompt风格偏向「COT思维链」风格的推理?举个例子,当你让一个学生在1秒钟内回复你34242413+54321321=?等于多少?在学生没有打草稿并且在1秒钟回复你的情况下,除非他提前背过答案或者是神算,否则他可能随便编你一个随机的错误答案给你。GPT就好像这个学生一样,你需要让它有一定空间分析你提出的问题,打个推理过程的草稿,再组织草稿里面的各个部分之间的关系,最终再得到答
aiboycoder
·
2024-02-05 07:46
prompt
人工智能
chatgpt
复旦大学NLP团队发布86页大模型Agent综述
该论文从AIAgent的历史出发,全面梳理了基于大型语言模型的智能代理现状,包括
LLM
-basedAgent的背景、构成、应用场景以及备受关注的代理社会。
源代码杀手
·
2024-02-05 06:57
自然语言处理笔记与知识图谱专栏
自然语言处理
人工智能
oracle 10g failover,oracle 10g rac failover(service-side TAF)
1,Server-SideTAF具有TAF的所有特点2,Client-SideTAF是在客户端修改tnsnames.ora文件来配置的,如果有很多客户端使用这个数据库,那么每次
微调
整都需要把所有的客户端修改一遍
ljyzyw
·
2024-02-05 06:09
oracle
10g
failover
一文辨析清楚LORA、Prompt Tuning、P-Tuning、Adapter 、Prefix等大模型
微调
方法
本文探讨了大模型
微调
的核心概念和方法,详细介绍了如LoRA、AdapterTuning、PrefixTuning等多种
微调
策略。
深度学习算法与自然语言处理
·
2024-02-05 05:45
NLP与大模型
大模型实战
prompt
人工智能
深度学习
多模态
大模型
自然语言处理
大语言模型
大模型增量预训练新技巧:解决灾难性遗忘
大家好,目前不少开源模型在通用领域具有不错的效果,但由于缺乏领域数据,往往在一些垂直领域中表现不理想,这时就需要增量预训练和
微调
等方法来提高模型的领域能力。
深度学习算法与自然语言处理
·
2024-02-05 05:14
NLP与大模型
自然语言处理
算法
大模型
人工智能
模型微调
AIGC面经大全(持续更新)
目录DDPM算法原理部分:DDIM算法原理部分:⾼阶采样⽅案:特征编码篇:StableDiffusion篇:SDXL篇:⼤模型
微调
篇:控制模型篇:适配器篇:DDPM算法原理部分:简述DDPM的算法流程:
研三小学渣
·
2024-02-05 03:04
AIGC
深度学习
人工智能
大模型日报-20240202
文章目录企业如何使用开源
LLM
:16个案例多模态
LLM
多到看不过来?先看这26个SOTA模型吧伯克利开源高质量大型机器人操控基准,面对复杂自主操控任务不再犯难市值登顶全球!
程序无涯海
·
2024-02-05 03:33
大模型资讯篇
AI
AIGC
大模型
日报
chatgpt
ai日报
开源支持私有化部署一分钟构建大模型机器人
一分钟构建大模型机器人Dify是一款中国开源的大语言模型(
LLM
)应用开发平台。使开发者可以快速搭建生产级的生成式AI应用。即使你是非技术人员,也能参与到AI应用的定义和数据运营过程中。
Kavaj
·
2024-02-05 01:39
python
AI
大模型
人工智能
机器人
语言模型
LLM
应用开发与落地:基于上下文的文本信息检测与提取
最近一直用
LLM
解决各种各样的问题,感觉已经脱离不了
LLM
了。每次使用
LLM
解决一个之前解决不了的问题,或者大大提升我的工作效率的时候,我内心都小小会激动一下。
前行的七哥
·
2024-02-04 21:30
人工智能
LLM
应用开发与落地:《哄哄模拟器》爆火后我的一些思考
虽然我当前做的方向主要是企业内部提效的,但是有趣的事情谁不喜欢呢,特别还是在
LLM
应用方向的。首先,作为一个专注
LLM
应用开发与落地的人,看到这样有趣的应用,肯定是先动起手来,自己实现一个玩玩。
前行的七哥
·
2024-02-04 21:29
人工智能
LLM
应用开发与落地:使用gradio十分钟搭建聊天UI
一、背景如果你是做
LLM
应用开发的,特别是做后端开发,你一定会遇到怎么快速写一个聊天UI界面来调试prompt或agent的问题。
前行的七哥
·
2024-02-04 21:55
ui
人工智能
【
LLM
】提示工程技术提炼精华分享
一、提示工程概述提示工程(PromptEngineering)是一门较新的学科,关注提示词开发和优化,帮助用户将大语言模型(LargeLanguageModel,
LLM
)用于各场景和研究领域。
液态不合群
·
2024-02-04 21:48
人工智能
LLM
信息可视化
今日arXiv最热NLP大模型论文:像人一样浏览网页执行任务,腾讯AI lab发布多模态端到端Agent
Agent的发展成为了
LLM
发展的一个热点。只需通过简单指令,Agent帮你完成从输入内容、浏览网页、选择事项、点击、返回等一系列需要执行多步,才能完成的与网页交互的复杂任务。
夕小瑶
·
2024-02-04 16:35
人工智能
自然语言处理
加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让语言模型服务飞速提升2-7倍!
近年来,随着大型语言模型(
LLM
)的出现,在多样化的NLP任务上取得了令人瞩目的成果。
夕小瑶
·
2024-02-04 16:35
语言模型
人工智能
自然语言处理
今日arXiv最热NLP大模型论文:像人一样浏览网页执行任务,腾讯AI lab发布多模态端到端Agent
Agent的发展成为了
LLM
发展的一个热点。只需通过简单指令,Agent帮你完成从输入内容、浏览网页、选择事项、点击、返回等一系列需要执行多步,才能完成的与网页交互的复杂任务。
夕小瑶
·
2024-02-04 16:04
人工智能
自然语言处理
加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让语言模型服务飞速提升2-7倍
近年来,随着大型语言模型(
LLM
)的出现,在多样化的NLP任务上取得了令人瞩目的成果。
夕小瑶
·
2024-02-04 16:04
学习
人工智能
chatgpt
自然语言处理
Revisiting Zero-Shot Abstractive Summarization in the Era of Large Language Models
本文是
LLM
系列文章,针对《RevisitingZero-ShotAbstractiveSummarizationintheEraofLargeLanguageModelsfromthePerspectiveofPositionBias
UnknownBody
·
2024-02-04 16:16
LLM
语言模型
人工智能
自然语言处理
From
LLM
to Conversational Agent: A Memory Enhanced Architecture with Fine-Tuning of
LLM
本文是
LLM
系列文章,针对《FromLLMtoConversationalAgent:AMemoryEnhancedArchitecturewithFine从
LLM
到会话代理:一种对大型语言模型进行
微调
的内存增强体系结构摘要
UnknownBody
·
2024-02-04 16:16
LLM
人工智能
语言模型
ASTRAIOS: Parameter-Efficient Instruction Tuning Code Large Language Models
本文是
LLM
系列文章,针对《ASTRAIOS:Parameter-EfficientInstructionTuningCodeLargeLanguageModels》的翻译。
UnknownBody
·
2024-02-04 16:46
LLM
语言模型
人工智能
自然语言处理
Large Language Models on Graphs: A Comprehensive Survey
本文是
LLM
系列文章,针对《LargeLanguageModelsonGraphs:AComprehensiveSurvey》的翻译。
UnknownBody
·
2024-02-04 16:15
LLM
综述文章
语言模型
人工智能
自然语言处理
五五分的生活 <2021-01-06>
四点半到晚上十点半,长达六个小时,都在报复性的玩耍,看了一部韩剧,报复性消费,然后还
微调
了房间的布局。发现韩剧还真是无聊,编剧像是突然有一个很不错的想法,譬如今
一次只做一件事_becf
·
2024-02-04 15:46
洛谷p1466集合
longlong;constintM=1e4+9;lldp[M];intmain(){ios::sync_with_stdio(0),cin.tie(0),cout.tie(0);lln;cin>>n;
llm
qustflypiggy
·
2024-02-04 14:17
01背包
动态规划
背包问题
背包dp
ChatLaw:基于LLaMA
微调
的法律大模型
文章目录动机数据组成模型框架模型评估北大团队发布首个的中文法律大模型落地产品ChatLaw,为大众提供普惠法律服务。模型支持文件、语音输出,同时支持法律文书写作、法律建议、法律援助推荐。github地址:https://github.com/PKU-YuanGroup/ChatLawChatlaw官网(体验地址):https://www.chatlaw.cloud/论文地址:ChatLaw:Ope
dzysunshine
·
2024-02-04 11:37
llama
法律
人工智能
大模型
未来5年内,人工智能将彻底改变你的商业模式
然后,这些模型可以通过在特定任务上进行
微调
,以适应具体的应用需求。它们通常能够自动从输入数据中提取特征、学习语义关系,并生成具有逻辑和上下文连贯性的输出。
郭靖守襄阳【软芯民用】
·
2024-02-04 09:52
人工智能
人工智能
【文本到上下文 #10】探索地平线:GPT 和 NLP 中大型语言模型的未来
大型语言模型(
LLM
):揭示潜力和挑战。现实世界的NLP应用:这些
无水先生
·
2024-02-04 09:20
NLP高级和ChatGPT
人工智能
自然语言处理
gpt
语言模型
AIGC专题:2024年生成式人工智能预测报告(英文版)
(报告出品方:CBINSIGHTS)报告共计:112页我们没有足够的高质量数据来训练
LLM
研究人员估计,到2026年,我们将耗尽高质量的文本数据*来训练
LLM
--这一趋势可能会减缓人工智能的进步。
人工智能学派
·
2024-02-04 08:46
AIGC
人工智能
AI大模型专题:OWASP大语言模型应用程序十大风险V1.0
(报告出品方:OWASP)报告共计:14页LM01:2023_提示词注入描述:提示词注入包括绕过过滤器或者通过精心构造的提示词来操控大语言模型(
LLM
)使得该模型忽略先前的指令或者执行意外操作。
人工智能学派
·
2024-02-04 08:46
搜索引擎
技术动态 | 模块化(Modular)RAG 和 RAG Flow
此外,以检索
LLM
⾃身代替外部知识源的方法逐渐兴起。通过
开放知识图谱
·
2024-02-04 07:06
人工智能
LLM
(5) | Encoder 和 Decoder 架构
LLM
(5)|Encoder和Decoder架构文章目录
LLM
(5)|Encoder和Decoder架构0.目的1.概要2.encoder和decoder风格的transformer(Encoder-AndDecoder-StyleTransformers
baiyu33
·
2024-02-04 07:16
LLM
大语言模型
transformer
encoder
decoder
架构
模型
Prompt Tuning 和 Delta Tuning 针对预训练语言模型进行
微调
PromptTuning和DeltaTuning是两种针对预训练语言模型进行
微调
的方法,它们旨在提高
微调
的效率和减少所需的训练数据量。下面分别介绍这两种方法以及它们之间的区别。
人生万事须自为,跬步江山即寥廓。
·
2024-02-04 06:30
机器学习人工智能
人工智能
机器学习
深度学习
26条prompt规则应用于大模型
1、引入动机
llm
大模型在回答一些问题上表现出了惊人的能力,例如数学逻辑推理,代码生成,问题答复等。提词工程是和大预言模型交流的一门艺术。
frostjsy
·
2024-02-04 06:23
prompt
PCA等、Compression is Intelligence.
|神经元|神经网络_网易订阅(163.com)CompressionForAGI:压缩即智慧,
LLM
是最好的无损压缩器-知乎(zhihu.com)压缩即智慧-知乎(zhihu.com)
思考实践
·
2024-02-04 02:53
LLM
人工智能
LLM
大模型
LLM
模型是一种用于自然语言处理的语言模型,它是基于预训练的深度学习模型。
LLM
代表"LanguageLearningModel",它的目标是通过大规模的文本数据来学习语言的表示和语义理解。
程序小勇
·
2024-02-03 22:05
算法
python_ACM模式《剑指offer刷题》链表4
题目:面试tips:询问是否需要判断环,可
微调
下方代码。思路:思路一:判断环是否存在:设定一快一慢指针,均从头节点出发,快指针一次走两步,慢指针一次走一步。
cuier520
·
2024-02-03 21:30
剑指offer练习
链表
数据结构
LLM
大模型应用开发权威指南【2024】
在这篇文章中,我将介绍一种让开发人员熟悉
LLM
并针对
LLM
编写代码的方法。目的是让开发人员能够轻松地与
LLM
进行交互和编程。
新缸中之脑
·
2024-02-03 20:28
LLM
LLM
App SDK:LangChain vs. LlamaIndex
在WhyRAGisbig中,我表示支持检索增强生成(RAG)作为私有、离线、去中心化
LLM
应用程序的关键技术。当你建造一些东西供自己使用时,你就是在孤军奋战。
新缸中之脑
·
2024-02-03 20:28
人工智能
数据库
(2021|NIPS,VQ-VAE,精度瓶颈松弛,三明治层归一化,CapLoss)CogView:通过转换器掌握文本到图像的生成
MasteringText-to-ImageGenerationviaTransformers公众号:EDPJ(添加VX:CV_EDPJ或直接进Q交流群:922230617获取资料)目录0.摘要1.简介2.方法2.1理论2.2标记化2.3自回归Transformer2.4训练的稳定性3.
微调
EDPJ
·
2024-02-03 19:18
论文笔记
transformer
深度学习
人工智能
LLM
智能体开发指南
你输入一个任务描述,比如“给我做一个贪吃蛇游戏”,并使用
LLM
作为它的大脑和一些围绕它构建的工具,你就得到了自己的贪吃蛇游戏!看,连我也做了一个!
xiangzhihong8
·
2024-02-03 16:02
大数据与人工智能
人工智能
【模型
微调
】| 各类
微调
模型总结 P-Tuning,Prefix,P-tuning v2,LoRA
文章目录1
微调
背景1.1Fullfine-tuning全参数
微调
(FFT)1.2parameter-Efficient-fine-tuning部分参数
微调
(PEFT)2提示词调整训练法2.1P-Tuning2.2Prefix2.3P-Tuningv23
Qodicat
·
2024-02-03 15:02
计算机视觉CV
人工智能
深度学习
机器学习
大模型LORA
微调
总结
大模型LORA
微调
总结大模型
微调
总结模型加载使用deepspeed不使用deepspeed使用lora加载分词器数据加载构建source和target构建input_ids和labels标签补齐构建训练器
江小皮不皮
·
2024-02-03 15:48
深度学习
人工智能
LoRA
大模型
微调
internlm7B
PEFT
微调
方式总结
PEFT
微调
方式总结PEFT
微调
方式总结PEFT介绍安装peft支持的
微调
方法和任务SEQ_CLSSEQ_2_SEQ_LMCAUSAL_LMTOKEN_CLS模型加载
微调
加载PROMPT_TUNING简介源码
江小皮不皮
·
2024-02-03 15:48
人工智能
大模型
深度学习
peft
lora
p-tuning
stable diffusion
微调
总结
stablediffusion
微调
总结stablediffusion模型类别:SDSD2SDXLSDXLLCM(潜在一致性模型)SDXLDistilledSDXLTurbo安装accelerate通过pip
江小皮不皮
·
2024-02-03 14:46
stable
diffusion
人工智能
计算机视觉
lora
dreambooth
文生图
大规模语言模型
LLM
介绍
大规模语言模型
LLM
大规模语言模型向量数据库和数据库向量支持。
LLM
基础设施:编程语言Python,Java,C++,js,新秀语言Mojo。Mojo这个语言是具有python和C++,各取所长。
java牛虻
·
2024-02-03 13:04
语言模型
人工智能
自然语言处理
为什么现在的
LLM
都是Decoder only的架构
结论:
LLM
之所以主要都用Decoder-only架构,除了训练效率和工程实现上的优势外,在理论上是因为Encoder的双向注意力会存在低秩问题,这可能会削弱模型表达能力,就生成任务而言,引入双向注意力并无实质好处
u013250861
·
2024-02-03 12:55
LLM
人工智能
深度学习
LLM
都是Decoder only的架构原因解读
最近知乎上有这个问题:为什么现在的
LLM
都是Decoderonly的架构?
u013250861
·
2024-02-03 12:55
LLM
架构
为什么现在的
LLM
都是decoder-only架构?
写作动机关注这个问题呢,主要是源于这篇论文HarnessingthePowerofLLMsinPractice:ASurveyonChatGPTandBeyond对我的启发,这篇文章也许你没有听说过,但我想下面这个
LLM
zhangbihan999
·
2024-02-03 12:53
人工智能
语言模型
架构
自然语言处理
面试
浙大等团队提出全新「自我对比」策略,有效提高大模型的反思效果
大型语言模型(
LLM
)的自我反思能力受到了广泛关注。例如Reflexion,Self-Refine等prompt策略让
LLM
基于自我评估或外部的反馈来改善
LLM
的输出质量。
PaperWeekly
·
2024-02-03 09:44
人工智能
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他