E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
指令集微调
RAG基础功能优化、以及RAG架构优化
文本嵌入模型:基于新语料
微调
嵌入模型、动态表征。提示工程优化:优化模板增加提示词约束、提示词改
lichunericli
·
2024-01-16 20:57
RAG
人工智能
语言模型
element ui 滚动条样式修改
取决于是垂直滚动条还是水平滚动条)::-webkit-scrollbar-track滚动条的轨道(里面装有Thumb)::-webkit-scrollbar-button滚动条的轨道的两端按钮,允许通过点击
微调
小方块的位置
炉火纯青-旺
·
2024-01-16 15:49
ui
javascript
前端
第三章 程序的机器级表示
编译器基于编程语言的规则、目标机器的
指令集
和操作系统遵循的惯例,经过一系列的阶段生成机器代码。
S-J_Guo
·
2024-01-16 15:33
深入理解计算机系统
操作系统
自然语言处理实战项目25-T5模型和BERT模型的应用场景以及对比研究、问题解答
T5具有很强的任务适应性,可以通过
微调
来完成多种不同的NLP任务。而BER
微学AI
·
2024-01-16 14:40
自然语言处理实战
自然语言处理
bert
人工智能
迈向高效LLM
微调
:低秩适应(LoRA)技术的原理与实践
为什么需要
微调
?预训练的大型语言模型通常被视为基础模型,原因很充分:它们在各种任务上表现良好,我们可以将它们作为基础来对特定任务进行
微调
。
wwlsm_zql
·
2024-01-16 14:31
人工智能
深度学习
机器学习
三天吃透JVM面试八股文
由一套字节码
指令集
、一组寄存器、一个栈、一个垃圾回收堆和一个存储方法域等组成。
xiaoyuziliao
·
2024-01-16 11:19
jvm
面试
职场和发展
【AIGC】AnimateDiff:无需定制化
微调
的动画化个性化的文生图模型
AnimateDiff就可以插入到个性化的文生图模型中,与Civitai和Huggingface的文生图模型兼容,也可以与自己
微调
的大模型兼容。
资料加载中
·
2024-01-16 11:40
深度学习
pytorch
AIGC
AnimateDiff
【AIGC】DreamBooth:
微调
文本到图像扩散模型用于主题驱动的生成
前言DreamBooth可以让我们使用一个很小的数据集
微调
文生图模型,然后基于文本提示词为我们训练的的主体替换不同的场景。
资料加载中
·
2024-01-16 11:40
pytorch
深度学习
AIGC
DreamBooth
QT 小组件 列表框以及
微调
框
.cpp文件#include"widget.h"#include"ui_widget.h"Widget::Widget(QWidget*parent):QWidget(parent),ui(newUi::Widget){ui->setupUi(this);QListWidgetItem*pPhone=newQListWidgetItem;pPhone->setText("西瓜");pPhone->
good Luck_
·
2024-01-16 10:49
qt
命令模式
开发语言
32位系统和64位系统的区别
第二,运算速度不同64位CPU的
指令集
可以运行64位数据指令,比32位CPU提高了一倍(需要64位软件支持)。
7ad83682a1f9
·
2024-01-16 09:11
#RAG##AIGC#检索增强生成 (RAG) 基本介绍和入门实操示例
本文包括RAG基本介绍和入门实操示例RAG基本介绍通用语言模型可以进行
微调
以实现一些常见任务,例如情感分析和命名实体识别。这些任务通常不需要额外的背景知识。
向日葵花籽儿
·
2024-01-16 09:28
AIGC
人工智能
jupyter
RAG
AIGC
LLM之幻觉(二):大语言模型LLM幻觉缓减技术综述
梯度方法是指对基本LLM进行
微调
;而非梯度方法主要是在推理时使用Prompt工程技术。
wshzd
·
2024-01-16 09:21
笔记
ChatGPT
幻觉
语言模型
人工智能
深度学习
XTuner
微调
课程学习
大语言模型于海量的文本内容上,以无监督和半监督的方式进行训练的模型
微调
的目的:使其在具体的使用场景或领域中输出更好的回答增量预训练——给模型喂新的领域知识;指令跟随或指令
微调
——基于海量的预训练数据训练出来的模型通常叫做
HsienWei-Chin
·
2024-01-16 07:19
学习
人工智能
机器学习
2022-11-13【日精进第 56天】
姓名:李庆单位:郑州鹿野苑餐饮管理有限公司(朵家甜品厨房)每日定课(根据实际情况,每十天
微调
一次):1,晨跑:5:20前,18分钟内跑完3公里;【完成】2,读书笔记:阅读30min+,笔记200字以上;
李庆是个做蛋糕的
·
2024-01-16 05:45
【计算机组成与体系结构Ⅱ】MIPS指令系统(实验)
二:实验要求采用
指令集
和流水线操作级模拟器MIPSsim作为实验平台。三:实验步骤阅读MIPSsim模拟器的使用方法,了解MIPSsim的指令系统和汇编语言。
MorleyOlsen
·
2024-01-16 04:23
计算机组成与体系结构
体系结构
MIPS
提示词prompt、RAG、Agent框架、
微调
Fine-tuning在实际应用中的落地选择
提示词的本质相当于text的填充,提示词的knowhow能力会扩展到RAG,提示词的指令遵循能力会扩展到FT
微调
。
lichunericli
·
2024-01-16 04:46
LLM
人工智能
语言模型
prompt
AnyDoor任意门:零样本物体级图像定制化
文章目录一、AnyDoor简介二、AnyDoor方法(一)ID特征提取(二)细节特征提取(三)特征注入(四)视频、图像动态采样一、AnyDoor简介“任意门”算法:可以将任意目标传送到指定场景的指定位置,无需
微调
丁希希哇
·
2024-01-16 04:15
AIGC阅读学习
计算机视觉
深度学习
人工智能
AIGC
谈谈CPU,MCU,SOC的区别和用途
CPU包含运算单元、控制单元和缓存,通过时钟信号按照
指令集
执行各种操作。CPU是计算机的核心组件,掌握着整
石头嵌入式
·
2024-01-16 02:12
单片机
嵌入式硬件
Fine-tuning:个性化AI的妙术
一、什么是大模型ChatGPT大模型今年可谓是大火,在正式介绍大模型
微调
技术之前,为了方便大家理解,我们先对大模型做一个直观的抽象。
千与编程
·
2024-01-16 02:07
ChatGPT全解与实战手册
人工智能
大模型训练营Day3 基于 InternLM 和 LangChain 搭建你的知识库
大模型的开发范式呢,主要有以下两种模式:建立知识库和
微调
,知识库是传统AI专家系统中就有的概念;
微调
呢是冻结
AIzealot无
·
2024-01-16 02:32
跟着无神学机器学习
langchain
AIGC
prompt
AI编程
embedding
Llama2部署、
微调
、集成Langchain过程记录
目录一、模型部署1.环境配置2.pip和conda源3.下载模型到本地4.下载并部署gradio5.使用gradio运行模型6.textgenerationwebui二、模型
微调
1.下载和预处理
微调
训练数据
GOozii1
·
2024-01-16 00:54
langchain
高级检索增强生成技术(RAG)全面指南:原理、分块、编码、索引、
微调
、Agent、展望
ChatGPT、Midjourney等生成式人工智能(GenAI)在文本生成、文本到图像生成等任务中表现出令人印象深刻的性能。然而,生成模型也不能避免其固有的局限性,包括产生幻觉的倾向,在数学能力弱,而且缺乏可解释性。因此,提高他们能力的一个可行办法是让他们能够与外部世界互动,以不同的形式和方式获取知识,从而提高所生成内容的事实性和合理性。检索增强生成(Retrieval-AugmentedGen
lichunericli
·
2024-01-15 21:52
LLM
人工智能
语言模型
微调
您的Embedding模型以最大限度地提高RAG管道中的相关性检索
betterprogramming.pub/fine-tuning-your-embedding-model-to-maximize-relevance-retrieval-in-rag-pipeline-2ea3fa231149
微调
您的
lichunericli
·
2024-01-15 21:51
LLM
人工智能
语言模型
embedding
作业(3)——
微调
基础作业:构建数据集,使用XTuner
微调
InternLM-Chat-7B模型,让模型学习到它是你的智能小助手。效果图,
微调
前与
微调
后:XTuner——一个大语言模型
微调
工具箱。
亲爱的阿基米德^
·
2024-01-15 21:13
笔记
大模型听课笔记——书生·浦语(1)
全链条开源开放体系全链条开源开放体系|数据全链条开源开放体系|预训练全链条开源开放体系|
微调
极致的显存优化:消费级显卡(8GB)玩转
微调
全链条开源开放体系|部署针对上述问题书生·浦语提出了LMdeploy
亲爱的阿基米德^
·
2024-01-15 21:42
笔记
大模型听课笔记——书生·浦语(3)
浦语(3)基于InternLM和LangChain搭建你的知识库LLM具有许多有点,但同样也有着局限性:知识时效性受限专业能力有限定制化成本高1针对上述问题,现在常用的大语言模型范式(检索增强生成VS
微调
亲爱的阿基米德^
·
2024-01-15 21:42
笔记
大模型听课笔记——书生·浦语(4)
大模型听课笔记——书生·浦语(4)本节课的内容:单卡
微调
大语言模型是在海量文本上以无监督或半监督的方式进行训练的,这些海量的文本赋予了大模型各方面的知识,但是当我们专注于某个领域,实际应用于某个领域或应用时
亲爱的阿基米德^
·
2024-01-15 21:11
笔记
沁恒CH32V103 边玩边学1-开发环境与GPIO项目
它基于RISC-V架构,来看看GPT给出的介绍:RISC-V是一种开源的
指令集
架构(ISA),与x86和ARM相似。
Zhillery
·
2024-01-15 16:37
#
STM32
单片机
stm32
c语言
嵌入式硬件
【LLMs 入门实战】基于 PEFT 在私有数据集上高效
微调
ChatGLM2-6B
原文链接【LLMs入门实战】基于PEFT在私有数据集上高效
微调
ChatGLM2-6B-知乎本次
微调
是基于github的hiyouga/ChatGLM-Efficient-Tuning项目进行
微调
的。
baidu_huihui
·
2024-01-15 15:09
LLMs
ChatGLM
prompt
大模型入门(四)—— 基于peft
微调
LLaMa模型
www.cnblogs.com/jiangxinyang/p/17330352.htmlllama-7b模型大小大约27G,本文在单张/两张16GV100上基于huggingface的peft库实现了llama-7b的
微调
baidu_huihui
·
2024-01-15 15:09
llama
huggingface
peft
微调
0基础快速上手---大语言模型
微调
(web端)
0基础快速上手大语言模型
微调
—基于“第2届·百度搜索创新大赛——搜索答案组织”
微调
结果分析文章目录0基础快速上手大语言模型
微调
---基于“第2届·百度搜索创新大赛——搜索答案组织”
微调
结果分析
微调
实战经历开始
微调
八荒、
·
2024-01-15 15:55
语言模型
人工智能
paddle
nlp
python
自然语言处理
前端
0基础快速上手---大语言模型
微调
(shell版)
0基础快速上手大语言模型
微调
—基于“第2届·百度搜索创新大赛——搜索答案组织”
微调
结果分析文章目录0基础快速上手大语言模型
微调
---基于“第2届·百度搜索创新大赛——搜索答案组织”
微调
结果分析
微调
实战经历
八荒、
·
2024-01-15 15:25
语言模型
人工智能
自然语言处理
paddlepaddle
机器学习
深度学习
python
扩散模型
微调
方法/文献综述
个人主页:https://zhangxiaoshu.blog.csdn.net欢迎大家:关注+点赞+评论+收藏⭐️,如有错误敬请指正!未来很长,值得我们全力奔赴更美好的生活!前言近年来,扩散模型近年来取得了迅速的发展。扩散模型被广泛应用于文本到图像生成、文本到视频生成、点云完成和生成等各种生成式任务上。然而,从头训练一个扩散模型往往涉及巨大的计算成本和时间投入,限制了其在实际应用中的广泛使用。为了
张小殊.
·
2024-01-15 13:32
#
扩散模型
人工智能
计算机视觉
扩散模型
Fine-Tuning
Diffusion
Model
大模型微调
AIGC
2018-11-12
女人在消费面前都是冲动的,而我们做美容行业的观念都很超前,都不需要别人引导观念,自己消费,昨天把脸给
微调
了,等刷完卡,去敷麻膏的时候,就开始各种害怕疼,结果还没有进手术室就出了一身汗,还有点发晕,护士给我擦脸我都觉得好疼好疼呀
清若晨曦一束光
·
2024-01-15 13:40
ChatGPT成立一周年:开源大语言模型正在迎头赶上吗?
通过使用监督
微调
和
AI生成未来
·
2024-01-15 13:43
AIGC
chatgpt
语言模型
人工智能
AIGC
LLM商业落地中的注意事项、关于高级提示词prompt的思考
LLM商业落地中的注意事项
微调
是创造性工作,需要不断调试,在原有的参数的基础上,不动原有模型的权重参数,然后再增加个低阶矩阵,不停的训练这个低阶矩阵,这种方式训练出来的
微调
具备一定的不确定性。
lichunericli
·
2024-01-15 13:35
LLM
人工智能
语言模型
prompt
千亿参数大模型再突破,数据质量为何是关键?
目前看,在“预训练+
微调
”成为大模型发展新范式的趋势下,数据层面的创新正变得愈发关键。事实上,OpenAICEOSamAltma
大数据在线
·
2024-01-15 12:59
AI
人工智能
大模型
源2.0
大语言模型
源2.0大模型
从CISC到RISC-V:揭开
指令集
的面纱
实际上,这一切都归功于一种名为“
指令集
”的神秘语言。今天,我们就一起揭开这种神秘语言的面纱,感受一下它的魅力所在。
指令集
是计算机硬件和软件之间交互的桥梁,它定义了计算机硬件可以执行的操作,比如各种逻辑
萤火架构
·
2024-01-15 09:37
计算机基础
CISC
risc-v
RISC
指令集
龙芯
ChatGPT提示词工程进阶
两种大型语言模型基础大模型(BaseLLM)基于训练数据预测下文指令调优大模型(InstructionTunedLLM)尝试听从指令基于基础大模型,进一步使用指令内容输入+遵循指令内容输出来训练和
微调
模型
lichunericli
·
2024-01-15 09:11
ChatGPT
人工智能
chatgpt
prompt
AI模型理解误区:
微调
垂直行业-VS-企业专属知识库或AI助理
概述企业定制私有化大模型的区别,分为训练大模型和调用大模型两种方向,以及企业自己的智能客服的实现方法。-企业定制的私有化大模型与一般的大模型不同,需要高成本训练。-企业可以选择调用已经训练好的大模型来应用。-企业可以使用向量化数据化的方式建立自己的智能客服,使用本地知识库进行前后语义扩充。企业中优化提示词的场景,并介绍了使用开源框架LangChain来定制化优化提词工程的方法,以及如何利用大模型和
lichunericli
·
2024-01-15 08:56
LLM
人工智能
语言模型
langchain
微调
深度学习模型:初级指南
引言在深度学习领域,
微调
(Fine-tuning)是一种常见的实践,旨在优化预训练模型以适应特定任务或数据集。这对于那些希望利用已有模型来解决类似问题的初学者而言,是一个非常有用的技巧。
CCSBRIDGE
·
2024-01-15 08:51
深度学习
人工智能
书生·浦语大模型实战营作业(四)
基础作业:构建数据集,使用XTuner
微调
InternLM-Chat-7B模型,让模型学习到它是你的智能小助手,效果如下图所示,本作业训练出来的模型的输出需要将不要葱姜蒜大佬替换成自己名字或昵称!
三省斋主
·
2024-01-15 07:16
笔记
书生·浦语大模型实战营笔记(三)
RAG:检索增强生成外挂知识库,对用户的问题首先从知识库中找到相关回答,再把问题和回答交给大模型,可以提高知识储备特点:可实时更新,新知识只要放到知识库中即可,较简单Finetune:
微调
对于新的数据集
三省斋主
·
2024-01-15 07:45
笔记
书生·浦语大模型实战营笔记(四)
Finetune模型
微调
直接使用现成的大语言模型,在某些场景下效果不好,需要根据具体场景进行
微调
增量预训练:投喂垂类领域知识陈述形式,无问答,即只有assistant指令跟随:system-user-assistantXTunerXTuner
三省斋主
·
2024-01-15 07:09
笔记
由班级调整所思……
则开启了等待电话、关注群模式……这两天群里关注最多的话题,除了孩子们离开后的衣食住行之外,更多的话题则是孩子们的文理分班{高一},班级
微调
整{高二},关乎到自家孩子的切身利益,家长们关怀备至,在群里的讨论异常热烈
亦梦亦真
·
2024-01-15 06:07
高级检索增强生成技术(RAG)全面指南:原理、分块、编码、索引、
微调
、Agent、展望...
来自:旺知识ChatGPT、Midjourney等生成式人工智能(GenAI)在文本生成、文本到图像生成等任务中表现出令人印象深刻的性能。然而,生成模型也不能避免其固有的局限性,包括产生幻觉的倾向,在数学能力弱,而且缺乏可解释性。因此,提高他们能力的一个可行办法是让他们能够与外部世界互动,以不同的形式和方式获取知识,从而提高所生成内容的事实性和合理性。检索增强生成(Retrieval-Augmen
zenRRan
·
2024-01-15 05:28
大模型实战营Day4 XTuner 大模型单卡低成本
微调
实战 作业
按照文档操作:单卡跑完训练:按照要求更改
微调
的数据:完成
微调
数据的脚本生成:修改配置文件:替换好文件后启动:启动后终端如图:用于
微调
的一些数据显示:训练时间,loss:可见模型是经过
微调
数据反复纠正,慢慢被引导向
微调
设计者所想的方向
AIzealot无
·
2024-01-15 04:51
深度学习
人工智能
AIGC
prompt
大模型实战营Day4 XTuner 大模型单卡低成本
微调
实战
本次课程内容主要有:我将在此整理前三节的内容,第四节放在作业章节进行讲解:同第三节的建立数据库中所提及到的,如果通用大模型在专用领域表现能力不强,如何改进——建立知识库或者
微调
,本节课进行的则是
微调
。
AIzealot无
·
2024-01-15 04:21
程序猿的基本素养
AIGC
人工智能
语言模型
【笔记】书生·浦语大模型实战营——第四课(XTuner 大模型单卡低成本
微调
实战)
【参考:tutorial/xtuner/README.mdatmain·InternLM/tutorial】【参考:(4)XTuner大模型单卡低成本
微调
实战_哔哩哔哩_bilibili-【OpenMMLab
myaijarvis
·
2024-01-15 03:07
笔记
NLP论文阅读记录 - | 使用 BRIO 训练范式进行抽象文本摘要
文章目录前言0、论文摘要一、Introduction二.相关工作三.本文方法四实验效果4.1数据集4.2对比模型4.3实施细节4.4评估指标4.5实验结果标准抽象模型
微调
抽象模型
微调
抽象模型和BRIO
微调
抽象模型和
yuyuyu_xxx
·
2024-01-15 02:26
NLP
自然语言处理
论文阅读
人工智能
上一页
11
12
13
14
15
16
17
18
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他