E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
自编码器微调
指责耗费不起,愿友谊理解万岁
哈哈哈,不过也是属于乐天派的,稍
微调
整了下心情,打电话给自己初中三年,高中三年的老同学,或者可以说是迄今为止还在联系的同学之一吧
户外旅行人渊龙博峰
·
2023-12-19 10:01
MetaGPT:使GPT扮演产品经理、架构师、项目经理、工程师,解决复杂项目问题
github.com/geekan/MetaGPT-中文介绍:https://github.com/geekan/MetaGPT/blob/main/README_CN.md-我们的最终目标是让GPT能够训练、
微调
alexapollo
·
2023-12-19 10:17
python
github
算法
人工智能
C# 正则表达式参考工具类
下面内容是网上找的一篇写的比较全面的案例,可以用来做练习和参考,原文有点小错误,稍
微调
整了一下。代码实现usingSystem.Text;usingS
rjcql
·
2023-12-19 09:13
C#
正则表达式
夏天【阅读+日记打卡200天】131/200
只要稍
微调
整一下与孩子的相处方式,就可以提高他们的专注力和脑力,其也会逐渐地发挥出惊人的潜能。
夏天天的天
·
2023-12-19 08:10
LongLoRA 介绍
本文将介绍一篇关于使用局部注意力来
微调
长上下文LLM的文章。文章的要点如下:提出了一种新的局部注意力机制,称为ShiftShortAttention,它可以有效地减少LLM处理长上下文所需的计算量。
步子哥
·
2023-12-19 02:27
人工智能
神经网络
深度学习
Python机器学习19——常用六种机器学习的异常值监测方法(孤立森林,数据支持描述,
自编码器
,高斯混合,DBSCAN,LOF)
案例背景异常值监测是机器学习的一个重要领域,博主以前做预测多,异常值监测涉及得少,但之后的工作可能需要做异常值方面的工作,所以大致总结了一下常用的机器学习来做异常值监测的方法以及代码。标题的这些机器学习方法基本都可以调包,使用sklearn库实现。不需要装很多包。(那些传统统计学的方法就不多介绍了,什么三西格玛(方差)准则,t检验,95%分位点啥的,那太简单了,本文主要介绍机器学习的方法。)方法思
阡之尘埃
·
2023-12-18 23:01
实用的Python机器学习
python
机器学习
数据分析
pandas
异常值监测
开源 LLM
微调
训练指南:如何打造属于自己的 LLM 模型
一、介绍今天我们来聊一聊关于LLM的
微调
训练,LLM应该算是目前当之无愧的最有影响力的AI技术。尽管它只是一个语言模型,但它具备理解和生成人类语言的能力,非常厉害!
机器学习社区
·
2023-12-18 10:25
大模型
自然语言
语言模型
人工智能
自然语言处理
AIGC
多模态大模型
变分
自编码器
(VAE)初识
目录AE回顾VAEVAE简述VAE中的DecoderVAE的目标函数VAE中的EncoderVAE的架构参数重整化VAE的损失函数CVAE测试代码:参考博客AE回顾Auto-Encoder,称
自编码器
,
碧蓝的天空丶
·
2023-12-18 08:38
人工智能
深度学习
AIGC
大模型——LLAMA模型
论文导读ChatGPT具有指令遵循能力和泛化性,论文对ChatGPT背后的指令
微调
和RLHF技术进行详细描述。
crush.,
·
2023-12-18 03:36
llama
人工智能
chatgpt
QLoRA论文概述
QLORA:EfficientFinetuningofQuantizedLLMsQLoRA论文概述前言(省流版本)摘要论文十问实验实验1数据集和模型实验结论实验2数据集和模型实验结论局限性模型尺度数据集其他
微调
方法
江小皮不皮
·
2023-12-18 03:06
人工智能
LoRA
QLora
大模型
微调
深度学习
Llama 架构分析
Llama架构分析分词网络主干DecoderLayerAttentionMLP下游任务因果推理文本分类Llama架构分析前言Meta开发并公开发布了Llama系列大型语言模型(LLM),这是一组经过预训练和
微调
的生成文本模型
江小皮不皮
·
2023-12-18 03:35
llama
人工智能
大模型
mlp
attention
分词器
NExT-GPT: Any-to-Any Multimodal LLM 阅读学习
提出新的模态切换指令
微调
(MosIT)方法与高质量数据集,赋予NExT-GPT复杂的跨模态理解与生成能力。
south020
·
2023-12-18 03:36
gpt
学习
百度
OpenAI开源超级对齐方法:用GPT-2,监督、
微调
GPT-4
12月15日,OpenAI在官网公布了最新研究论文和开源项目——如何用小模型监督大模型,实现更好的新型对齐方法。目前,大模型的主流对齐方法是RLHF(人类反馈强化学习)。但随着大模型朝着多模态、AGI发展,神经元变得庞大、复杂且难控制,RLHF便有点力不从心。做个不太恰当的比喻,就像是工厂的保安一样:一个20人的小工厂,3个保安就能应付;如果发展到5000人的大工厂呢?仅靠人工就不太行,需要摄像头
richerg85
·
2023-12-18 02:33
gpt
chatgpt
openai
aigc
人工智能
第二单元 测试计划
只要第一项和最后一项的位置是固定的,其他都可以
微调
位置2.2.1封面和测试目的封面:测试计划,编写人,编写时间等,可以表格,也可以文字描述目录:自动生成2.2.1.1测试目的编写结构1.目的的总体概
Coisini_1209
·
2023-12-18 01:26
Stable Diffusion
微调
及推理优化实践指南
然而对于大部分人来说,训练扩散模型的门槛太高,对StableDiffusion进行全量
微调
也很难入手。
机器学习社区
·
2023-12-18 00:57
自然语言
大模型
stable
diffusion
人工智能
chatgpt
LLM
多模态
文生图
实时指令唤醒
同时还支持指令
微调
、提高指令的准确率。
夜雨飘零1
·
2023-12-17 20:54
语音
Pytorch
人工智能
FunASR
Pytorch
语音识别
语音唤醒
Stable Video Diffusion: Scaling Latent Video Diffusion Models to Large Datasets
Stablevideodiffusion:将潜在视频扩散模型扩展到大型数据集可以做到:文本-视频的生成、(文本-)图像-视频的生成、通过图像-视频
微调
进行多视图合成摘要我们提出了Stablevideodiffusion
小闫奋斗史
·
2023-12-17 14:26
人工智能
图片风控NSFW(not suit for work)-2 基于tf2模型
微调
直接使用yahoo开源的模型open_nsfw,不能满足业务需求,需要对模型进行重新训练。本篇主要是对模型进行训练.(在上篇博客已经讲述了怎么将原始模型转换为tensorflow2模型)思路1将开源雅虎nsfw模型转换为tensorflow2,见tensorflow2模型重构2准备训练样本,正负样本(比例4:1~1:4之间)3数据增强4模型训练5模型保存6模型部署(java部署)1数据准备训练数据
晚点吧
·
2023-12-17 08:06
tensorflow2
图片风控
nsfw
restNet50
预训练模型微调
使用Pytorch从零开始构建LoRA
LoRA是Low-RankAdaptation或Low-RankAdapters的缩写,它提供了一种高效且轻量级的方法来
微调
预先存在的语言模型。
Garry1248
·
2023-12-17 07:47
pytorch
人工智能
python
AIGC
深度学习
机器学习
大数据 | Hadoop、Hive、Spark的关系
服务器可以插6块硬盘,每块硬盘4T,共24T原始容量,再加上一些数据包的可用冗余,再加上一些格式化的损失,保守估计一台服务器至少可以有10T以上的可用容量,再加上128G内存和两颗CPU,装入DBMS,稍
微调
优
xyzhang2018
·
2023-12-17 06:58
数据库
hadoop
大数据
spark
Pytorch:模型的保存加载、模型
微调
、GPU的使用
目录一、模型的保存与加载1.1序列化与反序列化(1)torch.save(2)torch.load1.2保存加载模型基本用法1.2.1保存模型1.2.2加载模型1.3模型的断点续训练二、模型
微调
2.1TransferLearning
碧蓝的天空丶
·
2023-12-17 06:23
笔记
pytorch
人工智能
python
红外接收二极管制作遥控检测电路
Rp可用WH7型
微调
电阻器,其余电阻均用RTX-1/8W型碳膜电阻器。C1、C2可采用CD11-25V型电解电容器,C3要用CBB
梓德原
·
2023-12-17 06:11
科普
物联网
单片机
嵌入式硬件
51单片机
【电路笔记】-电容器的种类
1、概述可用电容器的类型范围从用于振荡器或无线电电路的非常小的精密
微调
电容器,到用于高压功率校正和平滑电路的大功率金属罐型电容器。不同类型电容器之间的比较通常是根据极板之间使用的电介质进行的。
视觉&物联智能
·
2023-12-17 06:07
嵌入式硬件基础
笔记
嵌入式硬件
物联网
电容
电路
电子工程
电路原理
AI视频-stable-video-diffusio介绍
该模型通过在SVDImage-to-Video[14帧]的基础上进行
微调
而来,可以生成576x1024分辨率、25帧长度的视频。它使用了行业标准的f8解码器来实现视频的时间一致性。
Dlimeng
·
2023-12-17 05:47
gpt
人工智能
AIGC
gpt
stable-diffusio
ai视频
小狐狸GPT付费2.4.9弹窗版学习源码介绍
该源码集成了多个先进的自然语言处理技术,包括预训练、
微调
、对话生成等,可以应用于多个领域,如机器翻译、文本生成、问答系统等。
骆驼&沙漠
·
2023-12-17 05:53
gpt
学习
运维
2018年度十大网络用语出炉
“2018年十大网络用语”是基于国家语言资源监测语料库(网络媒体部分),采用“以智能信息处理技术为主,以人工后期
微调
为辅”的方式提取获得的。
江湖人称王大大
·
2023-12-17 04:19
曾经的抑郁
我自认为是一个比较乐观的人,或者说会自己开解自己的人,哪怕受些委屈,稍
微调
整下也就过得去了。最终的结果是,那段时间,我确实没有患上产后抑郁症,但却有过一些抑郁情绪。
千允
·
2023-12-17 02:09
大模型
微调
技巧:在 Embeeding 上加入噪音提高指令
微调
效果
大家好,在去年分享过一篇ACL2022的文章,通过
微调
前给预训练模型参数增加噪音提高预训练语言模型在下游任务的效果方法。
深度学习算法与自然语言处理
·
2023-12-17 02:04
大模型
大模型实战
NLP与大模型
自然语言处理
语言模型
大模型
模型微调
ChatGPT原理学习
区别:BERT:完形填空:中间扣空了预测;GPT:预测未来GPT1:先要有个预训练模型,然后基于具体的应用做fine-tune(下游任务做
微调
),才能用GPT2不搞fine-tune了,直接搞个大模型,
stevewongbuaa
·
2023-12-16 18:59
chatgpt
学习
人工智能
Chatglm2-6b-lora&ptuning
微调
实践2
Chatglm2-6B-lora&ptuning
微调
实践21.参考教程2.实践环境3.
微调
实战3.1环境安装3.2单gpu
微调
3.2.1lora
微调
**注意事项**1.lora
微调
代码2.lora
微调
代码所在位置
fengxiaoyangfeng
·
2023-12-16 16:33
chatglm2-6b
大模型实践
大模型微调
自然语言处理
chatgpt
nlp
【动手学深度学习】(十四)数据增广+
微调
文章目录一、数据增强1.理论知识2.代码二、
微调
1.理论知识一、数据增强1.理论知识增加一个已有数据集,使得有更多的多样性在语言里面加入各种不同的背景噪音改变图片的颜色和形状使用增强数据训练翻转左右翻转上下翻转不总是可行切割从图片中切割一块
释怀°Believe
·
2023-12-16 14:49
#
动手学深度学习
深度学习
人工智能
生成式模型对比:扩散模型、GAN 与 VAE
在本文中,我们的目标是提供深度生成式模型的全面比较,包括扩散模型、生成对抗网络(GAN)和变分
自编码器
(VAE)。我将回顾它们的基本原则、优点和缺点。目标是清楚地了解这些模型之间的差异和相似
Garry1248
·
2023-12-16 14:39
生成对抗网络
人工智能
神经网络
pytorch
AIGC
机器学习
深度学习
最强开源大模型?Llama 2论文解读
标题简介模型预训练预训练设置硬件资源与碳排放模型评估模型
微调
有监督
微调
基于人工反馈的强化学习(RLHF)人类偏好数据的收集奖励模型迭代
微调
过程多轮对话控制RLHF结果模型回答的安全性 一直以来,Llama
长白山下大绵羊
·
2023-12-16 13:52
人工智障
llama
深度学习
语言模型
算法
挑战自我
轮到我上台了,我稍作苁蓉地走上台,稍
微调
试了话筒,面向全体评委和老师,感觉自己目之所及,一
河北张海霞
·
2023-12-16 11:51
通义千问 Qwen-72B-Chat在PAI-DSW的
微调
推理实践
01引言通义千问-72B(Qwen-72B)是阿里云研发的通义千问大模型系列的720亿参数规模模型。Qwen-72B的预训练数据类型多样、覆盖广泛,包括大量网络文本、专业书籍、代码等。Qwen-72B-Chat是在Qwen-72B的基础上,使用对齐机制打造的基于大语言模型的AI助手。阿里云人工智能平台PAI是面向开发者和企业的机器学习/深度学习平台,提供包含数据标注、模型构建、模型训练、模型部署、
Python算法实战
·
2023-12-16 11:04
大模型
大模型理论与实战
深度学习
大模型
语言模型
pytorch
LLM
通用大模型训练过程必须经历的四个阶段!
从该图可知大模型训练主要有4步:Pretraining—预训练阶段SupervisedFinetuning(SFT)—监督
微调
,也叫指令
微调
阶段RewardModeling—奖励模型训练阶段ReinforcementLearning
Python算法实战
·
2023-12-16 11:03
大模型理论与实战
大模型
人工智能
大数据
chatgpt
大模型
langchain
ControlNet Adding Conditional Control to Text-to-Image Diffusion Models
它拷贝SD部分原权重作为一个新的分支进行
微调
训练,同时维持SD原权重分支不变,并在开始训练使用零卷积将二者相连。从而能利用已经
Adenialzz
·
2023-12-16 08:36
深度学习
神经网络
stable
diffusion
【期末复习向】长江后浪推前浪之ChatGPT概述
当时很多的特定领域的NLP任务(如情感分类,信息抽取,问答等)都是采用bert加上领域数据
微调
解决。
诺坎普的风间
·
2023-12-16 07:21
chatgpt
人工智能
深度学习
大模型
预训练语言模型
GPT系列
关于chatgpt一点肤浅认识
它是计算机更好地理解单词1、预训练–就是先训练一个模型,用于以后特定任务的
微调
,比如将BERT这个模型用于特定的NLP任务,比如情感分析2、one-hot:用只有一个元素是1,其他是0的向量表示物体。
The Straggling Crow
·
2023-12-16 07:18
人工智能
chatgpt
12:Repurposing Diffusion-Based Image Generators for Monocular Depth Estimation
简介官网单目深度估计的扩散模型和相关的
微调
协议。核心原理是利用现代生成图像模型中存储的丰富视觉知识。模型源自于稳定扩散和
微调
合成数据,可以零样本转移到未见过的数据集,提供最先进的单目深度估计结果。
C--G
·
2023-12-16 07:28
#
扩散模型
python
lora
微调
importosos.environ["CUDA_VISIBLE_DEVICES"]="0"importtorchimporttorch.nnasnnimportbitsandbytesasbnbimporttransformersfromtransformersimportAutoTokenizer,AutoConfig,AutoModelForCausalLM"""opt-6.7b模型,它以f
SmartDemo
·
2023-12-16 06:47
深度学习
机器学习
人工智能
LLM(七)| Mamba:LLM新架构的浅探
我们将从以下几个方面重点介绍基于新架构的语言模型:Mamba模型(https://github.com/state-spaces/mamba):与基础模型对话使用HuggingfaceTrainer进行指令跟随
微调
从速度和输出质量方面在
wshzd
·
2023-12-16 02:53
ChatGPT
NLP
笔记
chatgpt
笔记
人工智能
【成长日记】向着1%精进,对管理崩溃始于战略的思考
如何在战略指引下,顺内外宏观、中观、微观发展之趋势,在公司营运过程中根据实际,实时洞察失误,自下而上对战略进行主动
微调
,敢于批评和自我批评,敢于突破惯有思维模型,在小成本试错后快速迭代。
能学多少学多少
·
2023-12-16 01:56
NLP论文解读:无需模板且高效的语言
微调
模型(上)
©原创作者|苏菲论文题目:Prompt-freeandEfficientLanguageModelFine-Tuning论文作者:RabeehKarimiMahabadi论文地址:https://openreview.net/pdf?id=6o5ZEtqP2g提示学习(Prompt-learning)被誉为自然语言处理的“第4种范式”,它可以在少样本甚至零样本的条件下,通过将下游任务修改为语言生成
NLP论文解读
·
2023-12-15 22:27
烟火味道
羊肉一直怕膻,这样炖出来的羊肉汤清淡,
微调
,没有膻味,今天有点小遗憾,材料放多了,汤少了,喝的不够尽兴,因为粉丝吸汤,要少放
心游万仞1973
·
2023-12-15 22:54
RCNN学习笔记
并进行预处理,全部处理为相同大小CNN特征提取:使用CNN将特征区域图像提取为一个特征向量SVM分类:使用支持向量机判断支持该候选区域是否属于某一个类别边界回归:若确定某候选框属于某个类别,则使用回归的方式
微调
候选框的
月见樽
·
2023-12-15 22:17
LoRA(Low-Rank Adaptation)
它通过在模型的原有权重上添加低秩(low-rank)矩阵,以有效且资源高效的方式实现模型的
微调
。
h52013141
·
2023-12-15 22:30
算法
机器学习
人工智能
深度学习
python
Stable Diffusion的数学原理
它主要基于变分
自编码器
(VariationalAutoencoders,VAEs)和扩散模型(DiffusionModels)的结合。
h52013141
·
2023-12-15 22:51
stable
diffusion
人工智能
[Longformer]论文实现:Longformer: The Long-Document Transformer
文章目录一、完整代码二、论文解读2.1介绍2.2Longformer注意力模式注意力计算2.3自回归语言模型注意力模式训练结果2.4预训练和
微调
注意力模式位置编码预训练结果2.5Longformer-Encoder-Decoder
Bigcrab__
·
2023-12-15 20:05
神经网络
Tensorflow
transformer
深度学习
人工智能
【ChatGLM2-6B】P-Tuning训练
微调
机器配置阿里云GPU规格ecs.gn6i-c4g1.xlargeNVIDIAT4显卡*1GPU显存16G*1准备训练数据进入/ChatGLM-6B/ptuningmkdirAdvertiseGencdAdvertiseGen上传dev.json和train.json内容都是{"content":"你是谁","summary":"你好,我是V校人工智能,江湖人称V-Chat。"}{"content"
太空眼睛
·
2023-12-15 18:30
人工智能
ChatGLM2
chatglm2-6b
大语言模型
P-Tuning
训练
微调
train
上一页
16
17
18
19
20
21
22
23
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他