E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
自编码器微调
浅谈BERT
可以通过给机器大量的文字,让机器读懂,这个过程叫预训练(pre-train),然后再根据特定的任务给机器特定的有限的有关数据对pre-train的model进行
微调
(fine-tune)。
进步中的coder
·
2023-11-18 18:57
笔记
自然语言处理
nlp
分类预测 | Matlab实现基于PSO-SDAE粒子群优化算法优化堆叠去噪
自编码器
的数据分类预测
分类预测|Matlab实现基于PSO-SDAE粒子群优化算法优化堆叠去噪
自编码器
的数据分类预测目录分类预测|Matlab实现基于PSO-SDAE粒子群优化算法优化堆叠去噪
自编码器
的数据分类预测分类效果基本描述程序设计参考资料分类效果基本描述
机器学习之心
·
2023-11-18 17:45
分类预测
PSO-SDAE
粒子群优化算法优化
堆叠去噪自编码器
数据分类预测
进一步观察扩散模型中的参数有效调整
摘要:像Stablediffusion[31]这样的大规模扩散模型非常强大,可以找到各种真实世界的应用程序,而通过
微调
来定制这样的模型会降低内存和时间的效率。
nocol.
·
2023-11-17 12:49
计算机视觉
2023.8-(ICCV)Forecast-MAE- Self-supervised Pre-training for Motion Forecasting with Masked Autoencod
这篇论文的标题为“Forecast-MAE:用于运动预测的自监督预训练蒙版
自编码器
”,在自动驾驶系统的运动预测领域提出了一种新的方法。
技术宅学长
·
2023-11-17 08:52
论文阅读
自动驾驶
自动驾驶
Accelerate 0.24.0文档 三:超大模型推理(内存估算、Sharded checkpoints、bitsandbytes量化、分布式推理)
Shardedcheckpoints)2.4示例:使用Accelerate推理GPT2-1.5B2.5device_map三、bitsandbytes量化3.1环境依赖3.2量化示例3.3保存和加载8位模型3.4
微调
量化模型四
神洛华
·
2023-11-17 06:25
LLMs
huggingface
分布式
LLM
transformer
pytorch
【论文】P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks
模型参数较少时,远不如
微调
任务间缺乏通用性。
weixin_50862344
·
2023-11-17 05:01
prompt
一种硬盘故障预测的非监督对抗学习方法
关键词领域:异常检测,深度学习方法:非监督对抗学习场景:硬盘故障检测网络结构:基于LSTM
自编码器
与生成式对抗网络相结合数据集:BackBlaze目录关键词一、主要方法二、
疯狂java杰尼龟
·
2023-11-17 03:26
#
Outlier
Detection
机器学习
机器学习
深度学习
非监督学习
硬盘故障检测
LSTM+生成式对抗网络
Python 标准库heapq,堆数据结构操作详解
注:本文章由ChatGPTgpt-3.5-turbo生成,小编进行略
微调
整提出的问题:heapq详细讲解背景最近小编在读《PythonCookbook》书籍时,遇到一个新的标准库heapq,该库主要涉及堆数据结构
数据人阿多
·
2023-11-17 02:09
python
AIGC
ChatGPT
Zero-Shot Text-to-Image Generation阅读笔记
本文的解决办法:训练了一个离散变分
自编码器
(dVAE),将每个256×256RGB图像压缩成一个32×32
小杨小杨1
·
2023-11-17 00:42
#
自然语言
计算机视觉
深度学习
python
LLm
微调
使用的数据集
https://baijiahao.baidu.com/s?id=1769124161629981325&wfr=spider&for=pcRefGPT:基于RefGPT生成大量真实和定制的对话数据集地址:https://github.com/ziliwangnlp/RefGPT数据集说明:包括RefGPT-Fact和RefGPT-Code两部分,其中RefGPT-Fact给出了5万中文的关于事实
东方佑
·
2023-11-17 00:36
NLP
人工智能
数据库
使用 Hugging Face Transformer
微调
BERT
微调
BERT有助于将其语言理解能力扩展到更新的文本领域。BERT的与众不同之处在于它能够掌握句子的上下文关系,理解每个单词相对于其邻居的含义。
TD程序员
·
2023-11-16 21:18
自然语言处理实战篇
transformer
bert
人工智能
自然语言处理
【机器学习9】前馈神经网络
深度前馈网络是一类网络模型的统称,主要包括多层感知机、
自编码器
、限制玻尔兹曼机,以及卷积神经网络等。
猫头不能躺
·
2023-11-16 18:27
《百面机器学习》
机器学习
神经网络
人工智能
LLM(四)| Chinese-LLaMA-Alpaca:包含中文 LLaMA 模型和经过指令
微调
的 Alpaca 大型模型
论文题目:《EFFICIENTANDEFFECTIVETEXTENCODINGFORCHINESELLAMAANDALPACA》论文地址:https://arxiv.org/pdf/2304.08177v1.pdfGithub地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca一、项目介绍通过在原有的LLaMA词汇中增加20,000个中文符号来提高中文编
wshzd
·
2023-11-16 17:25
ChatGPT
笔记
llama
一口气了解大模型相关通识,基础笔记!
复杂度各不相同的A、B、C、D四项大模型(基座模型),用于不同场景的应用;其中,A、B、C、D模型的全称分别是ada、babbage、curie(居里)和davinci(达芬奇),四个模型并不是GPT-3的
微调
模型
MR.CHEN.SONG
·
2023-11-16 13:24
笔记
语言模型
人工智能
EMNLP 2023 | DeepMind提出大模型In-Context Learning的可解释理论框架
作者也提到本文的方法与软提示(soft-prompt)[1]方法类似,soft-prompt也是通过调整大模型内部transformer的激活值来实现特定的新任务,但是本文的方法仅在ICL的前向传播过程中进行调整,而不是
微调
整个
TechBeat人工智能社区
·
2023-11-16 13:22
技术文章
自然语言处理
大模型
可解释性
ASP.Net Core创建MVC项目上传多个文件(流方式)
将之前文章《ASP.NetCore创建MVC项目上传单个文件(流方式)》的前端稍
微调
整一下,即可支持上传多个文件,修改的内容主要是在input的标签中增加multiple属性。
gc_2299
·
2023-11-16 12:51
dotnet编程
asp.net
core
mvc
流
上传文件
使用GPT-4训练数据
微调
GPT-3.5 RAG管道
原文:使用GPT-4训练数据
微调
GPT-3.5RAG管道-知乎OpenAI在2023年8月22日宣布,现在可以对GPT-3.5Turbo进行
微调
了。也就是说,我们可以自定义自己的模型了。
javastart
·
2023-11-16 11:59
大模型
prompt
人工智能
python
chatgpt
gpt-3
gpt
在个人电脑上部署ChatGLM2-6B中文对话大模型
使用方式硬件需求量化等级最低GPU(对话)最低GPU(
微调
)FP16(标准)13GB14GBINT88GB
潘高
·
2023-11-16 11:01
ChatGLM
AI
ChatPGT
ChatGLM
AI
Python
AIGC实战——
自编码器
(Autoencoder)
AIGC实战——
自编码器
0.前言1.
自编码器
原理2.数据集与模型分析2.1Fashion-MNIST数据集2.2
自编码器
架构3.去噪
自编码器
3.1编码器3.2解码器3.3连接编码器和解码器3.4训练
自编码器
盼小辉丶
·
2023-11-16 11:51
AIGC
深度学习
keras
AIGC实战——变分
自编码器
(Variational Autoencoder, VAE)
AIGC实战——变分
自编码器
0.前言1.变分
自编码器
1.1基本原理1.2编码器2.构建VAE编码器2.1Sampling层2.2编码器2.3损失函数2.4训练变分
自编码器
3.变分
自编码器
分析小结系列链接
盼小辉丶
·
2023-11-16 11:51
AIGC
深度学习
keras
TrOCR模型
微调
【基于transformer的光学字符识别】
本文将通过在弯曲文本数据集上
微调
TrOCR模型,使TrOCR系列更进一步。在线工具推荐:Three.jsAI纹理开发包-YOLO合成数据生成器-GLTF
新缸中之脑
·
2023-11-16 10:36
transformer
深度学习
人工智能
使用Kohya_ss训练Stable Diffusion Lora
StableDiffusion模型
微调
方法StableDiffusion主要有4种方式:Dreambooth,LoRA,TextualInversion,Hypernetworks。
培根芝士
·
2023-11-16 08:03
AI
stable
diffusion
对聚类经典文献(DEC——无监督的深度嵌入式聚类)的学习(续)
目录前言一、对论文《无监督的深度嵌入式聚类》(DEC)相关知识的学习(一)论文简介:(二)相关知识点:1.KL散度2.软分配3.K-means算法4.AE(
自编码器
)5.反向传播算法二、对DEC代码的学习
llismine
·
2023-11-16 04:03
python
开发语言
8.23乾坤日报--OpenAI推出GPT-3.5 Turbo
微调
功能,打造个性化ChatGPT
1.韩国SK电讯成为PersonaAI开发商的第三大股东8月23日消息,韩国主要电信运营商SK电讯(SKTelecom)已于8月21日宣布,成为AICC(ArtificialIntelligenceContactCenter,人工智能联络中心)开发商PersonaAI的第三大股东。此次合作旨在共同研发提升企业自动化客户服务设施的创新产品。PersonaAI凭借其自研的自然语言处理引擎,在韩国率先推
乾坤AI
·
2023-11-16 01:09
gpt-3
chatgpt
业界资讯
AIGC
人工智能
微软
注意力机制、Transformer模型、生成式模型、目标检测算法、图神经网络、强化学习、深度学习模型可解释性与可视化方法等详解
+讨论互动”相结合的方式,抽丝剥茧、深入浅出讲解注意力机制、Transformer模型(BERT、GPT-1/2/3/3.5/4、DETR、ViT、SwinTransformer等)、生成式模型(变分
自编码器
小艳加油
·
2023-11-15 17:41
语言类
深度学习
transformer
目标检测
注意力机制
python
python图神经网络,注意力机制、Transformer模型、目标检测算法、强化学习等
AI技术在各个领域中的应用越来越广泛本文重点为:注意力机制、Transformer模型(BERT、GPT-1/2/3/3.5/4、DETR、ViT、SwinTransformer等)、生成式模型(变分
自编码器
xiao5kou4chang6kai4
·
2023-11-15 17:27
python
神经网络
transformer
怎么设计数据库
一.先根据页面UI或者需求(最好是UI,因为UI才是最准确的,UI有时会对需求进行
微调
)抽离出主体,设置基础表例:题目:共享云音乐网站需求1.登录注册2.音乐的上传、下载、管理:音乐包括音乐信息和音乐文件
飞翔的云中猪
·
2023-11-15 10:31
数据库
上海交大全球午餐会——大语言模型机器学习ChatGPT(主讲人:赵海)
语言概率链式法则改变:是有全空模型,自己模型不久之前:预训练+
微调
现在:大模型量变引起质变
zRezin
·
2023-11-15 09:59
聊天机器人
直播观后感
nlp
科技
大模型的实践应用6-百度文心一言的基础模型ERNIE的详细介绍,与BERT模型的比较说明
在大规模语料库上预先训练的BERT等神经语言表示模型可以很好地从纯文本中捕获丰富的语义模式,并通过
微调
的方式一致地提高各种NLP任务的性能。
微学AI
·
2023-11-15 08:59
大模型的实践应用
百度
文心一言
bert
ERNIE
Hugging Face实战-系列教程8:GLUE数据集/文本分类上(NLP实战/Transformer实战/预训练模型/分词器/模型
微调
/模型自动选择/PyTorch版本/代码逐行解析)
JupyterNotebook中进行本篇文章配套的代码资源已经上传下篇内容:HuggingFace实战-系列教程9:GLUE数据集/文本分类下(NLP实战/Transformer实战/预训练模型/分词器/模型
微调
机器学习杨卓越
·
2023-11-15 00:52
Hugging
Face实战
自然语言处理
transformer
pytorch
Hugging
Face
深度学习
GPT模型
微调
教程:打造您专属的ChatGPT模型
一、前言通过前面对大语言模型的介绍,我们了解到,其实像目前已经发布的一些主流大语言模型如OpenAI公司发布的的GPT-3.5、GPT-4、Google发布的Bard和PaLM2多模态模型、Anthropic最近推出的Claude2、亦或是国内清华大学联合智普AI发布的ChatGLM2等都是属于通用型的LLM模型,基于海量的互联网数据进行训练推理而来,因为涉及领域广泛,你会发现这些模型或多或少都会
技术狂潮AI
·
2023-11-14 14:06
LLM应用实战
gpt
chatgpt
yoloV8模型讲解概述
模式概览了解UltralyticsYOLOv8支持的不同模式对于充分利用您的型号至关重要:训练模式:在自定义或预加载的数据集上
微调
您的模型。Val模式:用于验
图灵追慕者
·
2023-11-14 12:04
YOLO
人工智能
模型讲解
yolov8
2.5k的ChatGPT-Java版SDK升级1.1.2-beta0支持GPT-4V、Dall-e-3模型、ToolCalls、
微调
Job、TTS...
1、项目简介Chatgpt-Java是OpenAI官方Api的JavaSDK,可以快速接入项目使用。支持OpenAI官方全部接口。目前收获将2500+star。开源地址:https://github.com/Grt1228/chatgpt-java官方文档:https://chatgpt-java.unfbx.com/最新版本:1.1.2-beta0com.unfbxchatgpt-java1.1
程序员的黑洞
·
2023-11-14 08:07
Java
Spring
boot
chatgpt
java
OpenAI
GPT-4V
Azure 机器学习:在 Azure 机器学习中使用 Azure OpenAI 模型
三、在机器学习中访问AzureOpenAI模型连接到AzureOpenAI部署AzureOpenAI模型四、使用自己的训练数据
微调
AzureOpenAI模型使用工作室
微调
微调
设置训练数据自定义
微调
参数部署
微调
的模型使用基于代码的示例
微调
疑难解答在本文中
TechLead KrisChang
·
2023-11-14 08:37
azure
机器学习
人工智能
microsoft
深度学习
概念解析 | LoRA:低秩矩阵分解在神经网络
微调
中的魔力
本次辨析的概念是:基于低秩矩阵分解的神经网络
微调
方法LoRALoRA:低秩矩阵分解在神经网络
微调
中的魔力Low-RankAdaptationofLargeLanguageModelsLoRA由如下论文提出
R.X. NLOS
·
2023-11-14 06:53
#
概念解析
矩阵
神经网络
LLM
微调
LoRA
使用LLM-Tuning实现百川和清华ChatGLM的Lora
微调
LLM-Tuning项目源码:GitHub-beyondguo/LLM-Tuning:TuningLLMswithnotears,sharingLLM-toolswithlove❤️.TuningLLMswithnotears,sharingLLM-toolswithlove❤️.-GitHub-beyondguo/LLM-Tuning:TuningLLMswithnotears,sharingL
培根芝士
·
2023-11-14 04:21
AI
人工智能
【扩散模型】万字长文全面理解与应用Stable Diffusion
StableDiffusion1.StableDiffusion简介1.1基本概念1.2主体结构1.3训练细节1.4模型评测1.5模型应用1.6模型版本1.7其他类型的条件生成模型1.8使用DreamBooth进行
微调
镰刀韭菜
·
2023-11-14 04:44
生成式AI与扩散模型
stable
diffusion
DDPM
Img2Img
Depth2Image
Inpainting
无分类器引导
条件生成
未来之路:大模型技术在自动驾驶的应用与影响
接着,详细介绍了大模型的基本定义、基础功能和关键技术,特别是Transformer注意力机制和预训练-
微调
范式。文章还介绍了大模型在任务适配性、模型变革和应用前景方面的潜力。
一颗小树x
·
2023-11-13 18:03
感知算法学习
自动驾驶
大模型
Transformer
占用网络
应用
变分
自编码器
/ 概率分布的重新理解 感觉悟了很多
变分
自编码器
不加KLD对概率分布的约束项可以吗?GPT回答:变分
自编码器
是一种将输入数据映射到潜在空间中的方法,并使用随机采样技术从潜在空间中生
A half moon
·
2023-11-13 17:43
人工智能
肠-肝轴:宿主-微生物群相互作用影响肝癌发生
前面的文章中,我们已经了解到,在肝病的发生发展中肠道菌群的变化,详见:深度解析|肠道菌群与慢性肝病,肝癌到目前为止,大多数研究都集中在细菌多样性及其代谢物与靶癌细胞表型的关联上,而没有考虑环境的
微调
。
谷禾牛博
·
2023-11-13 16:01
肠道菌群
人工智能
健康医疗
python
交互
产品运营
FD-Align论文阅读
:FeatureDiscriminationAlignmentforFine-tuningPre-TrainedModelsinFew-ShotLearning(NeurIPS2023)主要工作是针对
微调
的和之前的
B1CK
·
2023-11-13 14:50
论文阅读
Prompt 设计与大语言模型
微调
,没有比这篇更详细的了吧!
本文主要介绍了Prompt设计、大语言模型SFT和LLM在手机天猫AI导购助理项目应用。ChatGPT基本原理“会说话的AI”,“智能体”简单概括成以下几个步骤:预处理文本:ChatGPT的输入文本需要进行预处理。输入编码:ChatGPT将经过预处理的文本输入到神经网络中进行编码处理,使用的是多层transformer编码器结构。预测输出:ChatGPT通过对输入进行逐个token预测,输出下一个
Python算法实战
·
2023-11-13 13:05
大模型理论与实战
大模型
prompt
语言模型
人工智能
chatgpt
自然语言处理
GPT Store上线 OpenAI 的「iPhone时刻」这回真来了
有人创建了能
微调
X帖子的专用模型,精确定位全平台用户发帖的高峰时间;有人用GPT做了一个AI解说员,不仅能看懂足球赛,还会解说英雄
元宇宙日爆
·
2023-11-13 10:05
gpt
人工智能
ChatkBQA:一个基于大语言模型的知识库问题生成-检索框架11.13
ChatkBQA:一个基于大语言模型的知识库问题生成-检索框架摘要1引言3准备工作4方法4.1ChatKBQA概述4.2在LLMS上进行高效
微调
4.3用
微调
LLMS生成逻辑形式4.4实体和关系的非监督检索
露葵025
·
2023-11-13 10:49
论文
语言模型
人工智能
自然语言处理
Slurm集群上单节点8卡全量
微调
大模型笔记
大模型选择选用了近期刚发布的ChatGLM3-6b作为基座模型,考虑想利用模型进行Chat
微调
后的能力,没有使用ChatGLM3-6b-Base进行改进。
小怪兽会微笑
·
2023-11-13 09:12
笔记
chrome
前端
LLM
微调
过程中灾难性遗忘问题解决方法
灾难性遗忘是LLM
微调
过程中最常见的问题,下面是一些解决办法:将重要的权重冻结:像Lora就是采用的这种方案,只学习部分网络权重。
transformer_WSZ
·
2023-11-13 06:59
LLM
LLM
2020-08-31
神经网络的持续终身学习:回顾摘要人和动物有能力在其整个生命周期中不断获取,
微调
和转让知识和技能。
dm0mb--小牛牛
·
2023-11-13 05:41
Fine-Tuning Paradigm
Fine-TuningParadigm(
微调
范式)是指在深度学习模型中,训练一个已经预训练过的模型,通过对其进行
微调
以适应新的任务。
chunmiao3032
·
2023-11-13 03:18
人工智能
舍弃99%的参数,还能达到相同的性能!阿里团队发现大模型「合二为一」的黑魔法!而且不用GPU,不需重新训练
那么一种“奇思妙想”就是,在不同领域数据集上进行
微调
而获得如“数学”、“代码”、“翻译”等能力的不同大模型,能否通过“吸收同化
夕小瑶
·
2023-11-13 01:33
人工智能
半自动标注工具VoTT智能识别替换COCOSSD为自己的模型
半自动标注出来的结果一般都不准确,需要手动
微调
,但可以减少工作量。半自动标注工具还有:BreaverDam,基于多目标追踪的vatic等。
Dreaming_of_you
·
2023-11-12 23:28
上一页
23
24
25
26
27
28
29
30
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他