E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
微调llama2
利用LangSmith Chat数据集
微调
模型的完整指南
在这篇文章中,我们将详细探讨如何加载LangSmithChat数据集,并利用这些数据对模型进行
微调
。通过这种方式,您可以大大提升模型在特定应用场景中的表现。
shuoac
·
2025-02-21 04:06
人工智能
python
第26篇:pFedLoRA: Model-Heterogeneous Personalized Federated Learning with LoRA使用lora
微调
的模型异构个性化联邦学习
第一部分:解决的问题联邦学习(FederatedLearning,FL)是一种分布式机器学习方法,允许客户端在本地数据上训练模型,同时通过中心服务器共享学习成果。传统FL框架假设客户端使用相同的模型结构(模型同构),但在实际中可能面对:统计异质性:客户端的数据分布不均(non-IID)。资源异质性:客户端硬件资源有限。模型异质性:客户端可能拥有不同的模型结构。模型异构的个性化联邦学习(MHPFL)
还不秃顶的计科生
·
2025-02-20 20:10
联邦学习
深度学习
人工智能
开发语言
GPT (Generative Pre-trained Transformer)
GPT模型通过大规模无监督预训练,使用大量的文本数据进行学习,然后再进行
微调
(fine-tuning)来适应具体的下游任务。
彬彬侠
·
2025-02-20 19:07
自然语言处理
gpt
transformer
预训练
NLP
自然语言处理
本地搭建小型 DeepSeek 并进行
微调
本文将指导您在本地搭建一个小型的DeepSeek模型,并进行
微调
,以处理您的特定数据。
非著名架构师
·
2025-02-20 15:55
大模型
知识文档
智能硬件
人工智能
大数据
大模型
deepseek
DeepSeek原理介绍以及对网络安全行业的影响
大家好,我是AI拉呱,一个专注于人工智领域与网络安全方面的博主,现任资深算法研究员一职,兼职硕士研究生导师;热爱机器学习和深度学习算法应用,深耕大语言模型
微调
、量化、私域部署。
AI拉呱
·
2025-02-20 13:08
Deepseek
人工智能
大模型(含deepseek r1)本地部署利器ollama的API操作指南
它支持多种预训练的大型语言模型(如
LLaMA2
、Mistral、Gemma、DeepSeek等),并提供了一个简单高效的方式来加载和使用这些模型。
·
2025-02-20 13:41
人工智能llm
scoped作用原理及样式穿透的应用
scoped作用原理及样式穿透的应用(1)scoped作用原理(2)对第三条的详细解释(3)场景----
微调
第三方库样式(4)样式穿透(5)补充(1)scoped作用原理scoped是Vue样式作用域的一个特性
太阳与星辰
·
2025-02-20 10:09
Vue2
前端
面试
前端
vue
面试
使用Yuan 2.0与LangChain构建智能聊天应用:完整指南
相比之前的Yuan1.0,Yuan2.0使用了更广泛的高质量预训练数据,并通过指令
微调
数据集增强了模型的语义理解、数学推理、编程知识等能力。
scaFHIO
·
2025-02-20 05:33
langchain
python
ColD Fusion,分布式多任务
微调
的协同 “密码”
ColDFusion,分布式多任务
微调
的协同“密码”发布时间:2025-02-19近日热文:1.全网最全的神经网络数学原理(代码和公式)直观解释2.大模型进化史:从Transformer到DeepSeek-R1
·
2025-02-19 20:46
人工智能
DeepSeek R1 模型详解与
微调
目录引言DeepSeekR1模型概述DeepSeekR1模型架构3.1输入层3.2编码器层3.3解码器层3.4输出层DeepSeekR1核心原理
zhangjiaofa
·
2025-02-19 11:59
DeepSeek
R1&
AI人工智能大模型
DeepSeek
R1
思维链
模型微调
微调
alpaca-lora遇到的一些问题
目录一、环境简介二、混合精度训练Tensor相互计算会报错三、推理加载lora报错:SafetensorError:Errorwhiledeserializingheader:InvalidHeaderDeserialization四、peft(版本0.9.0)save_pretrained不保存adapter_model.bin五、一些代码注释六、问题问答6.1、model已经使用了load_i
自学AI的鲨鱼儿
·
2025-02-19 05:42
#
训练
个人笔记
深度学习
LLM
LLaMA系列大模型调研与整理-llama-alpaca-lora
.Chinese-LLaMA-Alpaca6.BELLE大模型综述ASurveyofLargeLanguageModels关键词:大模型,LLaMA,Alpaca,Lora,Belle,模型训练,模型
微调
AI大模型-大飞
·
2025-02-19 02:17
llama
AI大模型
AI
职场和发展
人工智能
商汤绝影端到端自动驾驶的迭代优化
自动驾驶,端到端,迭代优化,深度学习,感知,规划,控制,模型训练,数据增强,模型
微调
1.背景介绍随着人工智能和计算机视觉技术的飞速发展,自动驾驶汽车从科幻走进了现实。
AGI大模型与大数据研究院
·
2025-02-18 22:33
计算机软件编程原理与应用实践
java
python
javascript
kotlin
golang
架构
人工智能
【大模型】数据集构造方式
1.Alpaca数据格式Alpaca数据格式最早由StanfordAlpaca项目提出,目的是用来
微调
大语言模型(LLM),特别是用于InstructionTuning(指令
微调
)。
油泼辣子多加
·
2025-02-18 22:02
深度学习
人工智能
chatgpt
从HuggingFace下载千问模型、数据、
微调
并运行
视频链接(1)3.从HuggingFace下载千问模型、数据、
微调
并运行(上)_哔哩哔哩_bilibili在本课程中,我们将带你下载并本地运行一个大模型,进行模型的
微调
训练等,视频播放量525、弹幕量0
ApiChain
·
2025-02-18 20:45
gpt
大模型
语言模型
人工智能
python
SFT(监督
微调
)和RLHF(基于人类反馈的强化学习)的区别
SFT(监督
微调
)和RLHF(基于人类反馈的强化学习)的区别STF(SupervisedFine-Tuning)和RLHF(ReinforcementLearningfromHumanFeedback)
钟小宇
·
2025-02-18 18:11
LLM
人工智能
语言模型
LLM 参数解析:使用 OpenAI API 在 Python 中的实用指南(含示例)
幸运的是,你可以通过调整特定的参数来控制LLM的行为,就像
微调
收音机的旋钮来调整到想要的电台一样。理解这些参数可以帮助你更好地定制LLM的输出,使其更具可预测性或创造性,具体取决于你的需求。
真智AI
·
2025-02-18 14:09
python
人工智能
chatgpt
deepseek本地部署后做
微调
训练实现智能对话的一些建议
在本地部署大模型后,进行
微调
和训练以实现智能对话,通常需要按照以下步骤操作。以下是详细的指导内容:1.准备数据集在
微调
大模型之前,需要准备适合的训练数据集。
慧香一格
·
2025-02-18 14:34
AI
学习
deepseek
服务器
AI
在linux 中搭建deepseek 做
微调
,硬件配置要求说明
搭建可参考使用deepseek-CSDN博客官方网站:DeepSeekDeepSeek是一个基于深度学习的开源项目,旨在通过深度学习技术来提升搜索引擎的准确性和效率。如果你想在Linux系统上搭建DeepSeek,你可以遵循以下步骤。这里我将提供一个基本的指导,帮助你从零开始搭建一个基础的DeepSeek环境。1.安装依赖首先,确保你的Linux系统上安装了Python和pip。DeepSeek主
慧香一格
·
2025-02-18 14:04
学习
AI
linux
服务器
deepseek
基于AWS云平台的法律AI应用系统开发方案
技术栈规划层级技术组件说明存储层AWSS3AmazonOpenSearch(向量数据库)存储原始PDF文件支持向量检索的法律知识库AI服务层OpenAIGPT-4APIAmazonSageMaker(LLM
微调
weixin_30777913
·
2025-02-18 03:04
aws
云计算
人工智能
python
KTransformers:告别天价显卡!国产框架让单卡24G显存跑DeepSeek-R1 671B大模型:推理速度飙升28倍
如果你也经历过——看着API调用账单瑟瑟发抖,
微调
一次模型吃掉半月算力预算️盯着OOM报错抓狂,为了
蚝油菜花
·
2025-02-17 00:32
每日
AI
项目与应用实例
人工智能
开源
一、大模型
微调
的前沿技术与应用
大模型
微调
的前沿技术与应用随着大规模预训练模型(如GPT、BERT、T5等)的广泛应用,大模型
微调
(Fine-Tuning,FT)成为了提升模型在特定任务中性能的关键技术。
伯牙碎琴
·
2025-02-16 20:31
大模型微调
人工智能
大模型
微调
Deepseek
根据deepseek模型
微调
训练自动驾驶模型及数据集的思路
以下是使用DeepSeek模型
微调
训练自动驾驶模型的详细步骤和代码示例。本流程假设你已有自动驾驶领域的数据集(如驾驶指令、传感器数据等),并基于PyTorch框架实现。
ywfwyht
·
2025-02-16 19:28
自动驾驶
深度学习
人工智能
自动驾驶
人工智能
机器学习
大语言模型常用
微调
与基于SFT
微调
DeepSeek R1指南
概述大型语言模型(LLM,LargeLanguageModel)的
微调
(Fine-tuning)是指在一个预训练模型的基础上,使用特定领域或任务的数据对模型进行进一步训练,以使其在该领域或任务上表现更好
知来者逆
·
2025-02-16 16:08
LLM
深度学习
人工智能
自然语言处理
DeepSeek
SFT
微调
(15-3)DeepSeek混合专家模型初探:模型
微调
3.4模型
微调
在本项目中,
微调
脚本文件finetune.py提供了一套全面的工具,用于对DeepSeek-MoE预训练语言模型进行
微调
。
码农三叔
·
2025-02-16 16:35
训练
RAG
多模态)
人工智能
Deekseep
深度学习
大模型
transformer
本地DeepSeek模型GGUF文件转换为PyTorch格式
,我们在本地Windows系统上,基于GGUF文件部署了DeepSeek模型(DeepSeek-R1-Distill-Qwen-1.5B.gguf版本),但是GGUF是已经量化的版本,我们除了对其进行
微调
之外
搏博
·
2025-02-16 14:48
pytorch
人工智能
python
机器学习
windows
深度学习
AIGC 实战:如何使用 Docker 在 Ollama 上离线运行大模型(LLM)
Ollama简介Ollama是一个开源平台,用于管理和运行各种大型语言模型(LLM),例如
Llama2
、Mistral和Tinyllama。它提供命令行界面(CLI)用于安装、模型管理和交互。
surfirst
·
2025-02-16 04:04
LLM
架构
AIGC
docker
容器
LLM
大模型
大模型参数高效
微调
(PEFT)技术解析及
微调
加速实践
2023年,大模型如雨后春笋般爆发,58同城TEG-AILab作为AI平台部门,紧跟大语言模型技术发展步伐,打造了大语言模型平台,支持大语言模型训练和推理部署,并基于大语言模型平台构建了58同城生活服务领域(房产、招聘、汽车、黄页)垂类大模型灵犀大语言模型(ChatLing),支撑了业务方大模型应用的探索落地。灵犀大语言模型在公开评测集和实际应用场景下,效果均优于开源通用大语言模型以及商用通用大语
AI产品经理
·
2025-02-16 03:53
人工智能
自然语言处理
深度学习
语言模型
LangChain开发【NL2SQL】应用(few-shot优化)
这篇文章来讲一下优化什么是few-shot使用这些少量的、调整后的样本对预训练模型进行
微调
其实就是给LLM少量示例关于few-shot的研究:https://medium.com/ubiai-nlp/step
向羿燃
·
2025-02-15 22:48
LangChain开发及生态
langchain
ai
人工智能
数据分析
大模型prompt实例:知识库信息质量校验模块
大模型相关目录大模型,包括部署
微调
prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容从0起步,扬帆起航。
写代码的中青年
·
2025-02-15 22:45
大模型
prompt
人工智能
python
大模型
LLM
1.5 企业级AI大模型四阶技术全景解析:从Prompt到Pre-training的进化路径
企业级AI大模型四阶技术全景解析:从Prompt到Pre-training的进化路径一、技术演进金字塔:四阶技术如何构建AI新范式▲预训练│(万亿参数基建)├─大模型
微调
│(领域知识注入)├─AI智能体
少林码僧
·
2025-02-15 21:08
掌握先机!从
0
起步实战
AI
大模型微调
打造核心竞争力
人工智能
prompt
chatgpt
langchain
gpt
DeepSeek与Python语言关系深度探索
文章目录一、技术整合逻辑二、案例分析**案例1:调用DeepSeekAPI实现智能问答系统****案例2:使用Python
微调
DeepSeek垂直领域模型****案例3:基于DeepSeek与Python
学堂在线
·
2025-02-14 18:08
人工智能
编程
python
开发语言
DeepSeek
LLM大模型中文开源数据集集锦(三)
文章目录1ChatGLM-Med:基于中文医学知识的ChatGLM模型
微调
1.1数据集1.2ChatGLM+P-tuningV2
微调
1.3Llama+Alpaca的Lora
微调
版本2LawGPT_zh:
悟乙己
·
2025-02-14 13:01
付费-智能写作专栏
LLM大模型
开源
大模型
LLM
GPT
微调
AI Agent智能应用从0到1定制开发Langchain+LLM全流程解决方案与落地实战
大模型
微调
实战:精通、指令
微调
、开源大模型
微调
、对齐与垂直领域应用29套AI全栈大模型项目实战,人工智能视频课程-多模态大模型,
微调
技术训练营,大模型多场景实战,AI图像处理,AI量化投资,OPenCV
AI知识分享官
·
2025-02-14 00:41
人工智能
langchain
算法
数据挖掘
计算机视觉
机器学习
产品经理
GPT 系列模型发展史:从 GPT 到 ChatGPT 的演进与技术细节
核心突破:通过海量文本预训练+任务
微调
,GPT展示了强大的泛化能力。GPT-
Ash Butterfield
·
2025-02-14 00:08
nlp
gpt
chatgpt
如何
微调
(Fine-tuning)大语言模型?看完这篇你就懂了!!
前言本文介绍了
微调
的基本概念,以及如何对语言模型进行
微调
。从GPT3到ChatGPT、从GPT4到GitHubcopilot的过程,
微调
在其中扮演了重要角色。什么是
微调
(fine-tuning)?
datian1234
·
2025-02-13 23:05
语言模型
人工智能
chatgpt
LLM
ai
AI大模型
大模型微调
自学人工智能大模型,满足7B模型的训练和
微调
以及推理,预算3万,如何选购电脑
如果你的预算是3万元人民币,希望训练和
微调
7B参数规模的人工智能大模型(如LLaMA、Mistral等),你需要一台高性能的深度学习工作站。
岁月的眸
·
2025-02-13 23:03
人工智能
【必看】凭啥?DeepSeek如何用1/179的训练成本干到GPT-4o 98%性能
其核心策略包括减少监督
微调
(SFT)步骤,仅依赖强化学习(RL)技术。DeepSeek-R1-Zero版本完全跳过SFT,仅通过RL进行训练。
大F的智能小课
·
2025-02-13 21:51
人工智能
算法
从零开始大模型开发与
微调
:Miniconda的下载与安装
从零开始大模型开发与
微调
:Miniconda的下载与安装1.背景介绍随着人工智能和机器学习技术的快速发展,大型语言模型(LargeLanguageModel,LLM)已经成为当前研究和应用的热点。
AGI大模型与大数据研究院
·
2025-02-13 18:30
DeepSeek
R1
&
大数据AI人工智能
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
【深度学习】常见模型-GPT(Generative Pre-trained Transformer,生成式预训练 Transformer)
它能够通过大量无监督数据预训练,然后
微调
(Fine-tuning)以适应特
IT古董
·
2025-02-13 16:15
深度学习
人工智能
深度学习
gpt
transformer
从零开始构建一个大语言模型-第七章第一节
第七章目录7.1指令
微调
简介7.2为有监督的指令
微调
准备数据集7.3将数据整理成训练批次7.4为指令数据集创建数据加载器7.5加载预训练的大语言模型7.6在指令数据上对大语言模型进行
微调
7.7提取并保存回复
释迦呼呼
·
2025-02-13 15:07
从零开始构建一个大语言模型
语言模型
人工智能
自然语言处理
机器学习
transformer
硅基流动开放模型
微调
(可使用赠送金额)
就这几天硅基流动上线了模型
微调
目前仅开放这两个模型,价格也在上面,最重要的是可以使用赠送的额度。网站链接:https://cloud.siliconflow.cn/i/wLHLnn22
2401_82750289
·
2025-02-13 04:16
人工智能
机器学习
语言模型
win10 llamafactory模型
微调
相关① || Ollama运行
微调
模型
目录
微调
相关1.
微调
结果评估2.模型下载到本地导出转换,Ollama运行1.模型转换(非常好的教程!)
我的巨剑能轻松搅动潮汐
·
2025-02-12 22:31
llamafactory
语言模型
一文读懂RAG
架构数据准备阶段应用阶段:五、RAG分类基础RAG(NaiveRAG)缺点高级RAG(AdvancedRAG)模块化RAG(ModularRAG)六、RAG(检索增强生成)vsFine-Tuning(
微调
wangziling123456
·
2025-02-12 22:58
人工智能
深度学习
用Llama Factory单机多卡
微调
Qwen2.5时报torch.OutOfMemoryError: CUDA out of memory的解决办法
接着上一篇博客:在Ubuntu上用LlamaFactory命令行
微调
Qwen2.5的简单过程_llamafactory
微调
qwen2.5-CSDN博客如果需要
微调
比较大的模型,例如Qwen2.5-32B
蛐蛐蛐
·
2025-02-12 22:27
大模型
科研工具
Python技巧
llama
人工智能
大模型
目标检测:yolo格式txt转换成COCO格式json
修改对应文件路径即可,其他根据txt或者希望生成的json做轻
微调
整#-*-coding:utf-8-*-importosimportjsonfromPILimportImagecoco_format_save_path
詹姆斯德
·
2025-02-12 21:49
格式转换
目标检测
YOLO
json
手把手教学,DeepSeek-R1
微调
全流程拆解
手把手教学,DeepSeek-R1
微调
全流程拆解原创极客见识GeekSavvy2025年02月09日09:02广东DeepSeek通过发布其开源推理模型DeepSeek-R1颠覆了AI格局,该模型使用创新的强化学习技术
AI生成曾小健
·
2025-02-12 05:01
windows
开源模型应用落地-qwen2-7b-instruct-LoRA
微调
&合并-ms-swift-单机多卡-RTX 4090双卡(十五)
一、前言本篇文章将使用ms-swift去合并
微调
后的模型权重,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。
开源技术探险家
·
2025-02-12 04:50
开源模型-实际应用落地
#
开源模型-微调实战密码
自然语言处理
深度学习
语言模型
揭幕 DeepSeek-V2.5-1210:革新人工智能能力
技术背景DeepSeek-V2.5-1210在DeepSeekV2系列的基础上进行了
微调
,利用后训练迭代提升了其在数学、编程、写作和
吴脑的键客
·
2025-02-12 03:16
人工智能
人工智能
搜索引擎
DeepSeek-MoE-16b:高效稀疏架构引领大模型降本增效革命
模型定位与技术背景DeepSeek-MoE-16b是深度求索(DeepSeek)研发的混合专家模型(MixtureofExperts,MoE),参数规模160亿,旨在通过稀疏化计算架构解决传统稠密模型(如
Llama2
热爱分享的博士僧
·
2025-02-11 18:36
架构
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他