E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
chatglm微调
周报 | 24.8.19-24.8.25文章汇总
周报|24.8.12-24.8.18文章汇总-CSDN博客新智元|
微调
Flux席卷全网,外国小哥一人组一队漫威英雄!_flux怎么
微调
-CSDN博客新智元|百万在线,大圣归来!
双木的木
·
2024-09-01 08:26
python拓展学习
深度学习拓展阅读
人工智能
机器学习
开发语言
python
深度学习
nlp
llama
Firefly多轮对话
微调
书生·浦语InternLM-7B实践
本篇文章主要介绍使用Firefly项目对书生·浦语InternLM-7B进行
微调
的工作。
u013250861
·
2024-09-01 00:09
#
LLM/预训练&SFT
人工智能
chatgpt
NL2SQL实践系列(2):2024最新模型实战效果(Chat2DB-GLM、书生·浦语2、InternLM2-SQL等)以及工业级案例教学
更多模型使用以及工业级案例NL2SQL基础系列(1):业界顶尖排行榜、权威测评数据集及LLM大模型(SpidervsBIRD)全面对比优劣分析[Text2SQL、Text2DSL]NL2SQL基础系列(2):主流大模型与
微调
方法精选集
汀、人工智能
·
2024-09-01 00:39
LLM工业级落地实践
人工智能
LLM
自然语言处理
NL2SQL
大模型应用
Text2NLP
chat2DB
大语言模型原理与工程实践:混合
微调
策略
大语言模型原理与工程实践:混合
微调
策略作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来随着深度学习技术的迅猛发展,大语言模型(
AGI通用人工智能之禅
·
2024-08-31 15:13
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
开源模型应用落地-qwen2-7b-instruct-LoRA
微调
-ms-swift-单机单卡-V100(十二)
一、前言本篇文章将在v100单卡服务器上,使用ms-swift去高效
微调
QWen2系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。
开源技术探险家
·
2024-08-31 10:41
开源模型-实际应用落地
#
深度学习
语言模型
自然语言处理
最新视频合成后调优技术ExVideo模型部署
ExVideo提出了一种新的后调优策略,无需对整个模型进行大规模重训,仅通过对模型中时序相关组件的
微调
,就能够显著增强其生成更长视频片段的能力,大大降低了对计算资源的需求,仅需1.5kgpu小时就能将视频生成帧数提高至原模型的
杰说新技术
·
2024-08-31 09:56
AIGC
多模态
AIGC
人工智能
【ShuQiHere】
微调
与训练恢复:理解 `load_weights` 和 `save_model` 的实用方法
【ShuQiHere】在深度学习的世界中,训练一个模型不仅需要时间,还需要大量的计算资源。比如,你已经花了几天时间训练一个模型,但突然间,电脑崩溃了,你的所有进度都丢失了。这种情况就像是在一场马拉松比赛的最后一公里摔倒,让人沮丧至极。那么,有没有什么方法可以避免这种悲剧呢?今天,我们就来聊聊如何通过保存和加载模型的权重来应对这些挑战,确保你在深度学习的旅程中不会白费功夫。模型保存和加载的背景训练一
ShuQiHere
·
2024-08-31 02:37
机器学习
深度学习
LangChain +
ChatGLM
-6B /
ChatGLM
2-6B 新手踩坑指南!
LangChain-
ChatGLM
-6B基本简介:1、项目资源来源链接:基于本地知识库的
ChatGLM
问答https://github.com/imClumsyPanda/langchain-
ChatGLM
2
海鸟智能
·
2024-08-30 22:16
langchain
ai
关于springboot对接
chatglm
3-6b大模型的尝试
之前我们通过阿里提供的cloudai对接了通义千问。cloudai对接通义千问那么接下来我们尝试一些别的模型看一下,其实这个文章主要是表达一种对接方式,其他的都大同小异。都可以依此方法进行处理。一、明确模型参数本次我们对接的理论支持来自于阿里云提供的文档。阿里云大3-6b模型文档我们看到他其实支持多种调用方式,包括sdk和http,我本人是不喜欢sdk的,因为会有冲突或者版本之类的问题,不如直接调
橘子在努力
·
2024-08-30 22:15
#
springcloud
#
springboot
JAVA
spring
boot
后端
语言模型
Bert中文预训练模型(Bert-base-chinese)
Bert-base-chinese模型是一个在简体和繁体中文文本上训练得到的预训练模型,具有以下特点:12个隐层输出768维张量12个自注意力头110M参数量该模型的主要作用是获取每个汉字的向量表示,后续通过
微调
可应用于各种简体和繁体中文任务
好好学习Py
·
2024-08-30 22:14
自然语言处理
bert
人工智能
深度学习
pytorch
python
自然语言处理
2025秋招大语言模型落地实践面试题
2.2何时使用
微调
与何时使用RAG?2.3在训练大语言模型时遇到的关键挑战是什么?数据资源3.1如何标注一个监督
微调
(SFT)数据集?3.2在众包
微凉的衣柜
·
2024-08-30 01:26
语言模型
人工智能
自然语言处理
NL2SQL进阶系列(5):论文解读业界前沿方案(DIN-SQL、C3-SQL、DAIL-SQL、SQL-PaLM)、新一代数据集BIRD-SQL解读
BIRD-SQL解读NL2SQL基础系列(1):业界顶尖排行榜、权威测评数据集及LLM大模型(SpidervsBIRD)全面对比优劣分析[Text2SQL、Text2DSL]NL2SQL基础系列(2):主流大模型与
微调
方法精选集
汀、人工智能
·
2024-08-30 01:25
LLM工业级落地实践
copilot
人工智能
NL2SQL
LLM
自然语言处理
NL2DSL
Text2SQL
GPT-SoVITS语音合成服务器部署,可远程访问(全部代码和详细部署步骤)
Zero-shotTTS可以让用户输入5秒钟的语音样本并立即体验转换后的语音,而Few-shotTTS则可以通过使用仅一分钟的训练数据进行模型
微调
,从而提高语音相似度和真实性。
学术菜鸟小晨
·
2024-08-28 19:31
最新人工智能技术
gpt
人工智能
Code Llama: Open Foundation Models for Code论文阅读
作者针对infilling(FIM)、长上下文、指令专门做了
微调
long-contextfine-tuning(LCFT).codellama细节CodeLlama模型家族初始化:所有CodeLla
yang_daxia
·
2024-08-27 18:46
大模型
llama
codellama
OpenAI推出GPT-4o
微调
功能
AI新闻OpenAI推出GPT-4o
微调
功能摘要:OpenAI近日推出了一项新功能,允许企业客户使用自有数据对GPT-4o模型进行
微调
,以优化针对特定任务的表现。
go2coding
·
2024-08-27 17:46
AI日报
人工智能
智源研究院举办第一期数据与行业应用Workshop
来自智源研究院、中国信息通信研究院、航天信息技术有限公司、北京市科学技术研究院、北大法宝的专家学者们分享了行业数据集与医疗示范模型训练的探索实践,千万级指令
微调
数据集构建经验,面向大模型的数据工程以及大模型在财税
智源研究院官方账号
·
2024-08-27 16:06
人工智能
数据库
用TensorRT-LLM跑通
chatGLM
3_6B模型
零、参考资料NVIDIA官网THUDM的GithubNVIDIA的Github一、构建TensorRT-LLM的docker镜像gitlfsinstallgitclonehttps://github.com/NVIDIA/TensorRT-LLM.gitcdTensorRT-LLMgitsubmoduleupdate--init--recursivesudomake-Cdockerrelease_
心瘾こころ
·
2024-08-27 11:33
语言模型
python
基于华为昇腾910B和LLaMA Factory多卡
微调
的实战教程
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。
herosunly
·
2024-08-27 10:57
大模型
微调
华为昇腾
910B
多卡微调
实战教程
大模型18:
微调
大模型方法PEFT(LoRA等) — 训练 “
ChatGLM
2“ 项目
微调
大模型的方法之一是PEFT(Parameter-EfficientFine-Tuning),其中包括LoRA(Low-RankAdaptation)等技术。
bluewelkin
·
2024-08-27 01:38
大模型
大模型19:
微调
大模型方法
有监督
微调
(SFT)、奖励模型(RM)训练,以及基于人类反馈的强化学习(RLHF)训练1.有监督
微调
(SFT-SupervisedFine-Tuning)数据处理数据收集:首先,需要收集大量的对话数据。
bluewelkin
·
2024-08-27 01:38
大模型
大模型
微调
方法总结:LoRA、Adapter、Prefix-tuning、P-tuning、Prompt-tuning
然而,
微调
(finetuning)这些大模型以适应特定任务是一个复杂且计算密集型的过程。
百度_开发者中心
·
2024-08-26 19:14
prompt
人工智能
大模型
Prompt-Tuning:大模型
微调
技术
为了解决这个问题,研究人员提出了各种大模型
微调
技术,以减少模型的大小和计算复杂度,同时保持模型的性能。
百度_开发者中心
·
2024-08-26 19:14
prompt
自然语言处理
大模型
大模型
微调
技术(Adapter-Tuning、Prefix-Tuning、Prompt-Tuning(P-Tuning)、P-Tuning v2、LoRA)_adapter
微调
p tuning
2022年11月30日,ChatGPT发布至今,国内外不断涌现出了不少大模型,呈现“百模大战”的景象,比如
ChatGLM
-6B、LLAMA、Alpaca等模型及在此模型基础上进一步开发的特定领域的大模型
Cc不爱吃洋葱
·
2024-08-26 19:12
prompt
神经网络
微调
技术全解(02)-针对每种
微调
技术的具体实施示例(含代码)
下面是针对每种
微调
技术的具体实施示例,帮助理解如何应用这些技术进行模型
微调
:1.Adapter示例:假设我们使用BERT模型进行情感分析任务,并且希望利用Adapter模块进行
微调
。
技术与健康
·
2024-08-26 11:20
机器学习
神经网络
人工智能
从零开始大模型开发与
微调
:有趣的词嵌入
从零开始大模型开发与
微调
:有趣的词嵌入作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来自然语言处理(NLP)领域近年来取得了飞速发展
AGI通用人工智能之禅
·
2024-08-26 08:33
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
使用书生万象InternVL大模型进行自定义视频数据集
微调
时没有petrel_client导致NoneType异常
使用书生万象InternVL大模型进行自定义视频数据集
微调
时没有petrel_client导致NoneType异常1、项目 7月4日下午,世界人工智能大会科学前沿论坛,代季峰老师代表InternVL研究团队发布了
菜b杨
·
2024-08-26 06:54
python
ai
计算机视觉
人工智能
自然语言处理
chatgpt
欺诈文本分类
微调
(六):Lora单卡训练
1.引言前面欺诈文本分类
微调
(四):构造训练/测试数据集已经构造出了数据集,更之前的欺诈文本分类
微调
(一):基座模型选型选好了基座模型,这篇文章将基于构造出的数据集和选定的模型进行欺诈文本分类的
微调
训练
沉下心来学鲁班
·
2024-08-25 11:27
微调
分类
人工智能
机器学习
语言模型
微调
用 Unsloth
微调
LLaMA 3 8B
用Unsloth
微调
LLaMA38B今年4月份,Meta公司发布了功能强大的大型语言模型(LLM)Llama-3,为从事各种NLP任务的开发人员提供了功能强大可以在普通机器上运行的开源LLM。
liugddx
·
2024-08-25 08:05
AI
微调
大模型
llama
离线 AI:使用 Termux 从源代码在 Android 手机/Waydroid 上构建 Ollama
Android手机/WaydroidTermux的终端命令相同推荐文章《在自己笔记本上使用Llama-3生成PowerPoint—幻灯片自动化的第一步》权重1,本地类、ppt类《如何
微调
NLLB-200
知识大胖
·
2024-08-23 17:32
NVIDIA
GPU和大语言模型开发教程
人工智能
智能手机
ollama
termux
waydroid
无坑!部署langchain-chatchat + glm4-9b-chat,轻松实现知识库智能问答!
Langchain-chatchat最新版本0.3.0地址谢谢你的点赞/关注支持通过该项目可以轻松实现智能问答,由于
chatglm
4的开源,该项目最新版本0.3.0与0.2.0版本部署有所不同。
zbc-
·
2024-08-23 02:31
langchain
langchain
金清 焦点网络中12 坚持原创分享第 153天
扩大白而非消灭黑,家庭是个系统,
微调
自己,整个家庭系统就开始发
金JJ
·
2024-08-22 21:57
多模态大模型Internvl-1.5-26B
微调
后部署及测试实录(附代码)
大模型相关目录大模型,包括部署
微调
prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容从0起步,扬帆起航。
写代码的中青年
·
2024-08-22 15:59
大模型
prompt
python
大模型
swift
微调
lora
大模型应用中什么是SFT(监督
微调
)?
大模型应用中什么是SFT(监督
微调
)?一、SFT的基本概念监督
微调
(SupervisedFine-Tuning,SFT)是对已经预训练的模型进行特定任务的训练,以提高其在该任务上的表现。
Chauvin912
·
2024-08-22 04:47
大模型
语言模型
深度学习
算法
Spinbox 控件是 Tkinter 库中一个相对较新的控件
Spinbox控件可以看作是Entry控件的升级版,#它不仅允许用户直接在文本框中输入内容,还提供了一个
微调
选择器,即上下按钮调节器#,允许用户通过点击按钮来选择一个范围内的值importtkinterastk
我不是立达刘宁宇
·
2024-08-21 21:33
python
UNDERSTANDING HTML WITH LARGE LANGUAGE MODELS
我们为HTML理解模型(经过
微调
liferecords
·
2024-03-28 21:56
LLM
语言模型
人工智能
自然语言处理
大模型的学习 LLaMa和
ChatGLM
,minichatgpt4
LLaMa和
ChatGLM
,minichatgpt4什么情况用Bert模型,什么情况用LLaMA、
ChatGLM
类大模型,咋选?
贝猫说python
·
2024-03-27 07:55
学习
llama
人工智能
SWIFT环境配置及大模型
微调
实践
SWIFT环境配置及大模型
微调
实践SWIFT环境配置基础配置增量配置SWIFTQwen_audio_chat大模型
微调
实践问题1:问题2:问题定位解决方法手动安装pytorchSWIFT介绍参考:这里SWIFT
weixin_43870390
·
2024-03-26 22:42
swift
开发语言
ios
SWIFT介绍和学习(简单入门级别)
部署指南vllm非官方介绍资料项目地址:https://github.com/modelscope/swift任何有疑惑的地方,参考项目首页readme寻求答案SWIFT功能介绍SWIFT(可扩展的轻量级
微调
基础设施
weixin_43870390
·
2024-03-26 22:42
swift
学习
开发语言
chatGLM
-6B部署报错quantization_kernels_parallel.so‘ (or one of its dependencies). Try using the full pat
用python部署
chatglm
2时候报错:FileNotFoundError:Couldnotfindmodule'C:\Users\Administrator\.cache\huggingface\
FL1623863129
·
2024-03-20 14:25
环境配置
深度学习
大模型加速与性能对比
事实证明安装之后对于推理速度的提升也很小(5%),网上说对于
微调
训练的速度提升比较大,因为是在内网环境下,安装还费了一番周折。
__如风__
·
2024-03-12 11:58
人工智能
语言模型
刘建华|Day118感恩日记
感恩周末了可以稍
微调
整一下作息时间。早上可以懒懒的躺在床上。感恩柔软的床。感恩我们这些劳动者有休息的周末时光。感恩母亲为我们做好的早餐,泡好的茶。感我吃到的所有食物。
蓝色与星光
·
2024-03-05 17:58
预训练大模型LLM的
微调
PEFT(概述)
微调
的分类对大模型进行二次训练的操作我们通常称为
微调
(Fine-T
若石之上
·
2024-03-05 00:49
人工智能
人工智能
LLM
peft
微调
LORA
054 人民日报图卡仿制-新冠疫苗诈骗套路(20210118)
在图标的亮度,颜色设置方面需要进行
微调
。
霍霍的图卡笔记
·
2024-03-04 13:58
大模型训练——PEFT与LORA介绍
PEFT是一种参数高效的
微调
技术,由Huggingface发布。这种方法的核心思想是仅
微调
少量(额外)模型参数,同时冻结预训练LLM的大部分参数。这样做的好处是大大降低了
MarkHD
·
2024-03-03 10:30
人工智能
深度学习
机器学习
关于数据大屏的设计与开发
但1920放到更高分辨率会出现图片模糊现象、原因就是图片1像素低,可以使用2倍图2、关于开发:大屏使用场景一般是全屏显示,如果在非全屏场景,比例就会与设计稿不同,可以监听全屏和非全屏,使用两套样式进行
微调
码云的一天
·
2024-02-27 03:41
前端
javascript
教你使用 CPU 本地安装部署运行
ChatGLM
-6B实现
今天介绍的
ChatGLM
-6B是一个清华开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。
恒TBOSH
·
2024-02-20 21:05
GPT-4
人工智能
ChatGLM
-6B部署笔记
前言本笔记基于
ChatGLM
-6B开源网站https://github.com/THUDM/
ChatGLM
-6B完成
ChatGLM
的本地部署。
Initiator_W
·
2024-02-20 21:05
pytorch
python
深度学习
人工智能
语言模型
部署
ChatGLM
3-6B模型
模型介绍
ChatGLM
-6B是一个开源的、支持中英双语问答的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行
Hoogte-oile
·
2024-02-20 21:04
学习笔记
学习
笔记
人工智能
自然语言处理
人工智能_普通服务器CPU_安装清华开源人工智能AI大模型
ChatGlm
-6B_001---人工智能工作笔记0096
使用centos安装,注意安装之前,保证系统可以联网,然后执行yumupdate先去更新一下系统,可以省掉很多麻烦20240219_150031这里我们使用centos系统吧,使用习惯了.
ChatGlm
脑瓜凉
·
2024-02-20 21:01
人工智能向量机&爬虫
人工智能
ChatGLM清华大模型
大模型安装
CPU安装大模型
ChatGLM-6B
美国首届生成式人工智能与法律研讨(上)
、生成式AI与法律的跨学科研究3.1确定和定义跨学科术语3.2构建有价值的隐喻3.3理解不断发展的商业模式四、生成式AI的独特性4.1从执行狭义任务到处理开放式任务的转变4.2训练流程的发展:预训练和
微调
岛屿旅人
·
2024-02-20 19:40
网络安全
行业分析
人工智能
安全
安全架构
web安全
网络安全
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他