E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
chatglm微调
“
微调
”有多么重要
前天,得到大学召开2019春季开学典礼,一位叫潘利华的演讲者讲了《
微调
改变世界》。收获颇多。他是广东一家可口可乐的销售经理。他讲了在店铺里陈设可口可乐的过程中。
余生活得更精彩
·
2024-01-19 19:12
C语言入门第一节-初识C语言
bilibili一.C语言的介绍由C编写应用:Unix,Linux,MySQL都是由C編写C程序由各种令牌组成,令牌可以是关键宇,标识符,常量,字符串值,或者是一个符号;1.特点①.高效性C语言具有汇编语言才具有的
微调
控制能力
_阿伟_
·
2024-01-19 18:48
c语言
开发语言
书生·浦语大模型实战营第四节课笔记及作业
XTuner大模型单卡低成本
微调
实战1Finetune简介大语言模型LLM是在海量的文本内容基础上,以无监督或半监督方式进行训练的。海量的文本内容赋予了大模型各种各样的行业知识。
zpc1219
·
2024-01-19 17:30
笔记
书生·浦语大模型实战笔记-Day01
书生·浦语模型性能比较大模型如何做应用开源数据
微调
框架部署链接哔哩哔哩视频
carMacchiato
·
2024-01-19 17:29
笔记
书生·浦语大模型实战营笔记-第四节 XTuner 大模型单卡低成本
微调
实战
书生·浦语大模型实战营笔记第四节XTuner大模型单卡低成本
微调
实战文章目录书生·浦语大模型实战营笔记前言一、Finetune简介1.1两种
微调
模式的简介1.2指令
微调
1.3增量预训练
微调
1.4LoRa
biscuit279
·
2024-01-19 17:29
笔记
书生·浦语大模型实战营04课堂笔记
一、Finetune简介1.LLM下游应用中,两种
微调
模式一种是增量预训练:使用场景是让基座模型学习到一些新知识,如某个垂类领域的常识。
残星流影
·
2024-01-19 17:29
笔记
书生·浦语大模型实战营-学习笔记3
目录(3)基于InternLM和LangChain搭建你的知识库1.大模型开发范式(RAG、Fine-tune)RAG
微调
(传统自然语言处理的方法)2.LangChain简介(RAG开发框架)3.构建向量数据库
Kinno酱
·
2024-01-19 17:27
大模型
学习
笔记
自然语言处理
人工智能
chatgpt
nlp
神经网络
ChatGLM
3报错:No chat template is defined for this tokenizer
使用官方提供的脚本创建
ChatGLM
3的DEMO:cdbasic_demopythonweb_demo_gradio.py出现效果异常问题:====conversation====[{'role':'user
三采
·
2024-01-19 17:56
LLM
ChatGLM3
【Datawhale x 财务学习笔记】用智谱清言的代码沙盒进行分析
体验网址智谱清言:https://
chatglm
.cn/prompt帮我分析一下这个excel文件,从财务角度给出利润情况,并给出优化建议体验结果首先,我将查看上传的Excel文件的内容,以便了解其结构和包含的数据
JeffDingAI
·
2024-01-19 16:21
学习
笔记
【昇思技术公开课笔记-大模型】Bert理论知识
ELMo预训练模型将文本数据结合上下文信息,转换为动态词向量,后根据下游任务训练不同的语言模型BERT同样将文本数据转换为动态词向量,能够更好地捕捉句子级别的信息与语境信息,后续只需对BERT参数进行
微调
JeffDingAI
·
2024-01-19 16:21
笔记
bert
人工智能
清华开源语言大模型
ChatGLM
3部署实战
清华开源语言大模型
ChatGLM
3部署实战安装环境下载模型文件测试是否安装成功gpu推理cpu推理量化推理
ChatGLM
3是智谱AI和清华大学KEG实验室联合发布的新一代对话预训练模型。
Silver__Wolf
·
2024-01-19 15:16
语言模型
python
清华开源语言大模型
ChatGLM
3联通one-api实现快速部署
清华开源语言大模型
ChatGLM
3联通one-api实现快速部署安装
ChatGLM
3开启openai-api端口安装one-api安装
ChatGLM
3详见我的上一篇文章:清华开源语言大模型
ChatGLM
3
Silver__Wolf
·
2024-01-19 15:16
人工智能
让大模型忘掉隐私数据,卡内基开源TOFU
目前,多数大语言模型都是从网络上收集的大量数据进行预训练、
微调
。使得这些模型面临泄露用户隐私、数据安全等多种问题。尽管开发者提出了各种“遗忘”方法,能使大模型“忘记”训练数据中的某些隐私、敏感的数据。
RPA中国
·
2024-01-19 15:45
人工智能
Bert模型的基本原理与Fine-tuning
文章目录基本原理BERT的输入Fine-tuning(
微调
)BERT用于sequence的分类任务BERT用于问答任务BERT用于NER(实体命名识别)本文主要讲解Bert模型的基本原理与Fine-tuning
zhong_ddbb
·
2024-01-19 14:37
深度学习
自然语言处理
推荐系统
自然语言处理
BERT
hilbert
transform
大规模语言模型高效参数
微调
--P-Tuning
微调
系列
P-Tuning该方法的提出主要是为了解决这样一个问题:大模型的Prompt构造方式严重影响下游任务的效果。比如:GPT-3采用人工构造的模版来做上下文学习(incontextlearning),但人工设计的模版的变化特别敏感,加一个词或者少一个词,或者变动位置都会造成比较大的变化。同时,近来的自动化搜索模版工作成本也比较高,以前这种离散化的token的搜索出来的结果可能并不是最优的,导致性能不稳
hanscalZheng
·
2024-01-19 14:05
大语言模型
机器学习
人工智能
深度学习
深度解析 P-tuning v2 为什么对大模型有效
/arxiv.org/pdf/2110.07602.pdf项目地址:https://github.com/THUDM/P-tuning-v2技术背景P-tuningv2的产生源于对bert类模型开创的
微调
weixin_45079449
·
2024-01-19 14:05
NLP大模型基础
人工智能
机器学习
深度学习
使用
微调
大语言模型解析肌肉骨骼疼痛疾病的临床健康记录
论文下载地址:https://www.thelancet.com/journals/landig/article/PIIS2589-7500(23)00202-9/fulltext目的:使用经过
微调
的大型语言模型
AI明说
·
2024-01-19 14:04
AI助力科研
语言模型
人工智能
chatgpt
P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks
起源于使用deepprompttuning,在预训练模型的每一层使用continuousprompts,Deepprompttuning增加了continuousprompts的容量也缩小了在各种设置中进行
微调
的差距
Tsukinousag1
·
2024-01-19 14:04
python
机器学习
深度学习
人工智能
大数据
openai模型个性化训练Embedding和fine-tuning区别
这种情况下通常有两种办法,一种是
微调
(fine-tu
程序员老狼
·
2024-01-19 14:03
人工智能
机器学习
还没搞懂嵌入(Embedding)、
微调
(Fine-tuning)和提示工程(Prompt Engineering)?...
theme:orange嵌入(Embedding)、
微调
(Fine-tuning)和提示工程(PromptEngineering)是AIGC模型的核心功能,合理运行这些功能,能实现一些复杂和意向不到的应用
青Cheng序员石头
·
2024-01-19 14:31
embedding
prompt
机器学习
人工智能
提示词工程: 大语言模型的Embedding(嵌入和Fine-tuning(
微调
)
www.promptengineering.org/master-prompt-engineering-llm-embedding-and-fine-tuning/)的中文翻译,用以详细介绍Embedding(语义嵌入)和FineTuning(
微调
AI明说
·
2024-01-19 14:30
AIGC
语言模型
人工智能
深度学习
大模型关键技术:上下文学习、思维链、RLHF、参数
微调
、并行训练、旋转位置编码、模型加速、大模型注意力机制优化、永久记忆、LangChain、知识图谱、多模态
大模型关键技术大模型综述上下文学习思维链CoT奖励建模参数
微调
并行训练模型加速永久记忆:大模型遗忘LangChain知识图谱多模态大模型系统优化AI绘图幻觉问题从GPT1-GPT4拆解GPTs对比主流大模型技术点旋转位置编码层归一化激活函数注意力机制优化大模型综述你知道嘛
Debroon
·
2024-01-19 14:14
#
深度学习
医学大模型
transformer
学习
langchain
82天系列,已盈利307.74%(第三天)
仅供学习交流用,跟单有风险操作逻辑1.依旧坚持昨天的观点2.拐点略
微调
整7800附近,如果上去继续持有,4H站不稳(数据看空)转空头,预计50小时内有方向3.目前看还算安全位,但绝对不意味没有3打头的BTC
Lan_8649
·
2024-01-19 13:12
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(一)
一、前言基于真实生产级项目分享,帮助有需要的同学快速构建完整可交付项目项目流程包括(去掉业务部分):开源模型测试,包括baichuan、qwen、
chatglm
、bloom数据爬取及清洗模型
微调
及评估搭建
charles_vaez
·
2024-01-19 12:30
应用落地
深度学习
大模型学习与实践笔记(六)
一、finetune简介两种
微调
模式:增量预训练与指令跟随1.增量预训练2.指令
微调
二、LoRA与QLoRA介绍三、XTuner介绍四、低显存玩转LLM的方法
AllYoung_362
·
2024-01-19 10:24
llama
langchain
AIGC
深度学习
人工智能
chatgpt
gpt
5、模型的欠拟合和过度拟合
微调
您的模型以获得更好的性能。
AI算法蒋同学
·
2024-01-19 10:43
从零开始的机器学习导论
机器学习
Multi-Concept Customization of Text-to-Image Diffusion——【代码复现】
]Multi-ConceptCustomizationofText-to-ImageDiffusion(arxiv.org)一、引言本文主要做的工作是对stable-diffusion的预训练模型进行
微调
我是浮夸
·
2024-01-19 08:21
代码复现
图像处理
stable
diffusion
深度学习
NLP预训练模型系列-GPT
预训练模型系列-GPT1.BERT2.GPT目录NLP预训练模型系列-GPT前言1.Abstract2.Introduction3.RelatedWork4.Framework4.1无监督预训练4.2有监督
微调
Maxi_0902
·
2024-01-19 06:05
NLP
自然语言处理
python
机器学习
麻瓜变白袍巫师?SLEICL新范式:强模型生成“魔法书”增强弱模型性能直逼GPT-4...
人大、上海算法创新研究院作者:Ki-Seki1.问题引入ICL作为一种大模型领域的学习范式最早是在OpenAI公司关于GPT3.5的技术报告中首次提出,主要是因为当时提升大模型在下游任务表现的主要方法是
微调
zenRRan
·
2024-01-19 06:03
人工智能
python
算法
机器学习
深度学习
大模型入门2: 指令
微调
大模型评测指令
微调
数据部署Fine-tuningcustomizesapretrainedLLMforaspecificdomainbyupdatingmostorallofitsparameterswithadomain-specificdataset.Thisapproachisresource-intensivebutyieldshighaccuracyforspecializeduseca
YueTann
·
2024-01-19 05:07
数据库
【LLM】一种经过指令
微调
的文本嵌入模型
概述引入了INSTRUCTOR,一种计算给定任务指令的文本嵌入的新方法:每个文本输入都与解释用例的指令(例如任务和域描述)嵌入在一起。与之前工作中更专业的编码器不同,INSTRUCTOR是一个单一的嵌入器,可以生成针对不同下游任务和领域的文本嵌入,无需任何进一步的培训。首先对330个不同任务的指令进行注释,并在这种多任务混合上使用对比损失来训练INSTRUCTOR。在70个嵌入评估任务(其中64个
余俊晖
·
2024-01-19 03:25
自然语言处理
大语言模型
自然语言处理
LLM
大语言模型
指令微调
文本嵌入
文本相似度
目标检测--02(Two Stage目标检测算法1)
采用大样本下(ILSVRC)有监督预训练和小样本(PASCAL)
微调
(fine-tuning)的方法解决小样本难以训练甚至过拟合等问题。注
普通研究者
·
2024-01-19 03:51
计算机视觉面试题
深度学习
目标检测
算法
人工智能
LaWGPT安装和使用教程的复现版本【细节满满】
该系列模型在通用中文基座模型(如Chinese-LLaMA、
ChatGLM
等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。
D洁洁和W的御用Programmer
·
2024-01-18 22:57
大模型安装
NLP
语言模型
nlp
智能法律
行有不得反求诸己
本来受邀在一个微信群里讲一节微课,也是之前磨课讲过的,觉得稍
微调
整一下就可以了,也算是成竹在胸了,可是今天讲完之后感觉糟糕透了。虽然最后讲了五十分钟左右,算是讲下来了,
天天_27d6
·
2024-01-18 19:37
在Mac m1运行
ChatGLM
3-6B cpu版本1-3秒出结果
具体过程如下:1.准备环境gitclone--recursivehttps://github.com/li-plus/
chatglm
.cpp.git&&cdchatglm.cppgitsubmoduleupdate
wxl781227
·
2024-01-18 16:18
ChatGLM3
M1
Mac
T4
gpt-3.5-turbo-0613
微调
信用卡分期对话
1、数据准备:jsonl格式。样本:至少10个。d_train.jsonl{"messages":[{"role":"system","content":"您是一位经验丰富的信用卡账单分期产品的销售助手。当前分期产品产品的特点是允许客户延期2个月开始还款,有12期和24期。销售流程包括开场白、引导分期、核实客户身份、确认成交及结束语这个几个阶段。优先引导客户分24期,24期利息与12期一样,但每期
wxl781227
·
2024-01-18 16:47
开源大模型微调
gpt3.5-turbo
对话微调
openai
使用 Neo4j 和 LangChain 集成非结构化知识图增强 QA
目前基于大模型的信息检索有两种方法,一种是基于
微调
的方法,一种是基于RAG的方法。
深度学习算法与自然语言处理
·
2024-01-18 15:56
大模型实战
NLP与大模型
langchain
知识图谱
neo4j
大语言模型
大模型
深度学习
自然语言处理
十分钟部署清华
ChatGLM
-6B,实测效果超预期(Linux版)
前段时间,清华公布了中英双语对话模型
ChatGLM
-6B,具有60亿的参数,初具问答和对话功能。最!最!最重要的是它能够支持私有化部署,大部分实验室的服务器基本上都能跑起来。
深度学习算法与自然语言处理
·
2024-01-18 15:25
NLP与大模型
自然语言处理
人工智能
深度学习
大模型
大语言模型
十分钟读完「斯坦福提出的革新AI训练的新算法DPO」论文
无需强化学习也能
微调
对齐大语言模型引言:探索无监督语言模型的可控性挑战在人工智能领域,无监督语言模型(LanguageModels,LMs)的发展已经达到了令人惊叹的水平,这些模型能够在广泛的数据集上进行预训练
夕小瑶
·
2024-01-18 12:15
人工智能
深度学习
语言模型
论文阅读
自然语言处理
nlp
大模型
十分钟读完「降低 LLaMA 模型
微调
内存占用的QLoRA」论文
QLoRA提出内存高效的
微调
方法!
夕小瑶
·
2024-01-18 12:45
llama
nlp
人工智能
深度学习
语言模型
机器学习
2024年1月17日Arxiv热门NLP大模型论文:MIT、IBM推出新方法,大幅提升LLMs的连贯性、准确性和可更新性!
为了解决这些问题,研究者们提出了一种新的LM
微调
方法——DeductiveClosureTraining(DCT)。DCT的核心思想是利用LMs自身在推理时的能力,通过自
夕小瑶
·
2024-01-18 12:13
人工智能
深度学习
机器学习
NLP
论文阅读
神经网络
大语言模型的32种消除幻觉的技术,你都了解吗?
提示工程涉及基于检索增强的方法、基于反馈的策略或提示
微调
;模型开发则可分为多种方法,包括新的解码策略、基于知识图谱的优化、新增的损失函数
夕小瑶
·
2024-01-18 12:12
语言模型
人工智能
深度学习
浅析GitHub Copilot
技术实现与原理基于Transformer的模型:Copilot的核心是基于GPT-3(以及后续更先进的版本)架构训练的大型语言模型,该模型在海量的开源代码库上进行了
微调
。
星辰引路-Lefan
·
2024-01-18 11:36
系列文章
copilot
碎碎念22/100
参加一个线下沙龙,沙龙结束,摄影师的图片几乎是同步分享,每个人基本有一张,也
微调
过,并加上了组织logo。
阿离的小空间
·
2024-01-18 10:39
书生·浦语大模型实战营第三次课堂笔记
Ft:完成传统自然语言处理算法的
微调
核心思想:在一个新的较小的训练集上,进行轻量
Unicornlyy
·
2024-01-18 10:20
大模型
笔记
微软仅用提示词就让ChatGPT达到专业医师水平
微软的最新研究再次证实了提示工程的强大作用——仅仅通过使用提示,GPT-4就能够像一个专家一样发挥作用,而无需进行额外的
微调
或专家策划。
ooope
·
2024-01-18 06:14
chatgpt
人工智能
AIGC
比chatPDF更优秀的国内平替
2、它和
微调
不同。所有问题都是基于现有文档。而且每次都是根据你的提问,在文档转化成的向量数据里寻找相关联的内容,一同发给chatGPT,然后由chatGPT进行回复。
ooope
·
2024-01-18 06:43
chatgpt
人工智能
阿里云
带着问题学LLM
常用模型大小对比
chatglm
-6bmodel=AutoModel.from_pretrained(model_path,trust_remote_code=True,device_map='auto'
zhouzhou0929
·
2024-01-18 01:07
LLM
语言模型
MOSS LORA 方式
微调
报错,RuntimeError: expected scalar type Half but found Float解决方案
最近用V100
微调
MOSS、
ChatGLM
等模型,过程中报错RuntimeError:expectedscalartypeHalfbutfoundFloat解决方案为:在model_class.model.from_pretrained
uloveqian2015
·
2024-01-18 01:07
深度学习
pytorch
自然语言处理
AI新工具(20240117):GLM-4,Stable Code 3B,Motionshop等
此外,GLM-4还具有128K长文本能力、多模态能力和功能调用等特点,较上一代
ChatGLM
3在综合能力上实现了全面跃升,性能提升了60%,已经逼近GPT-4。GLM-4还发布了
go2coding
·
2024-01-18 00:43
AI日报
人工智能
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他