E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
chatglm微调
【Flask + AI】接入
CHATGLM
API 实现翻译接口
【Flask+AI】接入CHATGLMAPI实现翻译接口最近的项目中,需要加一个翻译功能,正好
chatglm
4发布了,于是决定着手用它实现。
正宗咸豆花
·
2024-02-08 20:32
flask
python
后端
人工智能
使用 vLLM 部署本地 LLM 指南
vLLMGitHub首页vLLM官方文档vLLM安装与模型下载vLLM安装:直接pipinstall即可我选取了OpenChat-3.5-0106模型,这个模型是由mistralai/Mistral-7B-v0.1
微调
得到的
明月出天山_
·
2024-02-08 20:31
LLM
实战
NLP
语言模型
LLM
vLLM
python
(2024,低比特模型量化,模型
微调
,QuEST,TAQuant)QuEST:通过高效选择性
微调
进行低比特扩散模型量化
Low-bitDiffusionModelQuantizationviaEfficientSelectiveFinetuning公和众和号:EDPJ(进Q交流群:922230617或加VX:CV_EDPJ进V交流群)目录0.摘要2.相关工作3.方法3.1.预备知识3.2.扩散模型的量化感知属性3.3.通过高效选择
微调
进行量化
EDPJ
·
2024-02-08 20:49
论文笔记
人工智能
计算机视觉
对一课多文情况的梳理 2021-08-19
统计数据如下:全套书144课(以2016年发行的为例,每年会有
微调
),涉及到一课多文本的:七年级上册4课、七年级下册3课、八年级上册6课、八年级下册5课、九年级上册1课、九年级下册5课,共计42课,占全套书的
在夜的深处想你
·
2024-02-08 18:39
2018-11-19
今天英语课没有换班,老师说成绩还没有出来,并且这次考试只会做一个
微调
,这一周就先像以前一样上课,下周在根据成绩进行
微调
。
少的
·
2024-02-08 17:21
NLP_“预训练+
微调
大模型”模式和Prompt/Instruct模式的异同
文章目录“预训练+
微调
大模型”的模式以提示/指令模式直接使用大模型“预训练+
微调
大模型”模式和Prompt/Instruct模式的异同小结“预训练+
微调
大模型”的模式经过预训练的大模型所习得的语义信息和所蕴含的语言知识
you_are_my_sunshine*
·
2024-02-08 09:54
NLP
自然语言处理
prompt
人工智能
SAM大模型遥感领域测评
关注图像或者遥感语义分割的同事可能知道,语义分割作为计算机视觉的核心任务,应用广泛,但最大的限制就是需要大量的标注数据,并且针对不同的任务需要重新训练或
微调
,试想,
未来GIS实验室
·
2024-02-08 08:52
计算机视觉
深度学习
人工智能
crew异步任务入门
CrewimportChatGLMfromlangchain.agentsimportToolfromlangchain_community.toolsimportDuckDuckGoSearchRunllm=
ChatGLM
.
ChatGLM
_LLM
hehui0921
·
2024-02-08 08:50
LangChain
langchain
LangChain的提示词仓库的使用
fromChatGLMimportChatGLM_LLMfromlangchain.chainsimportLLMChainfromlangchainimporthubprompt1=hub.pull("homanp/question-answer-pair")llm=
ChatGLM
_LLM
hehui0921
·
2024-02-08 08:19
LangChain
langchain
python
java
crewai 入门
CrewimportChatGLMfromlangchain.agentsimportToolfromlangchain_community.toolsimportDuckDuckGoSearchRunllm=
ChatGLM
.
ChatGLM
_LLM
hehui0921
·
2024-02-08 08:19
LangChain
python
开发语言
AI大模型开发架构设计(10)——AI大模型架构体系与典型应用场景
GPT助手训练流程横向来看,分为四步:预训练(无监督、99%算力+时间)、有监督
微调
、奖励模型、强化学习纵向来看,每一部分
讲文明的喜羊羊拒绝pua
·
2024-02-08 07:45
AIGC
AIGC
大模型架构体系
大模型典型应用场景
如何让一个全职宝妈不变成一个怨妇
自从儿子出生后,带娃的手忙脚乱,老公在外上班无人倾诉,公婆之间有代沟,远嫁的孤单,让我变成了一个泼妇,一个怨妇…只要女儿稍
微调
皮捣蛋,我就一顿咆哮,衣架拿起。还要不要玩水啦,你怎么说都不听呢。
一禅_8f4a
·
2024-02-08 05:52
OCR升级版 —
微调
EasyOCR实战
如果您面临这样的问题,
微调
OCR引擎是解决的一种方法。在本教程中,我将向您展示如何
微调
EasyOCR,这是一个免费、开源的OCR引擎,您可以在Python中使用。
小北的北
·
2024-02-08 04:24
ocr
网易和腾讯面试题精选---性能和优化面试问题
从理解CPU缓存层次结构的复杂性到利用高级缓存机制,从优化数据库交互到
微调
分布式系统,这本综合指南提供了对性能优化的多方面的见解。面试问答1
前网易架构师-高司机
·
2024-02-08 00:15
服务器面试题
面试
性能优化
ChatGPT入门教程大纲
第一部分:ChatGPT基础知识ChatGPT概述什么是ChatGPTChatGPT的应用领域ChatGPT的工作原理语言模型和深度学习的概念Transformer架构的介绍预训练和
微调
的过程ChatGPT
weixin_40525760
·
2024-02-07 19:06
chatgpt
人工智能
大语言模型
微调
数据集(2)
CLUE数据集CLUE是一个中文语言理解测评基准,包括分类、命名实体识别和机器阅读理解任务。CLUE中的数据集为JSON格式。对于分类和命名实体识别数据集,我们将JSON格式转换为TSV格式,以便TencentPretrain可以直接加载它们;对于机器阅读理解数据集,我们保留原始格式,并将数据集预处理相关代码放在项目中。分类:数据集链接TNEWS---------------https://sha
三更科技公社
·
2024-02-07 19:03
AI前沿与LLM
chatGPT
语言模型
人工智能
自然语言处理
Google DeepMind最新研究,将视觉语言大模型作为强化学习的全新奖励来源
https://arxiv.org/abs/2312.09187在大型语言模型(LLM)不断发展的进程中,强化学习扮演了重要的角色,ChatGPT就是在GPT-3.5的基础上经过人类反馈的强化学习算法
微调
得到
TechBeat人工智能社区
·
2024-02-07 17:51
技术文章
自然语言处理
计算机视觉
视觉语言模型
强化学习
奖励模型
Scaling Laws for Forgetting When Fine-Tuning Large Language Models
微调
大型语言模型时遗忘的比例律摘要1引言2相关工作和背景3方法和实验设置4经验结果和遗忘规律5结论摘要我们研究并量化了在下游任务中
微调
预先训练的大型语言模型(LLM)时的遗忘问题。
UnknownBody
·
2024-02-07 16:23
LLM
语言模型
人工智能
算法
【自然语言处理】
微调
Fine-Tuning 各种经典方法的概念汇总
【自然语言处理】
微调
Fine-Tuning各种经典方法的概念汇总前言请看此
微调
Fine-TuningSFT监督
微调
(SupervisedFine-Tuning)概念:监督学习,无监督学习,自监督学习,半监督学习
溢流眼泪
·
2024-02-07 07:11
【科研】
自然语言处理
人工智能
全世界 LoRA 训练脚本,联合起来!
我们把Replicate在SDXLCog训练器中使用的枢轴
微调
(PivotalTuning)技术与Kohya训练器中使用的Prodigy优化器相结合,再加上一堆其他优化,一起对SDXL进行DreamboothLoRA
工业甲酰苯胺
·
2024-02-07 06:28
人工智能
开发语言
java
python
LLM——大型语言模型简介
大型语言模型(LLM)是指可以进行预训练并出于特定目的进行
微调
的大型通用语言模型。1.预训练:预训练是为一般用途而训练,用于解决常见
LinkyuW
·
2024-02-07 05:45
语言模型
人工智能
辛巴讨好球球吃相难看,赵本山妻子曝光女儿沉迷整容,已成病态
当然了,麦叔的话针对绝大多数明星,但也有部分人表示:整容、
微调
都存在安全隐患,自
麦大人
·
2024-02-06 23:28
CodeFuse成功支持通义千问算法大赛,评测方案已开源
前段时间,首届通义千问AI挑战赛成功举办,CodeFuse为大赛提供技术支持,模型
微调
框架MFTCoder和CodeFuseEval评测框架为大赛保驾护航,助力大赛圆满完成。
CodeFuse
·
2024-02-06 22:38
算法
人工智能
AIGC
开源
语言模型
ai编程
CodeFuse-VLM 开源,支持多模态多任务预训练/
微调
CodeFuse-MFT-VLM项目地址:https://github.com/codefuse-ai/CodeFuse-MFT-VLMCodeFuse-VLM-14B模型地址:CodeFuse-VLM-14BCodeFuse-VLM框架简介随着huggingface开源社区的不断更新,会有更多的visionencoder和LLM底座发布,这些visionencoder和LLM底座都有各自的强项,
CodeFuse
·
2024-02-06 22:37
AIGC
人工智能
语言模型
开源
ai编程
linux上部署ftp服务
今天同事让帮忙部署一个ftp服务,以前折腾过几次,不过总会有奇奇怪怪的问题.今天的话结合
chatglm
4,整理了一下部署.在CentOS7上部署FTP服务,可以使用VSFTP(VerySecureFTPDaemon
白日与明月
·
2024-02-06 21:04
运维实施
linux
centos
运维
不!GPTs无法取代知识库?0基础搭建本地私有知识库!本地fastgpt部署!16/45
在这个系列我们做了大模型的
微调
,如何构建数据集、如何去做数据处理、做
微调
策略、算
微调
参数!新来的朋友去检索!群里朋友聊,GPTs出来后,还有必要做私有知识库吗?有!
一意AI增效家
·
2024-02-06 20:20
人工智能
语言模型
nlp
python
pytorch
Oracle AutoVue 21.0.2.4 支持的文件格式
每次Autovue发行新版本时,都会稍
微调
整它支持的文件格式.截止到2020年8月,Autovue的最新版本是v21.0.2.4,它支持的主要文件格式见下图中表格:
justin.jin
·
2024-02-06 18:51
Autovue
PLM
Autovue
格式
PLM
最新版
可视化
不忘初心,正确把握好人生成长轨迹
因此,对于有梦想的人来说,须从自身梦想出发,清晰设计梦想目标并持续坚持与适时
微调
,管控好、把握好过程中、成长中、人生前行中每一个可能影响或影响其个人梦想目标实际的每一个瞬间。
陈安富金融一生
·
2024-02-06 18:18
【
ChatGLM
3】
微调
指南
下载数据集ToolAlpaca从GitHub下载cdChatGLM3/finetune_chatmodel_demogitclonehttps://github.com/tangqiaoyu/ToolAlpaca.git除基础的torch依赖外,示例代码运行还需要依赖:pipinstalltransformers==4.30.2acceleratesentencepieceastunparsede
太空眼睛
·
2024-02-06 17:38
人工智能
大语言模型
P-Tuning
ChatGLM3
微调
训练
checkpoint
使用PaddleNLP识别垃圾邮件:用ELECTRA做英文邮件标题分类,英文邮件短标题的分类效果能达到92%以上以及如何使用PaddleNLP加载和
微调
ELECTRA模型?(附公开数据集)
使用PaddleNLP识别垃圾邮件:用ELECTRA做英文邮件标题分类,英文邮件短标题的分类效果能达到92%以上以及如何使用PaddleNLP加载和
微调
ELECTRA模型?
代码讲故事
·
2024-02-06 12:01
机器人智慧之心
分类
数据挖掘
ELECTRA
PaddleNLP
NLP
垃圾邮件
邮件识别
AI&大模型 | llama2
微调
手册查看ing
提示词说明[INST]>{{system_prompt}}>{{user_message}}[/INST]其中,,,>,>,[INST],以及[/INST]是特殊token,标记着prompt中各个部分的构成。每一组和之间是一个相对完整的单元,可以理解为一个对话轮次(如果直接给一个文本作为输入,也可以看到模型的输入结果分别是以这两个BOS和EOStoken作为结尾的)。[INST]和[/INST]
ASKCOS
·
2024-02-06 10:31
人工智能
【人工智能】Fine-tuning
微调
:解析深度学习中的利器(7)
在深度学习领域,Fine-tuning
微调
是一项重要而强大的技术,它为我们提供了在特定任务上充分利用预训练模型的途径。
魔道不误砍柴功
·
2024-02-06 10:24
AI
大模型
人工智能
深度学习
基于Langchain-Chatchat +
chatGLM
3 轻松在本地部署一个知识库
前面三篇分别讲解了如何在本地环境部署大模型,那么今天简单的通过Langchain-Chatchat和
chatGLM
3结合在本地环境搭建一套属于自己的大模型知识库。
最美dee时光
·
2024-02-06 07:53
LLM
langchain
如何在本地部署
chatGLM
3
文章目录1.参考2.
ChatGLM
3介绍3.本地运行3.1硬件配置3.2下载
ChatGLM
3代码3.3下载需要加载的模型3.4运行大模型3.4.1
ChatGLM
3目录介绍3.4.2安装依赖3.4.2综合
最美dee时光
·
2024-02-06 07:22
LLM
chatGML3
基于
ChatGLM
.cpp实现低成本对
ChatGLM
3-6B的量化加速
文章目录1.参考2.
ChatGLM
3介绍3.本地运行3.1硬件配置3.2下载
ChatGLM
3代码3.3量化模型3.4编译和运行3.4.1编译3.4.12运行4.python绑定4.1安装4.2使用预先转换的
最美dee时光
·
2024-02-06 07:22
LLM
chatGLM3
ChatBLM.cpp
【机器学习与自然语言处理】预训练 Pre-Training 各种经典方法的概念汇总
【NLP概念合集:一】预训练Pre-Training,
微调
Fine-Tuning及其方法的概念区别前言请看此正文预训练Pre-Training无监督学习unsupervisedlearning概念:标签
溢流眼泪
·
2024-02-06 07:18
【科研】
机器学习
自然语言处理
人工智能
我的2020年第二十一周周总结
地点:家中时间:9:51天气:晴心情:平静这周成就事件个人成长1、这周开始聚焦于一个目标行动,实施减肥以计划,做到了一周运动三次,每次1个小时,同时监控目标完成过程,并进行细
微调
整,虽然本周累计减重1斤
融雪rongxue
·
2024-02-06 06:24
LoRA:语言模型
微调
的计算资源优化策略
编者按:随着数据量和计算能力的增加,大模型的参数量也在不断增加,同时进行大模型
微调
的成本也变得越来越高。全参数
微调
需要大量的计算资源和时间,且在进行切换下游任务时代价高昂。
Baihai IDP
·
2024-02-06 06:53
技术干货
LLM
prompt
白海科技
深度学习
人工智能
大语言模型
2021-11-07大数据学习日志——MySQL进阶——报表项目
为了满足课程需求,数据库数据在原始数据基础上做了
微调
。基于此份数据,我们将通过SQL来创建数据报表,满足业务需求。
王络不稳定
·
2024-02-06 03:03
mysql
数据库
database
忘记 RAG:拥抱Agent设计,让 ChatGPT 更智能更贴近实际
然而,重点主要是改进检索工具的效率,如嵌入式搜索、混合搜索和
微调
嵌入,而不是智能搜索。这篇文章介绍了一种新的方法,灵感来自人类研究方法,涉及多种搜索技术,观察中间结果,不断完善和重试,然后才提供回应。
ericliu2017
·
2024-02-06 00:56
LLM
RAG
七月论文审稿GPT第2.5版:
微调
GPT3.5 turbo 16K和llama2 13B以扩大对GPT4的优势
前言自去年7月份我带队成立大模型项目团队以来,我司至今已有5个项目组,其中第一个项目组的AIGC模特生成系统已经上线在七月官网第二项目组的论文审稿GPT则将在今年34月份对外上线发布第三项目组的RAG知识库问答第1版则在春节之前已就绪至于第四、第五项目组的大模型机器人、Agent则正在迭代中所有项目均为会对外上线发布的商用项目,而论文审稿GPT至今在过去的半年已经迭代两个版本,其中第二版的效果甚至
v_JULY_v
·
2024-02-05 20:19
论文
代码
应用
论文审稿GPT
微调GPT3.5
turbo
微调llama2
13B
文心一言4.0API接入指南
文心一言企业服务由千帆大模型平台提供,包括推理服务及大模型
微调
等一系列开发和应用工具链。文心一言大模型现已升级至4.0,企业客户可通过百度智能云千帆大模型平台申
小小晓晓阳
·
2024-02-05 20:37
LLM
文心一言
人工智能
gpt
如何将pdf转换成ppt?掌握这个方法就简单多了
有时候,PDF文件的布局和设计可能需要进行
微调
或重新排版,以适应PPT的特定格式和风格。那么怎么pdf怎么转ppt呢?
喝奶茶嘛
·
2024-02-05 19:49
pdf
powerpoint
Sklearn、TensorFlow 与 Keras 机器学习实用指南第三版(九)
微调
您的模型并将它们组合成
绝不原创的飞龙
·
2024-02-05 18:03
人工智能
机器学习
sklearn
tensorflow
使用 LoRA 在 viggo 数据集上
微调
Microsoft phi-2 小语言模型
Phi-2是一个27亿个参数的预训练Transformer,不使用RLHF或指示
微调
。它进行下一个标记预测,并可用于问答、聊天格式和代码生成中的文本生成。
无水先生
·
2024-02-05 18:54
NLP高级和ChatGPT
人工智能
microsoft
语言模型
人工智能
论文笔记--Improving Language Understanding by Generative Pre-Training
-ImprovingLanguageUnderstandingbyGenerativePre-Training1.文章简介2.文章导读2.1概括2.2文章重点技术2.2.1无监督预训练2.2.2有监督
微调
Isawany
·
2024-02-05 15:20
论文阅读
论文阅读
自然语言处理
chatgpt
语言模型
nlp
GPT原始论文:Improving Language Understanding by Generative Pre-Training论文翻译
我们展示了通过在多样化的未标注文本语料库上对语言模型进行生成式预训练,随后对每个特定任务进行区分性
微调
,可以实现这些任务的大幅度改进。与以往的方法不同,我们在
微调
过程中使用了任务感知的输入转换,
iKang_dlut
·
2024-02-05 15:15
gpt
人工智能
深度学习
CVPR 2023: GeoLayoutLM Geometric Pre-Training for Visual Information Extraction
我们使用以下6个分类标准对本文的研究选题进行分析:1.预训练与
微调
:预训练:模型在未适应特定任务之前如何从大量的未标记数据中学习通用表示。
结构化文摘
·
2024-02-05 15:44
人工智能
3d
深度学习
sketch
清华系2B模型杀出,性能吊打LLaMA-13B
具体开源模型包括:基于MiniCPM-2B的指令
微调
与人类偏好对齐的MiniCPM-2
智慧医疗探索者
·
2024-02-05 13:28
深度学习模型
llama
大模型
MiniCPM-2B
Stable Diffusion 模型下载:国风4 GuoFeng4 XL
文章目录模型介绍生成案例案例一案例二案例三案例四案例五案例六案例七案例八案例九案例十下载地址模型介绍欢迎使用GuoFeng4模型-这是一个
微调
后的全能的SDXL模型,也可以说是对国人喜欢的画风
微调
过的模型
水滴技术
·
2024-02-05 12:38
AI绘画从入门到精通
stable
diffusion
AI作画
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他