E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
chatGLM
手把手教你本地CPU环境部署清华大模型
ChatGLM
-6B,利用量化模型,本地即可开始智能聊天,达到ChatGPT的80%
大家好,我是微学AI,今天教你们本地CPU环境部署清华大
ChatGLM
-6B模型,利用量化模型,每个人都能跑动大模型。
微学AI
·
2023-06-07 21:35
深度学习实战(进阶)
chatgpt
chatGLM
大模型
部署
cpu
2023年新课标I卷作文,5位人工智能考生(ChatGPT,文心一言,GPT4,
ChatGLM
-6b, ChatT5)来写作,看谁写得最好
今年是特殊的一年,有人说2023是AI的元年,这一年里有大语言模型的爆发,每天都有大模型的公布,在2023年有文心一言,GPT4,
ChatGLM
等语言模型的发布,我们已经步入人工智能领域的时代,这些模型都能很好的理解人类的语言
微学AI
·
2023-06-07 21:22
人工智能基础部分
人工智能
chatgpt
文心一言
ChatGLM
-6b 多任务微调
ChatGLM
-6b也是一种预训练模型,它也可以通过微调来适应下游任务。实验表明,使用
ChatGLM
-6b微调和Bert类预训练模型微调的效果相近。
HGlyh
·
2023-06-07 19:08
深度学习
人工智能
一键安装langchain-
ChatGLM
chatGLM
推理可以在cpu上运行,但是不建议,速度很慢。6b模型建议12G显卡,最好16G以上(int4好像只要6G)。市面上,16G显存的显卡大概1w左右。24G大概1w5左右。
wuexp
·
2023-06-07 17:25
人工智能
chatgpt
gpu
语言模型
基于本地知识构建简易的chatPDF
Langchain+
chatglm
-6b文章目录Langchain+
chatglm
-6b前言一、实验记录1.1环境配置1.2代码理解1.3补充内容二、总结前言介绍:一种利用
ChatGLM
-6B+langchain
自助者天助也
·
2023-06-07 17:52
NLP
python
深度学习
人工智能
基于
ChatGLM
-6B 搭建个人专属知识库
ChatGLM
-6B部署与P-Tuning微调实战今天树先生教大家无需微调就能实现垂直领域的专业问答,利用
ChatGLM
-6B+lang
程序员树先生
·
2023-06-07 16:47
人工智能
热点
开源技术
人工智能
深度学习
chatgpt
机器学习
开源
ChatGLM
(国内版的chatGPT)
Git链接:GitHub-THUDM/
ChatGLM
-6B:
ChatGLM
-6B:开源双语对话语言模型|AnOpenBilingualDialogueLanguageModel介绍
ChatGLM
-6B是一个开源的
qq_41771998
·
2023-06-07 16:42
人工智能
github
chatgpt
python
pytorch
ChatGLM
-webui-本地安装部署,初试
ChatGLM
-webui1.硬件系统:Window10CPU:Intel(R)Xeon(R)
[email protected]
内存:64G,运行试了下,最少要26G内存,不然电脑卡死显卡:无(使用
木卫二号Coding
·
2023-06-07 16:03
python
人工智能
本地部署 langchain-
ChatGLM
本地部署langchain-
ChatGLM
1.什么是langchain-
ChatGLM
2.什么是langchain3.Github地址4.安装Miniconda35.创建虚拟环境6.部署langchain-
ChatGLM
7
engchina
·
2023-06-07 16:56
LINUX
python
人工智能
langchain
ChatGLM
本地部署
ChatGLM
实战 - 文本信息抽取
1.
ChatGLM
介绍
ChatGLM
-6B是一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。
罗杰海贼团
·
2023-06-07 15:05
AIGC
前沿AI模型实战
自然语言处理
人工智能
python
chatgpt
自然语言处理
AIGC
简单尝试:
ChatGLM
-6B + Stable diffusion管道连接
3.
ChatGLM
-6B和Stablediffusion都有huggingface中的pipeline,做个实验也不困难。4.这里
是魏小白吗
·
2023-06-07 14:48
stable
diffusion
聊聊开源的类ChatGPT工作——
ChatGLM
但要问目前中文领域的“开源”的语言模型谁更强,公认的还是
ChatGLM
-6B(以下简称
ChatGLM
)。
CompHub
·
2023-06-07 13:14
人工智能
互联网摸鱼日报(2023-06-07)
06-07)InfoQ热门话题解决真实工业场景痛点问题,工业互联网技术产业应用走向深水区百度智能云推出代码助手Comate,覆盖30种编程语言,正式开放邀测FATE-LLM新版本发布,支持中文大语言模型
ChatGLM
每日摸鱼大王
·
2023-06-07 13:58
每日摸鱼新闻
业界资讯
【AI实战】给类ChatGPT的大语言模型外挂私有知识库
【AI实战】给类ChatGPT的大语言模型外挂私有知识库原理准备环境代码下载
chatglm
-6b模型权重文件下载Embedding模型GanymedeNil/text2vec-large-chinese
szZack
·
2023-06-07 12:08
大语言模型
chatgpt
chatGLM
langchain
私有知识库
自学大语言模型之
ChatGLM
(一)
在本文中,我将介绍
ChatGLM
相关的技术和github上开源代码的分析。我主要以思维导图的方式讲解代码,去大致了解每段代码实现什么样的功能。
深度学习的学习僧
·
2023-06-07 10:33
语言模型
人工智能
自然语言处理
【奶奶看了都会】云服务器
ChatGLM
模型fine-tuning微调,让你拥有自己的知识库
1.背景大家好啊,上次给大家写了
ChatGLM
-6B的部署使用教程,【奶奶看了都会】云服务器部署开源
ChatGLM
-6B,让你拥有自己的ChatGPT但是因为模型比较小的问题,所以日常工作中可能用不上。
·
2023-06-06 22:02
人工智能机器学习深度学习
以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南
过去几个月里,我们对于大语言模型的一系列探索,如ChatGPT端到端实践与应用开发、LLaMA与
ChatGLM
的微调试验、GitHubCopilot逆向工程分析、动态上下文工程(即LangChain)的研究
Phodal
·
2023-06-06 21:40
语言模型
人工智能
大数据
云原生
自然语言处理
十分钟部署清华
ChatGLM
-6B,实测效果还可以~~(Linux版)
引言前段时间,清华公布了中英双语对话模型
ChatGLM
-6B,具有60亿的参数,初具问答和对话功能。最!最!最重要的是它能够支持私有化部署,大部分实验室的服务器基本上都能跑起来。
语音之家
·
2023-04-21 21:39
智能语音
linux
python
conda
建木社区、
ChatGLM
团队与青田创新赋能中心打造AI对话体验平台
为了让更多人体验到大模型的威力,建木社区、
ChatGLM
团队与青田创新赋能中心携手合作,推出了一款全新的AI对话体验。
·
2023-04-21 17:15
chatgpt人工智能
大语言模型-中文
chatGLM
-LLAMA微调
https://github.com/27182812/
ChatGLM
-LLaMA-chinese-insturct中文instruct在
chatGLM
,LLAMA上的表现
YueTann
·
2023-04-20 16:41
人工智能
大语言模型-微调
chatglm
6b
使用lora微调
chatglm
6bhttps://github.com/yuanzhoulvpi2017/zero_nlp/tree/main/simple_thu_
chatglm
6b还是来自上一篇文章
YueTann
·
2023-04-20 16:11
语言模型
自然语言处理
深度学习
大语言模型-中文Langchain
中文Langchain使用
chatGLM
6b+langchain实现本地化知识库检索与智能答案生成https://github.com/yanqiangmiffy/Chinese-LangChain配置
YueTann
·
2023-04-20 16:06
语言模型
python
深度学习
文本聚类与摘要,让AI帮你做个总结
通过sentence_transformers这样的开源库和
ChatGLM
这样的开源大语言模型,不依赖OpenAI,我们也可以完成简单的电商FAQ的问答。不过,这里面
小极客geekbang
·
2023-04-20 10:09
程序员
后端
算法
Java
Go
计算机基础
容器
大数据
本地化部署大语言模型
ChatGLM
本地化部署大语言模型
ChatGLM
本地化部署大语言模型
ChatGLM
前期筹备GitHub基础包语言模型文件基础配置显存查看方法Anaconda模块Anaconda环境创建根目录操作基础依赖加载transformers
Maddie_Mo
·
2023-04-20 07:24
语言模型
javascript
人工智能
浅尝prompt咒语设计:one-shot微调
chatglm
-6b实践信息抽取
前言近期以chatgpt等文生成LLMS爆火,国内也逐渐开源了中文版的chatgpt,本文以清华大学开源的6b的
chatglm
为例,实践one-shot微调,设计prompt咒语在信息抽取领域的实验效果
nlp炼丹师
·
2023-04-19 01:24
NLP
人工智能
深度学习
自然语言处理
文本生成
大语言模型
windows下实现对
chatGLM
-6B的微调
1、前言默认读者已成功部署
chatGLM
-6B,如果没有部署完毕,请参阅下列文章(同为笔者所写)https://blog.csdn.net/Asunazhang/article/details/130094252
Asunazhang
·
2023-04-19 01:51
python
ChatGLM
-6B论文代码笔记
ChatGLM
-6B文章目录
ChatGLM
-6B前言一、原理1.1优势1.2实验1.3特点:1.4相关知识点二、实验2.1环境基础2.2构建环境2.3安装依赖2.4运行2.5数据2.6构建前端页面3总结前言
自助者天助也
·
2023-04-19 01:21
NLP
笔记
python
人工智能
【奶奶看了都会】云服务器部署开源
ChatGLM
-6B,让你也能拥有自己的ChatGPT
之前国内网随便访问GPT3,现在动不动就封号所以,今天就来教大家部署国内清华大学开源的
ChatGLM
-6B。简单介绍下,
ChatGLM
是对话语言模型,对中文问答和对
·
2023-04-18 22:54
算法人工智能python
又是王炸!微软开源贾维斯
随着ChatGPT的诞生,众多大模型也如雨后春笋般涌现,包括斯坦福的Alpaca,Meta的LLAMA,OpenAI的whisper以及stable-diffusion,还有清华大学开源的中文大语言模型
ChatGLM
·
2023-04-18 22:57
chatgptaigc
清华大学
ChatGLM
-6B部署运行
一、模型介绍开源项目:GitHub-THUDM/
ChatGLM
-6B:
ChatGLM
-6B:开源双语对话语言模型|AnOpenBilingualDialogueLanguageModelChatGLM-
Tom 1988
·
2023-04-18 04:56
外行人尝试AI
人工智能
chatglm
nlp
深度学习
【奶奶看了都会】云服务器部署开源
ChatGLM
-6B,让你也能拥有自己的ChatGPT
之前国内网随便访问GPT3,现在动不动就封号所以,今天就来教大家部署国内清华大学开源的
ChatGLM
-6B。简单介绍下,
ChatGLM
是对话语言模型,对中文问答和对
卷福同学
·
2023-04-17 07:15
奶奶看了都会
服务器
开源
chatgpt
四种自制代码生成对比:哪种方法最适合微调?
在过去的几周里,我们尝试自己结合开源的大模型LLaMA、
ChatGLM
进行模型微调,除了业务部分的探索,还有很大一部分在技术方面的探索,诸如于代码辅助生成。
Phodal
·
2023-04-17 02:15
基于
ChatGLM
-6b+Streamlit+QDrant+DuckDuckGo搭建本地问答机器人及缓解时效性问题方案
本地部署
chatglm
及缓解时效性问题的思路:模型使用
chatglm
-6b4bit,推理使用huggingface,前端应用使用streamlit或者gradio。微调对显存要求较高,还没试验。
datamonday
·
2023-04-16 16:35
AIGC
机器人
pytorch
人工智能
chatgpt
chatglm
Python:清华
ChatGLM
-6B中文对话模型部署
1、简介
ChatGLM
-6B是一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。
拾荒的小海螺
·
2023-04-15 23:43
Python
python
开发语言
ChatGLM
本地部署的详细教程
ChatGLM
是一个基于GPT模型的开源聊天机器人框架,可以在本地部署和使用。
百态老人
·
2023-04-15 21:29
人工智能
【ChatGPT】预训练模型微调及其应用(
ChatGLM
-6B、duckduckgo_search、GPT在科研的应用等)
noteinstructGPT(基于提示学习的系列模型)——>GPT3.5(大规模预训练语言模型)——>ChatGPT模型(高质量数据标注+反馈学习)。chatGPT三大技术:情景学习、思维链、自然指令学习。GPT4飞跃式提升:多模态、输入字符数量、推理能力、文本创造,如poem、解释图片含义、图表计算等,2022年8月完成训练。论文:https://cdn.openai.com/papers/g
山顶夕景
·
2023-04-15 21:27
#
自然语言处理
深度学习
chatgpt
自然语言处理
手把手教你搭建自己本地的
ChatGLM
而对于
ChatGLM
来说最大的优点就是本地能快速部署且需要资源较比与ChatGPT相当低,还要什么
fanstuck
·
2023-04-15 21:57
人工智能
机器学习
深度学习
数据挖掘
私有部署类chatGPT大语言模型的几种方案
一、本地部署清华大语言模型
ChatGLM
-6B介绍
ChatGLM
-6B是一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。
沧海之巅
·
2023-04-15 06:46
数字孪生
管理体系
元宇宙
chatGPT
大语言模型
GLM-6B
闻达语言模型
langchain
本地部署
ChatGLM
-6B模型(使用JittorLLMs大模型推理库)
https://github.com/Jittor/JittorLLMshttps://github.com/THUDM/
ChatGLM
-6B简单介绍下用到的仓库
ChatGLM
-6BChatGLM-6B
十月微涼
·
2023-04-14 15:39
python
github
自然语言处理
chatgpt
深度学习
学习实践
ChatGLM
-6B(部署+运行+微调)
1、
ChatGLM
-6B内容简单介绍该模型基于GeneralLanguageModel(GLM)架构,具有62亿参数。
李卓璐
·
2023-04-14 15:33
实战
学习
python
开发语言
【官方教程】
ChatGLM
-6B 微调,最低只需 7GB 显存
内容来自:GLM大模型自3月14日开源以来,
ChatGLM
-6B模型广受各位开发者关注。截止目前仅Huggingface平台已经有32w+下载,GithubStar数量超过11k。
AITIME论道
·
2023-04-14 15:03
python
开发语言
【
ChatGLM
-6B】清华开源的消费级显卡大语言模型,本地部署与测试
chatGLM
-6B官方代码:https://github.com/THUDM/
ChatGLM
-6B官方博客:https://
chatglm
.cn/blog论文:2210.GLM-130B:AnOpenBilingualPre-trainedModel
曾小蛙
·
2023-04-14 15:32
AI自然语言相关
语言模型
chatglm
本地部署
chatglm-6B
零基础部署
chatglm
目录ubuntu部署1.下载安装anaconda32.创建并虚拟环境3.下载安装
chatglm
4.修改代码,减少gpu使用,目前使用6G显存5.启动web服务windows部署1.下载安装anaconda32
telllong
·
2023-04-14 12:44
nlp
gpt
python
chatgpt
chatglm
文心一言
ptuning v2 的
chatglm
垂直领域训练记录
THUDM/
ChatGLM
-6B:
ChatGLM
-6B:开源双语对话语言模型|AnOpenBilingualDialogueLanguageModel(github.com)国内的一位大佬把chatglmptuning
路人与大师
·
2023-04-14 06:02
深度学习
人工智能
机器学习
如何能基于prompt tuning v2训练好一个垂直领域的
chatglm
-6b
如何能基于prompttuningv2训练好一个垂直领域的
chatglm
-6b首先先抛出一个问题,是不是所有的文本生成数据集都适合用
chatglm
6B的模型进行微调。
路人与大师
·
2023-04-14 06:54
自然语言处理
类ChatGPT代码级解读:如何从零起步实现transformer、llama/
ChatGLM
第一部分如何从零实现transformertransformer强大到什么程度呢,基本是17年之后绝大部分有影响力模型的基础架构都基于的transformer(比如,这里有200来个,包括且不限于基于decode的GPT、基于encode的BERT、基于encode-decode的T5等等)通过博客内的这篇文章《Transformer通俗笔记:从Word2Vec、Seq2Seq逐步理解到GPT、B
v_JULY_v
·
2023-04-12 20:51
chatgpt
transformer
llama
基于prompt tuning v2训练好一个垂直领域的
chatglm
-6b
目录正文官方广告数据集结构探索单轮生成
chatglm
-6B上的适配性调整batchsize后的学习率应该如何调整。
·
2023-04-12 01:15
对
ChatGLM
-6B 做 LoRA Fine-tuning
对
ChatGLM
-6B做LoRAFine-tuning搭建依赖环境加载模型和Tokenizer分析模型结构配置LoRA构建数据集定义常量测试Tokenizer的编解码定义Prompt构建AttentionMask
AI探险家
·
2023-04-09 07:41
NLP
深度学习
pytorch
人工智能
机器学习
语言模型
Cursor太强了,从零开始写
ChatGLM
大模型的微调代码
Cursor太强了,从零开始写
ChatGLM
大模型的微调代码初次体验对话实录问:怎么使用lora对大模型进行微调问:怎么用lora对
chatglm
模型进行微调问:
chatglm
是清华开源的大语言模型问:
看什么看
·
2023-04-09 07:39
自然语言处理
深度学习
神经网络
人工智能
Centos/Ubuntu离线部署清华
chatGLM
(特别详细,十分钟搞定)
引言前段时间,清华公布了中英双语对话模型
ChatGLM
-6B,具有60亿的参数,初具问答和对话功能。最!最!最重要的是它能够支持私有化部署,大部分实验室的服务器基本上都能跑起来。
AINLPer
·
2023-04-09 04:00
ubuntu
centos
python
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他