E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
chatGLM
ChatGLM
2-6b小白部署教程(windows系统,16G内存即可,对显卡无要求,CPU运行)
一.前言近期清华KEG和智谱AI公司一起发布了中英双语对话模型
ChatGLM
2-6B(小尺寸LLM),开源在https://github.com/THUDM/
ChatGLM
2-6B,可单机部署推理和fine-tune
Life_Is_Good占用
·
2023-10-28 03:06
python&ML
人工智能
python
语言模型
深度学习
自然语言处理
中文能力赶超GPT4模型
ChatGLM
2-6B最新发布,教你使用 CPU 本地安装部署运行实现
ChatGLM
2-6B是一个清华开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。
恒TBOSH
·
2023-10-28 03:35
GPT-4
人工智能
gpt-3
深度学习
神经网络
chatgpt
【
chatglm
2】使用Python在CPU环境中运行
chatglm
.cpp 可以实现本地使用CPU运行
chatglm
2模型,速度也特别的快可以本地部署,把现有项目进行AI的改造。
1,项目地址https://github.com/li-plus/
chatglm
.cpp.git这个项目和llama.cpp项目类似,使用C++去运行模型的。项目使用了ggml这个核心模块,去运行的。
fly-iot
·
2023-10-28 03:31
chatgpt
python
人工智能
开发语言
element-ui vue2 iframe 嵌入外链新解
效果如图实现原理在路由中通过props传值{path:'/iframe',component:Layout,meta:{title:'小助手',icon:'example'},children:[{path:'
chatglm
临水逸
·
2023-10-27 22:37
javascript
前端
开发语言
vue
elementui
智谱AI推出第三代基座大模型
2023年10月27日,智谱AI于2023中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型
ChatGLM
3及相关系列产品。汇总如下。
CSDN云计算
·
2023-10-27 20:18
人工智能
2M大小的PDF文档上传到LangChain-
ChatGLM
知识图谱中,大致需要的时间
对于将2M大小的PDF文档上传到LangChain-
ChatGLM
知识图谱中,大致需要的时间如下:PDF到文本的提取转换:若PDF内容主要为文本,此步骤约需要1-2分钟。
小草cys
·
2023-10-27 12:41
服务器
人工智能
gpt
ChatGLM
系列一:
ChatGLM
的介绍及代码实践
下面是官方对
ChatGLM
的介绍:
ChatGLM
-6B,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。
永胜永胜
·
2023-10-26 21:57
1024程序员节
ChatGLM
系列二:
ChatGLM
2的介绍及代码实践
一、介绍2023年06月25日,清华大学开源了
ChatGLM
2-6B模型,是
ChatGLM
模型的升级版本。
永胜永胜
·
2023-10-26 20:51
自然语言处理
大语言模型系列
-知乎GitHub-jeinlee1991/chinese-llm-benchmark:中文大模型能力评测榜单:覆盖百度文心一言、chatgpt、阿里通义千问、讯飞星火、belle/
chatglm
6b等开源大模型
贝猫说python
·
2023-10-26 16:08
语言模型
人工智能
自然语言处理
【AI实战】最强开源 6B 中文大语言模型
ChatGLM
2-6B,从零开始搭建
【AI实战】最强开源6B中英文大语言模型
ChatGLM
2-6B,从零开始搭建
ChatGLM
2-6B简介
ChatGLM
2-6B评测结果
ChatGLM
2-6B搭建参考
ChatGLM
2-6B简介
ChatGLM
2
szZack
·
2023-10-26 10:24
大语言模型
chatGLM2
大模型
chatGPT
《从零开始大模型开发与微调 :基于PyTorch与
ChatGLM
》简介
本书使用PyTorch2.0作为学习大模型的基本框架,以
ChatGLM
为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。
新知图书
·
2023-10-26 10:38
pytorch
人工智能
python
一款集成了主流大语言模型以及绘图模型的 APP, 采用 Flutter 开发,代码完全开源!!
大语言模型支持Anthropic的Claudeinstant,Claude2.0大语言模型支持国产模型:通义千问,文心一言,讯飞星火,商汤日日新,腾讯混元,百川53B,360智脑支持开源大模型:Llama2,
ChatGLM
2
向彪-blockchain
·
2023-10-26 04:54
AI人工智能
1024程序员节
Compile
ChatGLM
in docker with Nvidia graphic card
Atfirstinstalldockerwithnvidiagraphiccard.1.createdockerwithnvidiagraphiccard$sudodockerrun-it--gpusall--namechatglm-1rocker/cuda/bin/bashIfdockerhascreated,startandexecdocker:$sudodockerstartchatglm-
武爱敏
·
2023-10-26 00:42
docker
容器
运维
AI大模型自动生成PowerPoint(PPT)
1,使用现有开源大模型工具,生成markdown语言文件(我这里使用
chatGLM
2-6B)eg,请用Markdown语言生成一个大纲,主题是:给小白用户的第一课,如何快速的学好Pythonmarkdown
xxyAI
·
2023-10-25 19:39
LLM
大模型的实践应用4-
ChatGLM
-6b大模型的结构与核心代码解读,最全的
ChatGLM
模型架构介绍与源码解读
大家好,我是微学AI,今天给大家介绍一下大模型的实践应用4-
ChatGLM
大模型的结构与核心代码解读,最全的
ChatGLM
模型架构介绍与源码解读,本文介绍将
ChatGLM
-6B的模型结构,与设计原理。
微学AI
·
2023-10-25 15:50
大模型的实践应用
1024程序员节
chatGLM
大模型
langchain 加载各种格式文件读取方法
python.langchain.com/docs/modules/data_connection/document_loaders/https://github.com/thomas-yanxin/LangChain-
ChatGLM
-Webui
loong_XL
·
2023-10-25 08:44
深度学习
langchain
python
windows
【大模型系列 01】
ChatGLM
-6B 昇腾迁移
一、
ChatGLM
-6B说明
ChatGLM
-6B是62亿参数的语言模型,同等参数下中文对话能力极好。
hiascend
·
2023-10-25 07:12
训练开发
语言模型
华为昇腾NPU卡 大模型LLM
ChatGLM
2模型推理使用
参考:https://gitee.com/mindspore/mindformers/blob/dev/docs/model_cards/glm2.md#
chatglm
2-6b1、安装环境:昇腾NPU卡对应英伟达
loong_XL
·
2023-10-25 07:37
深度学习
华为
昇腾
910卡
1024程序员节
使用screen实现服务器代码一直运行
1.安装screensudoaptinstallscreen2.创建一个screen(创建一个名为'
chatglm
'的新的链接,用来一直运行screen-Schatglm3.查看进程列表screen-ls
BEINTHEMEMENT
·
2023-10-23 06:39
服务器
运维
ChatGLM
-6B+LangChain与训练及模型微调教程
Ref:讲解视频【官方教程】
ChatGLM
+LangChain实践培训_哔哩哔哩_bilibili吴恩达教授讲的【LangChain+
ChatGLM
-6B】LLM应用开发实践LangChain_Intro_v02
人鱼线
·
2023-10-22 20:20
langchain
ChatGLM
2-INT4 + Lora 结构适配和改造
ChatGLM
2-INT4这个量化版本使用自定义的QuantizedLinear作为线性模块。如果我们要使用PEFT库添加Lora参数时,它就会不认识,因为它是为torch.nn.Li
绝不原创的飞龙
·
2023-10-22 00:54
人工智能
pytorch
深度学习
python
【
ChatGLM
2-6B】在只有CPU的Linux服务器上进行部署
简介
ChatGLM
2-6B是清华大学开源的一款支持中英双语的对话语言模型。经过了1.4T中英标识符的预训练与人类偏好对齐训练,具有62亿参数的
ChatGLM
2-6B已经能生成相当符合人类偏好的回答。
太空眼睛
·
2023-10-21 18:09
人工智能
linux
ChatGLM2
chatglm2-6b
大语言模型
CPU
清华大学
【
ChatGLM
2-6B】nginx转发配置
背景好不容易把
ChatGLM
2-6B大语言模型部署好了,使用streamlit方式启动起来了,终于可以愉快的玩耍了,然后想着申请一个域名,使用HTTPS协议访问,但实践过程中,发现这个大语言模型的nginx
太空眼睛
·
2023-10-21 18:05
人工智能
nginx
运维
chatglm2
websocket
CHUNKED
403
转发
大模型的实践应用1-利用
ChatGLM
2大模型研发智能自助用药问答系统,远程监控患者的用药情况
大家好,我是微学AI,今天给大家介绍一下大模型的实践应用1-利用
ChatGLM
2大模型研发智能自助用药问答系统,远程监控患者的用药情况。随着人工智能技术的发展,我们的生活在许多方面都得到了改善。
微学AI
·
2023-10-21 04:59
大模型的实践应用
人工智能
大模型
pytorch
一键部署开源AI(人工智能对话模型)(支持显卡或CPU加内存运行)--
ChatGLM
2-6B
一、基本介绍:
ChatGLM
2-6B是开源中英双语对话模型
ChatGLM
-6B的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,
ChatGLM
2-6B引入了如下新特性:更强大的性能
深藏bIue
·
2023-10-21 02:34
人工智能
ChatGLM
推理报错RuntimeError: probability tensor contains either `inf`, `nan` or element < 0
训练完
ChatGLM
后想执行推理时,发现模型报错RuntimeError:probabilitytensorcontainseither`inf`,`nan`orelement<0解决方法:删除ptuning
抓个马尾女孩
·
2023-10-20 23:13
深度学习
chatgpt
ChatGLM
pip3 install之后报错‘gbk‘ codec can‘t decode byte 0xa6 in position 480: illegal multibyte sequence
pip3install-rrequirements.txtERROR:Exception:Traceback(mostrecentcalllast):File"d:\ProgramData\Anaconda3\envs\langchain-
chatglm
谢大旭
·
2023-10-20 13:41
python
python
chatglm
2微调—ptuning
Freeze:即参数冻结,对原始模型部分参数进行冻结操作,仅训练部分参数,以达到在单卡或不进行TP或PP操作,就可以对大模型进行训练。P-Tuning:在输入的embedding层前,将prompt转换为可学习的额外一层embedding层.P-Tuning,仅对大模型的Embedding加入新的参数。P-Tuning-V2,将大模型的Embedding和每一层前都加上新的参数。当prefix_p
babyzbb636
·
2023-10-19 12:18
深度学习
人工智能
chatglm
2微调—Lora
1.使用
ChatGLM
-Efficient-Tuning框架官网下载https://github.com/hiyouga/
ChatGLM
-Efficient-Tuning或者国内镜像https://gitee.com
babyzbb636
·
2023-10-19 12:48
深度学习
chatglm
配置
643824521以及这个https://blog.csdn.net/weixin_40547993/article/details/1317752751.需要pytorch2.0,所以CUDA推荐11.8
ChatGLM
2
babyzbb636
·
2023-10-19 12:16
linux
深度学习
chatglm2
【开源】给
ChatGLM
写个,Java对接的SDK
清华大学计算机系的超大规模训练模型
ChatGLM
-130B使用效果非常牛,所以我也想把这样的Ai能力接入到自己的应用中或者做一些IntelliJIDEAPlugin使用。
小傅哥
·
2023-10-16 11:24
开源
java
开发语言
chatglm
openai
cpu部署
chatglm
报错No compiled kernel found.
Nocompiledkernelfound.Compilingkernels:C:\Users\admin.cache\huggingface\modules\transformers_modules\local\quantization_kernels_parallel.cCompilinggcc-O3-fPIC-pthread-fopenmp-std=c99C:\Users\admin.cac
像夏天一样热
·
2023-10-16 05:12
python
基于MindSpore的llama微调在OpenI平台上运行
基于MindSpore的llama微调在OpenI平台上运行克隆预训练模型克隆
chatglm
-6b代码仓,下载分布式的模型文件gitlfsinstallgitclonehttps://huggingface.co
JeffDingAI
·
2023-10-15 20:27
Ascend
llama
GPT实战系列-
ChatGLM
2部署Ubuntu+Cuda11+显存24G实战方案
GPT实战系列-
ChatGLM
2部署Ubuntu+Cuda11+显存24G实战方案自从chatGPT掀起的AI大模型热潮以来,国内大模型研究和开源活动,进展也如火如荼。
Alex_StarSky
·
2023-10-15 13:21
GPT实战系列
ChatGLM
ChatGPT
GPT4
AI
人工智能
大模型
本地部署
Unity+百度文心大模型驱动AI小姐姐数字人
虽然一直在使用包括文心一言、
chatglm
这些大语言模型的,但这次好像用着合法合规,有了保障的感觉。关于百度的文心一言,也是继chatgpt发布以来国内首发跟进,发布的大语言模型了。
阴沉的怪咖
·
2023-10-14 10:25
unity
人工智能
微调
chatGLM
2-6B大模型
今天给大家带来
chatGLM
2-6B的微调,众所周知,微调现在已经是大模型必不可少的部分,本文微调部分主要包括LoRA:仅微调低秩适应器。P-TuningV2:仅微调前缀编码器。
羊驼锋
·
2023-10-14 04:10
nlp
自然语言处理
chatGLM
2-6B模型LoRA微调数据集实现大模型的分类任务
【TOC】1.
chatglm
介绍
ChatGLM
模型是由清华大学开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。
三更两点
·
2023-10-14 04:03
AI前沿与LLM
chatGPT
分类
数据挖掘
人工智能
自然语言处理
一键部署开源AI(人工智能对话模型)(支持显卡或CPU加内存运行)--
ChatGLM
-6B
一、基本介绍:基于
ChatGLM
-6B的快速安装服务,支持一键安装,无需任何服务配置和代码编写即可完成。
深藏bIue
·
2023-10-13 16:09
人工智能
基于MindSpore的
ChatGLM
微调
基于MindSpore的
ChatGLM
微调克隆HuggingFace模型克隆
chatglm
-6b代码仓,下载分布式的模型文件gitlfsinstallgitclonehttps://huggingface.co
JeffDingAI
·
2023-10-13 13:46
Ascend
人工智能
超详细!主流大语言模型的技术原理细节汇总!
1.比较LLaMA、
ChatGLM
、Falcon等大语言模型的细节:tokenizer、位置编码、LayerNormalization、激活函数等。
Python算法实战
·
2023-10-13 03:23
大模型理论与实战
大模型
语言模型
人工智能
自然语言处理
算法
chatglm
.cpp使用手记
chatglm
.cppAI搭建1.环境准备2githup下载项目3安装加载和量化拥抱面模型所需的软件包4准备编译环境5开始编译项目6模型转换7CLI验证8web验证9api验证10遗留问题1.环境准备cat
这样的宋哥哥
·
2023-10-12 06:57
AI
ai
虚拟桌宠模拟器(VPet)使用
ChatGLM
替代ChatGPT
开源工程虚拟桌宠
ChatGLM
特别感谢zkz098大佬找到的BUG和给出的解决方案1.拉取代码cdProjectgitclonehttps://github.com/THUDM/
ChatGLM
2-6B.git2
人工智能护发素
·
2023-10-11 20:09
chatgpt
ChatGLM
2-6B微调实践-P-Tuning方案
ChatGLM
2-6B微调实践环境准备安装部署1、安装Anaconda2、安装CUDA3、安装PyTorch4、安装
ChatGLM
2-6B微调实践1、准备数据集2、安装python依赖3、微调并训练新模型
我在北国不背锅
·
2023-10-10 19:36
大模型
chatglm
linux
LLM 时代,如何优雅地训练大模型?
details/130764843整理大家好,ChatGPT于2022年12月初发布,震惊轰动了全世界,发布后的这段时间里,一系列国内外的大模型训练开源项目接踵而至,例如Alpaca、BOOLM、LLaMA、
ChatGLM
Python算法实战
·
2023-10-10 05:09
大模型
大模型理论与实战
算法
人工智能
大模型
知识图谱
深度学习
通过Python提取pdf中的文字
通过Python的pdfplumber库提取pdf中的文字背景安装pdfplumber提取PDF文字提取PDF表格PyPDF2分割pdf合并PDFpdf旋转PDF加密解密加密解密加水印背景参加了
chatglm
JOKers_Joke
·
2023-10-10 03:49
python
pdf
开发语言
语言模型
数据分析
阿里云
ChatGLM
2-6B 模型本地部署及基于 P-Tuning v2 的微调
1.说明
ChatGLM
2-6B是开源中英双语对话模型
ChatGLM
-6B的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,还引入了更强大的性能、更强大的性能、更高效的推理、更高效的推理四大特性
天于
·
2023-10-09 04:06
python
人工智能
(三)
ChatGLM
-6B 的 DeepSpeed/P-Tuning v2微调
文章目录模型文件和相关代码准备
ChatGLM
6B部署解决`ninja`报错训练开始模型文件和相关代码准备安装日期:2023-04-19模型文件地址:https://huggingface.co/THUDM
sawyes
·
2023-10-09 04:05
NLP
nlp
pytorch
使用DeepSpeed/P-Tuning v2对
ChatGLM
-6B进行微调
link之前尝试了基于
ChatGLM
-6B使用LoRA进行参数高效微调,本文给大家分享使用DeepSpeed和P-Tuningv2对
ChatGLM
-6B进行微调,相关代码放置在GitHub上面:llm-action
luoganttcc
·
2023-10-09 04:34
大模型
大模型
ChatGLM
-6B 部署与 P-Tuning 微调实战
但最近一个月,开源文本大模型如雨后春笋般接踵而至,例如LLaMA、Alpaca、Vicuna、
ChatGLM
-6B等。树先生觉得这个事有着落了,毕竟站在巨人的肩膀上,离成功就会更近一步。
程序员树先生
·
2023-10-09 04:29
人工智能
热点
python
人工智能
语言模型
chatgpt
ChatGLM
-6B微调p tuning v2和lora对比
官方项目地址:https://github.com/THUDM/
ChatGLM
-6B参考本人之前的博客下载
ChatGLM
-6B模型:https://blog.csdn.net/Acecai01/article
Acecai01
·
2023-10-09 04:28
算法平台
ChatGLM-6B
P
tuning
v2
Lora
微调
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他