E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
ChatGLM实战教程
Java到Go的过渡(一篇足以)-应届23,Java实在太难了,来学Go叭
参考:Golang官方:https://golang.google.cn/tour/welcome/1bilibili:【尚硅谷】Golang入门到
实战教程
丨一套精通GO语言go基础①go的执行流程两种方式
J.CH.
·
2023-09-23 00:02
GoLang
java
golang
开发语言
ChatGLM
P-Tuningv2微调定制AI大模型
前言什么是模型微调想象一下,你正在学习如何弹奏一首钢琴曲目。你已经学会了一些基本的钢琴技巧,但你想要更进一步,尝试演奏一首特定的曲目。这时,你会选择一首你感兴趣的曲目,并开始深度练习。Fine-tuning(微调)在机器学习中也是类似的概念。当我们使用预先训练好的模型(预训练Pre-training)来解决一个特定的任务时,有时我们需要对这个模型进行微调。这意味着我们会在已经训练好的模型的基础上进
张志翔的博客
·
2023-09-22 13:47
ChatGLM实战教程
人工智能
机器学习
语言模型
深度学习
ChatGLM
LoRA微调定制AI大模型
一、前言对于
ChatGLM
2-6B模型基于PEFT的特定任务微调实验。1.1硬件需求注:r为LoRA维数大小,p为前缀词表大小,l为微调层数,ex/s为每秒训练的样本数。
张志翔的博客
·
2023-09-22 04:06
ChatGLM实战教程
人工智能
自然语言处理
语言模型
C++ Qt零基础入门进阶与企业级项目
实战教程
与学习方法分享
Qt是一个卓越的客户端跨平台开发框架,可以在Windows、Linux、macOS进行客户端开发,无缝切换,一统三端;当然除了桌面端,在移动端的早期,Qt也展现了其多才多艺,在Android和ios也可以使用Qt编写app,近些年移动端的蓬勃发展,大浪淘沙,Qt已退出移动端开发的舞台,但是在桌面端开发,尤其是跨平台方面,Qt是不二选择。 Qt开发灵活多变,可以选用C++或Python,但要说
令狐掌门
·
2023-09-22 01:44
Qt基础
c++
qt
C++
Qt零基础入门
C++
Qt高级开发教程
OBS源码分析
ChatGLM
微调基于P-Tuning/LoRA/Full parameter(中)
1.
ChatGLM
模型介绍
ChatGLM
-6B是一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。
张志翔的博客
·
2023-09-21 22:46
ChatGLM实战教程
人工智能
GROMACS Tutorial 1: Lysozyme in Water 中文
实战教程
GROMACSTutorial1:LysozymeinWater中文
实战教程
前言系统环境特别强调一、预处理阶段1.1补全原子或残基1.2删除水分子1.3生成top文件等位置限制文件二、定义盒子及添加溶剂
菠菠萝宝
·
2023-09-21 21:46
AIDD
药物设计
分子动力学模拟
CADD
AIDD
GROMACS
分子对接
虚拟筛选
第七篇-Tesla P40+
ChatGLM
2+P-Tuning
使用少量数据测试下微调流程环境系统:CentOS-7CPU:14C28T显卡:TeslaP4024G驱动:515CUDA:11.7cuDNN:8.9.2.26模型文件https://huggingface.co/THUDM/
chatglm
2
木卫二号Coding
·
2023-09-21 15:51
AI-LLM-实战
chatgpt
人工智能
centos
【
ChatGLM
-6b的微调与推理 - CSDN App
【
ChatGLM
-6b的微调与推理-CSDNApp】http://t.csdn.cn/vGLde
zero2100
·
2023-09-21 14:40
python
PS电商金属产品精修图片技巧
实战教程
PS电商金属产品精修图片技巧
实战教程
教程链接:http://www.mo-yu.com/thread-4406-1-1.html首先,仔细检查您的相机设置。
不度苦厄
·
2023-09-21 13:00
ChatGLM
实践指南
如今
ChatGLM
2-6b、LLama2等越来越多强大的开源模型的出现,成本和安全性越来越可控,私有知识库也就逐渐变得可落地。再加上看到阿里云
张志翔的博客
·
2023-09-21 13:48
人工智能
语言模型
深度学习
太强了开源的AI工具APP,AIdea -支持 AI聊天、协作、图片生成
一款集成了主流大语言模型以及绘图模型的APP,采用Flutter开发,代码完全开源,支持以下功能:支持GPT-3.5/4问答聊天支持国产模型:通义千问,文心一言、讯飞星火、商汤日日新支持开源模型:Llama2,
ChatGLM
2
AI 研习所
·
2023-09-21 12:33
AIGC
人工智能
AGI
人工智能
AIGC
Django
实战教程
软件版本:Python2.7+Django1.11├─01.Django入门│├─01视频││1_Django简介_Helloworld.avi││2_显示登录首页.avi││3_GET方式_登录功能.avi││4_POST方式_登录功能.avi│││├─02截图││2_显示登录首页.png│││└─03源码.rar│├─02.Django入门2│├─01视频││1_注册功能.avi││2_显示注
运维工程师日常
·
2023-09-21 09:04
ChatGLM
多卡微调踩坑记录
题主近期尝试使用LoRA在自有数据上微调
ChatGLM
,尽管GitHub上已有很多LoRA相关代码,但实现过程中题主还是遇到了很多问题,现将遇到的问题整理出来供大家参考,实现的相关代码也会整理到GitHub
u013250861
·
2023-09-21 04:25
#
LLM/预训练&微调
深度学习
python
人工智能
LLM-2-
ChatGLM
2
1训练1.1训练参数配置理解训练的输入长度=source的长度+target的长度–pre_seq_len:pre_seq_len的取值范围一般是1到512,它表示自然语言指令的长度,即输入序列中的前pre_seq_len个token,具体的值需要根据自然语言指令的长度和复杂度来确定。一般来说,指令越长越复杂,pre_seq_len就需要越大,以便模型能够充分理解指令的含义。但是,pre_seq_
愚昧之山绝望之谷开悟之坡
·
2023-09-21 04:53
AIGC
人工智能
笔记
人工智能
深度学习
算法
ChatGLM
-6B 做 LoRA fine tuning训练模型在闻达中使用
ChatGLM
-6B做LoRAfinetuning训练和预测方法闻达搭建paddingpadding_qq_26689303的博客-CSDN博客第一个链接文章做出来的模型怎么整合到第二个链接搭建的闻达里呢
qq_26689303
·
2023-09-21 04:23
深度学习
人工智能
ChatGLM
GPU多卡并行训练
1.为什么要使用多GPU并行训练简单来说,有两种原因:第一种是模型在一块GPU上放不下,两块或多块GPU上就能运行完整的模型(如早期的AlexNet)。第二种是多块GPU并行计算可以达到加速训练的效果。想要成为“炼丹大师“,多GPU并行训练是不可或缺的技能。2.常见的多GPU训练方法2.1模型并行方式如果模型特别大,GPU显存不够,无法将一个显存放在GPU上,需要把网络的不同模块放在不同GPU上,
张志翔的博客
·
2023-09-21 04:51
ChatGLM实战教程
人工智能
深度学习
自然语言处理
中文网页自动导航挑战赛——lora微调
ChatGLM
经验分享
继续前一篇文章,
ChatGLM
-6B-int4模型精度稍低,效果不理想,需要微调更大的模型。为此,租了一台32GB的TESLAV100,来完成这次比赛。
Savarus
·
2023-09-21 04:20
深度学习
人工智能
自然语言处理
nlp
ChatGLM
大模型炼丹手册-理论篇
序言一)大还丹的崛起在修真界,人们一直渴望拥有一种神奇的「万能型丹药」,可包治百病。但遗憾的是,在很长的一段时间里,炼丹师们只能对症炼药。每一枚丹药,都是特效药,专治一种病。这样就导致,每遇到一个新的问题,都需要针对性的炼制,炼丹师们苦不堪言,修真者们吐槽一片。在那个时代,丹药尺寸普遍比较小,姑且称之为「小还丹」。经过不断的探索和尝试,炼丹师们发现,随着灵材数量和丹药尺寸的增大,丹药的疗效会更好、
张志翔的博客
·
2023-09-21 02:50
ChatGLM实战教程
人工智能
Qt视频播放器实现(目录)
往期专栏1C++自学精简实践教程目录(必读)2C++数据结构与算法实现(目录)3Qt入门
实战教程
(目录)4C++多线程并发编程入门(目录)视频播放器介绍视频播放器的技术组成
C++程序员Carea
·
2023-09-20 22:58
Qt视频播放器实现
qt
c++
ffmpeg
ChatGLM
2-6B Lora 微调训练医疗问答任务
一、
ChatGLM
2-6BLora微调LoRA微调技术的思想很简单,在原始PLM(Pre-trainedLanguageModel)增加一个旁路,一般是在transformer层,做一个降维再升维的操作
小毕超
·
2023-09-20 15:20
机器学习
语言模型
chatglm
lora
ChatGLM
2-6B模型上线wisemodel社区,国内最具影响力的开源LM模型之一
ChatGLM
2-6B模型由智谱AI及清华KEG实验室共同研发,2023年6月25日发布,上一代
ChatGLM
-6B模型于2023年3月14日发布,基本是国内最具影响力的开源LLM模型之一。
·
2023-09-20 12:53
ChatGLM
实现一个BERT
前言本文包含大量源码和讲解,通过段落和横线分割了各个模块,同时网站配备了侧边栏,帮助大家在各个小节中快速跳转,希望大家阅读完能对BERT有深刻的了解。同时建议通过pycharm、vscode等工具对bert源码进行单步调试,调试到对应的模块再对比看本章节的讲解。涉及到的jupyter可以在代码库:篇章3-编写一个Transformer模型:BERT,下载本篇章将基于HHuggingFace/Tra
张志翔的博客
·
2023-09-20 11:25
ChatGLM实战教程
bert
人工智能
深度学习
清华
chatGLM
2-6B windows本地安装教程
文章目录电脑环境配置显卡驱动安装教程cuda+cudnn安装教程pytorch安装教程
chatGLM
2-6B配置教程电脑环境配置显卡驱动:12.2cuda:11.8cudnn:v8.9.5pytorch
Cachel wood
·
2023-09-20 09:19
软件安装教程
transformer
git
hugging
face
gitee
GitHub
chatGLM
chatgpt
Windows安装GPU版本的pytorch详细教程
文章目录
chatGLM
2-6B安装教程正式安装
chatGLM
2-6BChatGLM2-6B版本要装pytorch2.0,而且要2.0.1,因此CUDA不能用12.0,也不能用10.0,只能用11.x版本
Cachel wood
·
2023-09-20 09:41
软件安装教程
windows
pytorch
人工智能
GPU
chatgpt
语言模型
hugging
face
ChatGLM
大模型应用构建 & Prompt 工程
文章目录一、大模型简介1.1大模型基础知识1.2大模型分类二、如何构建大模型应用2.1`ToB`、`ToC`场景应用区别2.2大模型在ToB场景中的应用原则2.3大模型应用技巧2.3.1大模型应用技巧2.3.2大模型的应用方法2.3.3案例:车险问答系统三、指令工程(promptengineering)3.1指令工程基础知识3.2指令编写原则3.3指令编写步骤3.4指令编写技巧3.5实战技巧四、案
神洛华
·
2023-09-20 07:06
AIGC
NLP
prompt
指令工程
chatgml
nlp
M3E&
ChatGLM
向量化构建本地知识库
M3E&
ChatGLM
向量化构建本地知识库整体步骤向量数据库向量数据库简介主流数据库Milvus部署文本向量化M3E介绍模型对比M3E使用向量数据存储基于本地知识库的问答问句向量化向量搜索请求
ChatGLM
我在北国不背锅
·
2023-09-20 05:44
chatglm
word2vec
语言模型
chatgpt
从零开始PyTorch深度学习项目
实战教程
从零开始PyTorch深度学习项目
实战教程
本教程将介绍如何使用PyTorch深度学习框架来完成一个完整的深度学习项目。本教程假定你已经具有一定的Python编程经验,并且对深度学习有一定的了解。
-白金之星-
·
2023-09-20 04:29
深度学习
pytorch
python
nodejs项目
实战教程
05——Nodejs中的fs模块
app.js:constfs=require(‘fs’)//4fs.appendFile追加写入文件内容fs.appendFile(‘./css/base.css’,‘body{margin:0;padding:0;}’,(err)=>{if(err){returnconsole.log(err)}console.log(‘appendFile成功’)})可以看到,如果首次执行fs.appendF
m0_70646869
·
2023-09-20 03:19
Web前端
经验分享
前端
前端框架
nodejs项目
实战教程
01——http服务和URL类
//设置响应头response.writeHead(200,{‘Content-Type’:‘text/plain’});//给网页输出一句话并且结束响应response.end(‘HelloWorld’);}).listen(8081);//端口console.log(‘Serverrunningathttp://127.0.0.1:8081/’);4、修改内容需要重启nodeapp.js才能生
m0_70647189
·
2023-09-20 03:19
Web前端
经验分享
前端
前端框架
手把手教你,Selenium 遇见伪元素该如何处理?
我这边给你推荐一套视频,这个视频可以说是B站播放全网第一的自动化测试教程,同时在线人数到达1000人,并且还有笔记可以领取及各路大神技术交流:798478386【已更新】B站讲的最详细的Python接口自动化测试
实战教程
全集
测试猿廖廖
·
2023-09-20 01:26
selenium
测试工具
python
小程序
自动化
servlet
ChatGLM
如何应用一个BERT
前言接着上一小节,我们对Huggingface开源代码库中的Bert模型进行了深入学习,这一节我们对如何应用BERT进行详细的讲解。涉及到的jupyter可以在代码库:篇章3-编写一个Transformer模型:BERT,下载本文基于Transformers版本4.4.2(2021年3月19日发布)项目中,pytorch版的BERT相关代码,从代码结构、具体实现与原理,以及使用的角度进行分析,包含
张志翔的博客
·
2023-09-19 19:57
ChatGLM实战教程
人工智能
语言模型
揭秘英伟达A100、A800、H100、H800 GPU如何实现高性能大模型的百倍训练加速
BLOOM;BLOOMZ;GLM;Reddit;H100;H800;A100;A800;MI200;MI250;LaMA;OpenAI;GQA;RMSNorm;SFT;RTX4090;A6000;AIGC;
CHATGLM
·
2023-09-19 17:01
llm
ChatGLM
HuggingFace调用Bert词向量
开发环境推荐GPUDokcer$dockerpullhuggingface/transformers-pytorch-gpu:4.19.4CPUDokcer$dockerpullhuggingface/transformers-pytorch-cpu:4.18.0我这边使用的是CPU版本,建立容器$sudodockerrun-it-d-v/Volumes/Yan_Errol/:/workspace
张志翔的博客
·
2023-09-19 16:37
ChatGLM实战教程
bert
人工智能
深度学习
ChatGLM
项目集合
chatGLM
项目对
ChatGLM
进行加速或者重新实现的开源项目:SwissArmyTransformer:一个Transformer统一编程框架,
ChatGLM
-6B已经在SAT中进行实现并可以进行P-tuning
张志翔的博客
·
2023-09-19 16:00
ChatGLM实战教程
人工智能
自然语言处理
语言模型
ChatGLM
6B LORA微调
ChatGLM
6B&
ChatGLM
2-6B微调目录
ChatGLM
6B&
ChatGLM
2-6B微调微调硬件需求3.1.LoRA概述3.2.LoRA微调
ChatGLM
步骤3.2.1.项目和环境搭建3.2.2
tiki_taka_
·
2023-09-19 16:42
NLP
人工智能
深度学习
机器学习
ChatGLM
微调基于P-Tuning/LoRA/Full parameter(上)
准备环境首先必须有7个G的显存以上,torch>=1.10需要根据你的cuda版本1.1模型下载$gitlfsinstall$gitclonehttps://huggingface.co/THUDM/
chatglm
张志翔的博客
·
2023-09-19 16:11
ChatGLM实战教程
深度学习
人工智能
ChatGLM
DeepSpeed 全参数微调
ChatGLM
-6B是一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。
张志翔的博客
·
2023-09-19 13:46
ChatGLM实战教程
人工智能
ChatGLM
GPT原理介绍
图解GPT除了BERT以外,另一个预训练模型GPT也给NLP领域带来了不少轰动,本节也对GPT做一个详细的讲解。OpenAI提出的GPT-2模型(https://openai.com/blog/better-language-models/)能够写出连贯并且高质量的文章,比之前语言模型效果好很多。GPT-2是基于Transformer搭建的,相比于之前的NLP语言模型的区别是:基于Transfor
张志翔的博客
·
2023-09-19 12:17
ChatGLM
人工智能
自然语言处理
ChatGLM
Pytorch从0编写Transformer算法
预备工作#!pipinstallhttp://download.pytorch.org/whl/cu80/torch-0.3.0.post4-cp36-cp36m-linux_x86_64.whlnumpymatplotlibspacytorchtextseabornimportnumpyasnpimporttorchimporttorch.nnasnnimporttorch.nn.functio
张志翔的博客
·
2023-09-19 09:52
ChatGLM
pytorch
transformer
人工智能
ChatGLM
通俗理解大模型的各大微调方法:从LoRA、QLoRA到P-Tuning V1/V2
前言PEFT方法仅微调少量(额外)模型参数,同时冻结预训练LLM的大部分参数第一部分高效参数微调的发展史1.1Google之AdapterTuning:嵌入在transformer里原有参数不变只微调新增的Adapter谷歌的研究人员首次在论文《Parameter-EfficientTransferLearningforNLP》提出针对BERT的PEFT微调方式,拉开了PEFT研究的序幕。他们指出
张志翔的博客
·
2023-09-19 09:40
ChatGLM
自然语言处理
人工智能
ChatGLM
HuggingFace大语言模型底座
基础介绍HuggingFace是一家专注于自然语言处理(NLP)、人工智能和分布式系统的创业公司,创立于2016年。最早是主营业务是做闲聊机器人,2018年Bert发布之后,他们贡献了一个基于Pytorch的Bert预训练模型,即pytorch-pretrained-bert,大受欢迎,进而将重心转向维护NLP开源社区。经过这几年的发展,HuggingFace的开源社区,已经变成了最大的开源模型托
张志翔的博客
·
2023-09-19 05:03
ChatGLM
语言模型
人工智能
自然语言处理
DevOps实战系列【第七章】:详解Docker私服Harbor篇
个人亲自录制全套DevOps系列
实战教程
:手把手教你玩转DevOps全栈技术Harbor私服搭建讲完Nexus3再来看下harbor,其实大同小异,只不过harbor的管理要比Nexus3更专业、功能更完善
上树的蜗牛儿
·
2023-09-19 00:47
DevOps全栈技术
devops
docker
运维
harbor
解决
ChatGLM
.CPP+clBlast 编译错误(也适用于SD.CPP)
clblast:vcpkginstallopenclclblast下载GitHub上的源码:gitclone--recurse-submoduleshttps://github.com/li-plus/
chatglm
.cppcdchatglm.cpp
绝不原创的飞龙
·
2023-09-18 19:29
人工智能
人工智能
揭秘英伟达A100、A800、H100、H800 GPU如何实现高性能大模型的百倍训练加速
BLOOM;BLOOMZ;GLM;Reddit;H100;H800;A100;A800;MI200;MI250;LaMA;OpenAI;GQA;RMSNorm;SFT;RTX4090;A6000;AIGC;
CHATGLM
高性能服务器
·
2023-09-18 12:32
gracehopper
HBM3e
L40S
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?
A100M2芯片|ARM|A800|H100关键词:M2芯片;Ultra;M1芯片;UltraFusion;ULTRAMAN;RTX4090、A800;A100;H100;LLAMA、LM、AIGC、
CHATGLM
高性能服务器
·
2023-09-18 12:01
A100
H100
H800
A800
如何在SAM时代下打造高效的高性能计算大模型训练平台
task;zero-shot;data;H100、H800、A100、A800、LLaMA、Transformer、OpenAI、GQA、RMSNorm、SFT、RTX4090、A6000、AIGC、
CHATGLM
高性能服务器
·
2023-09-18 12:01
算法
数据结构
线性回归
LLM(一)| 百川智能baichuan7B、13B、53B以及baichuan2总结
之前在文章baichuan-53BVSChatGLM-6B对比中做过百川大模型53B和
ChatGLM
6B模型的效果对比,由于百川大模型的内测模型是53B,因此本次对比参数量差异较大,但仍然可以看到两个模型的效果
wshzd
·
2023-09-18 11:14
ChatGPT
NLP
笔记
chatgpt
AIGC
uni-app入门-
实战教程
-二十二-监听属性-watch
可以监听具体某一个值的改变,改变后的值/*监听方法开始*/watch:{/*val监听改变的值*/name(val){console.log(val,"监听方法");},/*num(val){console.log(val,"监听方法");}*//*也可以写成上面是es6新大地写法,更方便整洁*/num:function(val){console.log(val,"监听方法");}},/*监听方法
Magic_小灰灰
·
2023-09-18 05:35
ChatGLM
-6b的微调与推理
基于
ChatGLM
-6B的推理与部署1.使用gitclone命令
ChatGLM
项目地址,将项目clone到本地。
抓个马尾女孩
·
2023-09-17 17:18
深度学习
chatgpt
llama
10分钟教你在树莓派 4B 上搭建企业级 IoT 物联网平台
00准备工作本系列物联网开发入门
实战教程
中硬件选取乐鑫ESP8266开发板,服务器采用树莓派3B+/4B主板,云端物联网平台基于开源EMQX社区版搭建,带你完整体验物联网场景端到端全栈开发过程。
AIoT科技物语
·
2023-09-17 07:34
物联网
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他