E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
auto-gptq
大模型量化AutoGPTQ代码配置
代码链接:https://github.com/AutoGPTQ/AutoGPTQ其实最核心的在于安装
auto-gptq
这个包,但是直接pipinstall
HuanB123
·
2025-05-15 17:31
python
linux
ubuntu
pycharm
Qwen1.5-7B-实现RAG应用详细步骤
GPTQ支持库:如
auto-gptq
或gptqmodel。安装命令运行以下命令安装所需的Python包:pipinstalltorc
大数据追光猿
·
2025-03-08 23:01
大模型
数据库
AI编程
语言模型
人工智能
深度学习
auto-gptq
安装以及不适配软硬件环境可能出现的问题及解决方式
目录1、
auto-gptq
是什么?
IT修炼家
·
2025-02-20 12:00
大模型部署
大模型
auto-gptq
cuda
Transformers 中原生支持的量化方案概述
转载自:https://huggingface.co/blog/zh/overview-quantization-transformers文章目录资源bitsandbytes与
auto-gptq
之比较bitsandbytes
小然爱看
·
2024-01-16 15:20
LLM
人工智能
Qwen-14B-Chat-Int4推理报错:ImportError: libcudart.so.12: cannot open shared object file
在Qwen-14B-Chat-Int4推理时,发现报错,缺少optimum和
auto-gptq
两个pip包Traceback(mostrecentcalllast):File"test_qwen_14b_int4
城南皮卡丘
·
2023-11-20 12:59
#
python
开发语言
flash_attn及
auto-gptq
本地安装成功
1.flash_attn安装https://github.com/Dao-AILab/flash-attention/releases地址github地址下载对应cuda和pytorch版本的flash-attention进行本地安装。如:cuda11.7torch1.13.1python3.9pipinstallflash_attn-2.3.0+cu117torch1.13cxx11abiFAL
我是菜鸟杨杨杨
·
2023-11-20 06:51
python
pip
神经网络
深度学习
语言模型
Py之
auto-gptq
:
auto-gptq
的简介、安装、使用方法之详细攻略
Py之
auto-gptq
:
auto-gptq
的简介、安装、使用方法之详细攻略目录
auto-gptq
的简介1、版本更新历史2、性能对比推理速度困惑度(PPL)3、支持的模型3、支持的评估任务
auto-gptq
一个处女座的程序猿
·
2023-11-03 02:10
NLP/LLMs
人工智能
python
auto-gptq
上一页
1
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他