E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLaMa
【AI实战】开源大语言模型LLMs汇总
【AI实战】开源大语言模型LLM汇总大语言模型开源大语言模型1、
LLaMA
2、ChatGLM-6B3、Alpaca4、PandaLLM5、GTP4ALL6、DoctorGLM(MedicalGPT-zhv2
szZack
·
2023-06-14 16:18
大语言模型
LLM
大语言模型
llama
chatglm
Video-
LLaMA
:给大语言模型赋予视听觉能力
从这个问题出发,阿里达摩院的研究人员提出了Video-
LLaMA
,一个具有综合视听能
机器学习与AI生成创作
·
2023-06-14 12:14
llama
语言模型
人工智能
计算机视觉
深度学习
LLM 大模型
namemodelweightsnoteLLaMA7B,13B,33B,65BVicunavicuna-7bVicunavicuna-13bAlpacaAlpaca-7B基于
LLaMA
,使用LoRA做Fine-Tuning
法海你懂不
·
2023-06-14 09:36
人工智能
LLM
像医生一样的大规模AI模型
目录华佗:BenTsao相关工作华佗模型实验HuatuoGPT动机解决方案混合数据的SFT基于AI反馈的RL医学中的LLM指令微调华佗:BenTsao大型语言模型(LLM),如
LLaMA
模型,已经证明了它们在各种通用领域自然语言处理
tzc_fly
·
2023-06-13 19:30
热门话题探索
人工智能
python
深度学习
LLaMA
快速上手指南
近期,Meta发布了人工智能大语言模型
LLaMA
,包含70亿、130亿、330亿和650亿这4种参数规模的模型。其中,最小的
LLaMA
7B也经过了超1万亿个tokens的训练。
·
2023-06-13 18:20
GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才
此外Karpathy透露,由于训练和数据的扩展,
LLAMA
65B“明显
Openlab.cosmoplat
·
2023-06-13 17:55
人工智能
深度学习
机器学习
【无标题】
最终性能超越650亿的
LLaMA
,以及MPT、Redpajama等现有所有开源模型。
Openlab.cosmoplat
·
2023-06-13 17:25
人工智能
深度学习
使用 Docker 和 Alpaca LoRA 对
LLaMA
65B 大模型进行 Fine-Tune
这篇文章中,我们来聊聊如何使用两张显卡来进行
LLaMA
65B大模型的微调工作,以及如何在一张普通的4090家用显卡上,只花几个小时,就能够完成7B模型的微调。
soulteary
·
2023-06-13 15:20
docker
人工智能
LLaMA
LLM
Alpaca
Lora
GPT能给审计带来什么
GPT模型作为重要的支撑,国内外近段时间密集性地发布了众多的大语言模型,OpenAI推出GPT-4、谷歌推出LaMDA和PaLM等大模型、Meta推出开源大模型
LLaMA
,而国内众多大厂也紧追其后,百度推出
局外人一枚
·
2023-06-13 06:25
ChatGPT
gpt
人工智能
大模型微调踩坑记录 - 基于Alpaca-
LLaMa
+Lora
前言为了使用开放权重的LLM(大语言模型),基于自己的训练集,微调模型,会涉及到如下一些技术要点:配置运行环境下载、加载基础模型收集语料、微调训练检验训练效果在实施过程中,遇到不少困难,因此写下这篇文档,做为记录。环境配置1.模型加载-icetk报错(1)问题描述在huggingface的模型库中,大模型会被分散为多个bin文件,在加载这些原始模型时,有些模型(如Chat-GLM)需要安装icet
Anycall201
·
2023-06-13 02:57
问题记录
深度学习
自然语言处理
transformer
LLaMA
的学习笔记
LLaMA
是一种用于自然语言处理的深度学习模型,它的全称是LanguageLearningwithAdaptiveMulti-taskArchitecture。
onlyfansnft.art
·
2023-06-13 02:12
llama
学习
笔记
LLaMA
斯坦福的 Alpaca 学习笔记
Alpaca的来源Alpaca的来源是Meta公司发布的
LLaMA
7B模型¹,它是一个基于元学习的大规模语
onlyfansnft.art
·
2023-06-13 02:39
学习
笔记
人工智能
Alpaca
使用LoRA对大语言模型
LLaMA
做Fine-tune
使用LoRA对大语言模型
LLaMA
做Fine-tune前言下载配置环境模型的训练Fine-tune模型的使用Inference参考问题汇总前言目前有大量对LLM(大语言模型)做Fine-tune的方式,
蒋含竹
·
2023-06-12 17:33
MachineLearning
#
PyTorch
人工智能
LoRA
Fine-tune
PyTorch
大语言模型
LLaMA
, ChatGLM, BLOOM的参数高效微调实践
1.开源基座模型对比大语言模型的训练分为两个阶段:(1)在海量文本语料上的无监督预训练,学习通用的语义表示和世界知识。(2)在小规模数据上,进行指令微调和基于人类反馈的强化学习,更好地对齐最终任务和人类偏好。LIMA[1]证明了LLM的几乎所有知识都是在预训练过程中学习到的,只需要有限的指令微调数据就可以生成高质量的回复。因此,基座模型的性能是至关重要的,如果基座模型的性能不够好,指令微调和强化学
汀、人工智能
·
2023-06-12 14:47
AI前沿技术汇总
llama
深度学习
人工智能
chatglm
chatgpt
NLP大模型微调原理
NLP界发生三件大事:ChatGPT:2022年11月OpenAI发布的AI聊天机器人程序,基于GPT-3.5
LLaMA
:2023年2月Meta发布的预训
狮子座明仔
·
2023-06-12 09:16
人工智能
机器学习
深度学习
LIMA和QLoRA论文解读
LessIsMoreforAlignment》paper:https://arxiv.org/abs/2305.11206Meta在2023年5月发布了论文《LIMA:LessIsMoreforAlignment》,基于
LLaMa
狮子座明仔
·
2023-06-12 09:16
机器学习
人工智能
python
QLoRA
LIMA
LLM__
llama
-7B模型试验
llama
模型已经开源很久了,所以拿做小的模型做了个简单尝试一、服务器购买与配置1.1服务器购买因为做简单尝试并不打算长期持有,所以以便宜、够用、好退货为主要参考依据购买阿里云服务器、我看7B的模型权重大小就
Scc_hy
·
2023-06-12 09:14
深度学习
llama
linux
深度学习
LLM
NLP大模型微调答疑
什么情况用Bert模型,什么情况用
LLaMA
、ChatGLM类大模型,咋选?
狮子座明仔
·
2023-06-12 09:44
自然语言处理
人工智能
深度学习
开源模型的力量
2月,Meta发布了其大型语言模型:
LLaMA
。与OpenAI及其ChatGPT不同,Meta不仅仅为世界提供了一个可以玩的聊天窗口。相反,它将代码发布到开源社区,此后不久模型本身就被泄露了。
网络研究院
·
2023-06-12 08:15
网络研究院
人工智能
模型
开源
AI
技术
大模型 LLM 综述, A Survey of Large Language Models
>=10Billion参数(也有人认为是6B、7B,工业界用,开始展现涌现能力);经典大模型有GPT-3、BLOOM、Flan-T5、GPT-NeoX、OPT、GLM-130B、PaLM、LaMDA、
LLaMA
Macropodus
·
2023-06-12 00:48
LLM
自然语言处理
Pytorch
语言模型
自然语言处理
人工智能
跑分达ChatGPT的99%,人类难以分辨 开源“原驼”大模型爆火
以Meta的美洲驼
LLaMA
为基础,得到原驼650亿参数版只需要48GB显存单卡微调24
手把手教你学AI
·
2023-06-11 19:09
rust
echarts
c#
网络
MiniGPT-4 and
LLaMA
权重下载
MiniGPT-4权重文件下载权重文件下载官方下载https://huggingface.co/docs/transformers/main/model_doc/
llama
填写表单,等待申请磁力下载磁力
星空liang
·
2023-06-11 12:20
llama
MiniGPT-4
【大模型】开源大模型汇总以及微调策略
目录前言LLaMAstanfordAlpacaGuanacoVicunaChinese-
LLaMA
-AlpacaChinese-VicunaLuotuo-ChineseFalconOpenBuddy-FalconChatGLM
桐原因
·
2023-06-10 16:29
深度学习
人工智能
深度学习
大模型
ChatGLM
AIGC
Llama
的使用
1.介绍
Llama
(LowLatencyApplicationMAster)是一个Yarn的ApplicationMaster,用于协调Impala和Yarn之间的集群资源的管理和监控。
weixin_34149796
·
2023-06-10 06:39
大数据
java
运维
llama
_index中query_engine的response_mode详解
文章目录0.前言1.ResponseMode:tree_summarize(总结摘要-最优)2.ResponseMode:generation3.ResponseMode:no_text4.ResponseMode:simple_summarize(最省token)5.ResponseMode:refine(基于关键词询问-最优)6.ResponseMode:compact(较省token)0.前
如果皮卡会coding
·
2023-06-10 06:36
语言模型
Python
llama
llama_index
大模型部署实战(一)——Ziya-
LLaMA
-13B
(封面图由文心一格生成)大模型部署实战(一)——Ziya-
LLaMA
-13BZiya-
LLaMA
-13B是IDEA-CCNL基于
LLaMa
的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取
Chaos_Wang_
·
2023-06-10 06:35
自然语言处理
llama
chatgpt
aigc
自然语言处理
Chinese-
LLaMA
-Alpaca代码实战
文章目录微调chinese-alpaca部署
llama
.cpp将FP16模型量化为4-bit项目地址:https://github.com/ymcui/Chinese-
LLaMA
-Alpaca微调chinese-alpaca
dzysunshine
·
2023-06-09 18:44
ChatGPT
llama
python
chatgpt
alpaca
十一、搭建自己的GPT模型
LLaMa
的模型训练太耗费gpu,很多人也跑不了,所以暂时选择这个。
vandh
·
2023-06-08 23:00
chatGPT实战
gpt
python
深度学习
Vicuna:斯坦福开源一个性能相当于90%ChatGPT的聊天机器人
自从Meta公司发布
LLaMA
以来,围绕它微调和开发的模型越来越多,这得益于它的性能和效果,2023年3月份发布的草泥马(Alpaca)是由Meta的
LLaMA
7B微调而来的全新模型,仅用了52k数据,
wshzd
·
2023-06-08 22:34
开源
chatgpt
机器人
StackLLaMA: A hands-on guide to train
LLaMA
with RLHF
PapernameStackLLaMA:Ahands-onguidetotrainLLaMAwithRLHFPaperReadingNoteProjectURL:https://huggingface.co/blog/stackllamaCodeURL:https://huggingface.co/docs/trl/indexTL;DRHuggingface公司开发的RLHF训练代码,已集成到hu
kebijuelun
·
2023-06-08 20:17
llama
人工智能
深度学习
部署运行Vicuna(小羊驼)
部署运行Vicuna-小羊驼环境简介所需数据下载
LLaMA
下载磁力链接下载百度网盘及天翼云盘下载下载完成结果vicuna-7b-delta-v1.1下载官网下载链接百度网盘及天翼云盘下载下载结果展示将
LLaMA
想看一次满天星
·
2023-06-08 11:49
人工智能
运维
github
笔记本电脑部署本地离线版类似ChatGPT3.5的AI模型(CPU+内存运行)
(我的电脑是ThinkpadT14gen2,内存32G,系统是Windows10)2、下载
llama
.cpp。
llama
.
T畅N
·
2023-06-08 11:44
人工智能
gpt-3
python
chatgpt
本地运行
LLAMA
& GPT-3.5-TURBO开源项目
git:nomic-ai/gpt4all:gpt4all:anecosystemofopen-sourcechatbotstrainedonamassivecollectionsofcleanassistantdataincludingcode,storiesanddialogue(github.com)下载好源码后,的目录结构:视频中说的chat目录在:gpt4all-training/chat
光影3415
·
2023-06-08 09:02
chatgpt
使用 LoRA 技术对
LLaMA
65B 大模型进行微调及推理
前几天,Meta发布了LIMA大模型,在
LLaMA
-65B的基础上,无需使用RLHF,只用了1000个精心准备的样本数据进行微调,就达到了和GPT-4相媲美的程度。
李国冬
·
2023-06-08 06:48
人工智能工程化(MLOps)
llama
python
开发语言
Falcon猎鹰:史上最强开源大语言模型
最终性能超越650亿的
LLaMA
,以及MPT、Redpajama等现有所有开源模型。
AI研究院
·
2023-06-08 06:07
深度学习
神经网络
计算机视觉
论文笔记--
LLaMA
: Open and Efficient Foundation Language Models
论文笔记--
LLaMA
:OpenandEfficientFoundationLanguageModels1.文章简介2.文章概括3文章重点技术3.1数据集3.2模型训练4.数值实验5.文章亮点6.原文传送门
Isawany
·
2023-06-08 04:52
论文阅读
论文阅读
llama
语言模型
gpt
CommonCrawl
基于ChatGPT的视频智能摘要实战
现在,像ChatGPT或
LLaMA
这样的大型语言模型为这个长期问题提供了一个潜在的解决方案。推荐:用NSDT设计器快速搭建可编程3D场景。
新缸中之脑
·
2023-06-07 09:02
chatgpt
音视频
人工智能
Generative AI 新世界 | 大语言模型(LLMs)在 Amazon SageMaker 上的动手实践
在上一篇《GenerativeAI新世界:大型语言模型(LLMs)概述》中,我们一起探讨了大型语言模型的发展历史、语料来源、数据预处理流程策略、训练使用的网络架构、最新研究方向分析(AmazonTitan、
LLaMA
亚马逊云开发者
·
2023-06-07 08:32
人工智能
语言模型
深度学习
谷歌Bard_VS_Baize-7B_VS_文心一言体验对比
2023年4月4日,来自加州大学圣迭戈分校、中山大学和微软亚研的研究者提出了Baize,该模型是让ChatGPT自我对话,批量生成高质量多轮对话数据集,利用该数据集对
LLaMA
进行微调得到的(目前版本还没有
wshzd
·
2023-06-07 03:10
ChatGPT
NLP
笔记
bard
文心一言
Generative AI 新世界 | 大语言模型(LLMs)在 Amazon SageMaker 上的动手实践
在上一篇《GenerativeAI新世界:大型语言模型(LLMs)概述》中,我们一起探讨了大型语言模型的发展历史、语料来源、数据预处理流程策略、训练使用的网络架构、最新研究方向分析(AmazonTitan、
LLaMA
·
2023-06-07 02:03
机器学习
总结从T5、GPT-3、Chinchilla、PaLM、
LLaMA
、Alpaca等近30个最新模型
自从ChatGPT出现之后,各种大语言模型是彻底被解封了,每天见到的模型都能不重样,几乎分不清这些模型是哪个机构发布的、有什么功能特点、以及这些模型的关系。比如GPT-3.0和GPT3.5就有一系列的模型版本和索引,还有羊驼、小羊驼、骆驼......于是浅浅的调研了一下比较有名的大语言模型,主要是想混个脸熟,整理完之后就感觉清晰多了,又可以轻松逛知乎学习了。作者|guolipa整理|对白的算法屋h
zenRRan
·
2023-06-07 00:23
gpt-3
llama
人工智能
机器学习
自然语言处理
【英文绘本】Is Your Mama A
Llama
小蝌蚪找妈妈的故事相信每个小朋友都不陌生,今天要介绍的绘本就是英文版的“小蝌蚪找妈妈”——《IsYourMamaaLlama?》(你的妈妈是驼羊吗?)绘本中的句子虽然长度略长但是词汇简单,且不断重复所以同样适合启蒙使用,在书中孩子们可以学习到关于动物、身体部位、地点等词汇。【正文】“Isyourmamaallama?"IaskedmyfriendDave.“你的妈妈是驼羊吗?”我问朋友Dave。"
欣然小时光
·
2023-06-07 00:00
以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南
过去几个月里,我们对于大语言模型的一系列探索,如ChatGPT端到端实践与应用开发、
LLaMA
与ChatGLM的微调试验、GitHubCopilot逆向工程分析、动态上下文工程(即LangChain)的研究
Phodal
·
2023-06-06 21:40
语言模型
人工智能
大数据
云原生
自然语言处理
大语言模型-中文chatGLM-
LLAMA
微调
https://github.com/27182812/ChatGLM-
LLaMA
-chinese-insturct中文instruct在chatGLM,
LLAMA
上的表现
YueTann
·
2023-04-20 16:41
人工智能
文本聚类与摘要,让AI帮你做个总结
通过
llama
-index这样的开源库,我们能够将自己的数据和大语言模型连接在一起。
小极客geekbang
·
2023-04-20 10:09
程序员
后端
算法
Java
Go
计算机基础
容器
大数据
IDPChat:探索基于
LLaMA
和Stable Diffusion的「开源」中文多模态AI大模型
中文多模态模型IDPChat和大家见面了。随着GPT4、文心一言等的发布,预训练大模型正式开启由单模态向多模态模型演进。多模态的特性为语言模型带来更加丰富的应用场景。我们认为,未来的AI应用将主要以大模型为核心基石。而在大模型的领域,基于基础模型(Foundationmodel)构建领域或企业自有的大模型,会是近中期的重要发展趋势。但在私有化大模型微调和应用方面,企业和机构仍面临着微调复杂、部署困
·
2023-04-18 22:49
学习实践-Vicuna【小羊驼】(部署+运行)
1、Vicuna【小羊驼】-FastChat"更快的对话"介绍3月底,UC伯克利开源大语言模型Vicuna来了,这是一个与GPT-4性能相匹配的
LLaMA
微调版本。“缺啥补啥缺啥练啥,傻子也突出”!
李卓璐
·
2023-04-18 22:36
实战
语言模型
学习实践-Alpaca-Lora (羊驼-Lora)(部署+运行)
其被认为是ChatGPT轻量级的开源版本,其训练数据集来源于text-davinci-003,并由Meta的
LLaMA
7B微调得来的全新模型,性能约等于GPT-3.5。
李卓璐
·
2023-04-18 22:06
实战
语言模型
又是王炸!微软开源贾维斯
随着ChatGPT的诞生,众多大模型也如雨后春笋般涌现,包括斯坦福的Alpaca,Meta的
LLAMA
,OpenAI的whisper以及stable-diffusion,还有清华大学开源的中文大语言模型
·
2023-04-18 22:57
chatgptaigc
GPT4All开源的聊天机器人
GPT4All是一个开源的聊天机器人,它基于
LLaMA
的大型语言模型训练而成,使用了大量的干净的助手数据,包括代码、故事和对话。
polsnet
·
2023-04-18 19:10
python
机器学习
深度学习
上一页
16
17
18
19
20
21
22
23
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他