E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLama
oobabooga-text-generation-webui可能是最好的语言模型启动器(包含手把手安装教程)
oobabooga-text-generation-webui是一个用于运行类似Chatglm、RWKV-Raven、Vicuna、MOSS、
LLaMA
、
llama
.cpp、GPT-J、Pythia、OPT
javastart
·
2023-11-28 09:38
大模型
人工智能
chatgpt
语言模型
预测token速度翻番!Transformer新解码算法火了,来自小羊驼团队|代码已开源
比如这是同一个模型(
LLaMa
-2-Chat7B)面对同一个用户提问(苏格拉底采用了哪些方法来挑战他那个时代的主流思想?)
QbitAl
·
2023-11-27 09:43
transformer
算法
深度学习
人工智能
LLaMA
2端到端推理打通!来自中国团队
允中发自凹非寺量子位|公众号QbitAIBuddyCompiler端到端
LLaMA
2-7B推理示例已经合并到buddy-mlir仓库[1]主线。
QbitAl
·
2023-11-27 09:11
llama
微软发布了Orca 2,一对小型语言模型,它们的性能超越了体积更大的同类产品
今天,由萨提亚·纳德拉领导的公司研究部门发布了Orca2,这是一对小型语言模型,它们在零样本设置下对复杂推理任务的测试中,要么匹敌要么超越了体积是它们五到十倍的大型语言模型,包括Meta的
Llama
-2Chat
新加坡内哥谈技术
·
2023-11-27 06:21
语言模型
人工智能
自然语言处理
Chatbot开发三剑客:
LLAMA
、LangChain和Python
在这一领域中,
LLAMA
、LangChain和Python的联合形成了一个强大的组合,为Chatbot的设计和实现提供了卓越支持。
Python中文社区
·
2023-11-27 06:24
llama
langchain
python
开发语言
LLM-2023:Alpaca(羊驼)【Stanford】【性能与GPT3.5相当比GPT4逊色,训练成本不到100美元,基于
LLaMA
和指令微调,仅使用约5万条训练数据就能达到类似GPT-3.5】
斯坦福的Alpaca模型基于
LLaMA
-7B和指令微调,仅使用约5万条训练数据,就能达到类似GPT-3.5的效果。
u013250861
·
2023-11-27 05:05
#
LLM/经典模型
gpt-3
llama
python
大模型三阶段训练
为了训练专有领域模型,选择
LLaMA
2-7B作为基座模型,由于
LLaMA
模型中文词表有限,因此首先进行中文词表的扩展,然后进行三阶段训练(增量预训练,有监督微调,强化学习)。
hj_caas
·
2023-11-26 20:17
领域模型三阶段训练
深度学习
人工智能
如何NCBI上传Genbank数据
作者:
llama
审稿:童蒙编辑:amethyst01登录NCBI与前面是相同的步骤,此处就不再重复了,登录完成后同样点击首页的submit进入即可,进入后往下翻页,看到Genbank提交数据,选择对应的选项即可
生信阿拉丁
·
2023-11-26 18:44
盘点2023年Q3的开源模型,这些值得推荐!
基座模型
LLaMA
2Baichuan2ChatGLM2-6BQwen-14BInternLM-20BTigerbot-13BTigerbot-70B多模态模型LLaVA1.5VisualGLM-6BVisCPMNexT-GPTMiniGPT
快乐小码农
·
2023-11-26 10:57
开源项目
AI
人工智能
大语言模型
LLM
开源模型
大语言模型概述(一):基于亚马逊云科技的研究分析与实践
大型语言模型指的是具有数十亿参数(B+)的预训练语言模型(例如:GPT-3,Bloom,
LLaMA
)。这种模型可以用于各种自然语言处理任务,如文本生成、机器翻译和自然语言理解等。
焦点快讯
·
2023-11-26 08:26
业界资讯
解读Lawyer
LLaMA
,延申专业领域大模型微调:数据集构建,模型训练
解读LawyerLLaMA,延申自己领域大模型微调:数据集构建,模型训练项目地址link自己领域的大模型微调,实现思路大都和这篇文章是一样的,有的是基于
LLaMA
,或者有的是基于Chinese-
LLaMA
dream_home8407
·
2023-11-26 08:57
llama
自然语言处理
人工智能
LLaMA
2:开源的预训练和微调语言模型推理引擎 | 开源日报 No.86
facebookresearch/llamaStars:36.0kLicense:NOASSERTIONLLaMA2是一个开源项目,用于加载
LLaMA
模型并进行推理。
开源服务指南
·
2023-11-26 08:23
开源日报
llama
语言模型
人工智能
开源大模型框架
llama
.cpp使用C++ api开发入门
llama
.cpp是一个C++编写的轻量级开源类AIGC大模型框架,可以支持在消费级普通设备上本地部署运行大模型,以及作为依赖库集成的到应用程序中提供类GPT的功能。
踏莎行hyx
·
2023-11-26 05:56
C++
微调
Llama
2 以替代 GPT-3.5/4 已然可行!
近日小编在使用最新版GPT-4-Turbo模型(主要特点是支持128k输入和知识库截止日期是2023年4月)时,发现不同商家提供的模型回复出现不一致的情况,尤其是模型均承认自己知识库达到2023年4月,但当我们细问时,FakeGPT4-Turbo(暂且这样称呼)出现了明显胡编乱造的情况,如下图所示:(其中一个是官方API直连一个是FakeGPT4-Turbo,你能区分出来吗?文末找答案~)思来想去
智慧地球(AI·Earth)
·
2023-11-25 06:45
Chatgpt
Llama
微调
FinGPT:金融垂类大模型架构
Overview动机架构底座模型:
Llama
2Chatglm2Lora训练技术路径自动收集数据并整理指令微调舆情分析搜新闻然后相似搜索检索增强架构智能投顾Huggingface地址学术成果及未来方向参考资料
uncle_ll
·
2023-11-25 01:30
AIGC
#
技术分享
金融
大模型
llm
FinGPT
全新Self-RAG框架亮相,自适应检索增强助力超越ChatGPT与
Llama
2,提升事实性与引用准确性
全新Self-RAG框架亮相,自适应检索增强助力超越ChatGPT与
Llama
2,提升事实性与引用准确性1.基本思想大型语言模型(LLMs)具有出色的能力,但由于完全依赖其内部的参数化知识,它们经常产生包含事实错误的回答
汀、人工智能
·
2023-11-24 10:18
self-RAG
自适应检索系统
向量检索
语义搜索
chatgpt
Llama2
搜索推荐系统
Devchat 的环境配置和使用
Devchat注册、获取和设置AccessKey选择不同模型使用简介DevChat是一款国内可用的基于大语言模型的开源VSCode编程插件,集成了GPT3.5、GPT4.0、XINGHUO-2、CLAUDE-2、
LLAMA
有请小发菜
·
2023-11-24 09:36
AI系列
vscode
python
基于V100下
Llama
2-Atom大模型微调
文章目录大规模的中文数据预训练模型部署模型微调Step1:环境准备Step2:数据准备Step3:微调脚本Step4:加载微调模型一些BUG大规模的中文数据预训练原子大模型Atom在
Llama
2的基础上
玖玖玖 柒染
·
2023-11-24 07:09
大模型
语言模型
人工智能
文心一言
深度学习
神经网络
自然语言处理
Mistral 7B 比
Llama
2更好的开源大模型 (四)
Mistral7B在平衡高性能和保持大型语言模型高效的目标方面迈出了重要的一步。通过我们的工作,我们的目标是帮助社区创建更实惠、更高效、更高性能的语言模型,这些模型可以在广泛的现实世界应用程序中使用。Mistral7B在实践中,对于16K和W=4096的序列长度,对FlashAttention[11]和xFormers[18]进行了更改,比普通注意力基线的速度提高了2倍。本文学习论文FlashAt
段智华
·
2023-11-24 02:56
ChatGPT学习
llama
Mistral
Flash
Attention
大模型增量预训练参数说明
欢迎关注公众号模型参数model_type模型类型,例如bloom,
llama
,baichuan,qwen等。model_name_or_path模型名称或者路径。
hj_caas
·
2023-11-24 02:32
领域模型三阶段训练
深度学习
人工智能
开源语言大模型演进史:向
LLaMA
2看齐
本文将介绍如何通过微调/对齐那些更出色的
LLaMA
-2等开源模型来提升它们的效果,并缩小开源和私有LLM之间的差距。(本文作者为Rebuy公司
OneFlow深度学习框架
·
2023-11-23 20:45
llama
[nlp] RuntimeError:
Llama
is supposed to be a BPE model!报错解决
#tokenizer=AutoTokenizer.from_pretrained(BASE_MODEL)改成这个legacy=False,use_fast=False:tokenizer=AutoTokenizer.from_pretrained(BASE_MODEL,legacy=False,use_fast=False)
心心喵
·
2023-11-23 19:44
nlp
linux
pytorch打印变量
importtorch#state_dict=torch.load("/home/
llama
-33B_epoch_0000_step_0004.pt/
llama
.bin")#state_dict=torch.load
upwind_fly
·
2023-11-23 06:36
python
深度学习
人工智能
StarCoder LLM for code
与
LLaMA
类似,我们为1万亿个代币训练了一个约15B的参数模型。我们针对35BPython令牌微调了StarCoderBase模型,产生了一个我们称之为StarCoder的
量化交易曾小健(金融号)
·
2023-11-23 05:13
ai
LLM:prompt指令数据制作
https://github.com/ymcui/Chinese-
LLaMA
-Alpacaimportopenaiimportjsonimportsysimportrandomopenai.api_key
u013250861
·
2023-11-22 21:00
#
LLM/SFT
prompt
大语言模型的三阶段训练
为了训练专有领域模型,选择
LLaMA
2-7B作为基座模型,由于
LLaMA
模型中文词表有限,因此首先进行中文词表的扩展,然后进行三阶段训练(增量预训练,有监督微调,强化学习)。
hj_caas
·
2023-11-21 12:53
领域模型三阶段训练
语言模型
人工智能
自然语言处理
揭秘:仅用一块3090,轻松高效部署InternLM-20B大模型!
它具备优异的综合性能,以不足三分之一的参数量,测评成绩达到了
Llama
2-70B的水平。200亿参数,大约占40G显存。
风度78
·
2023-11-21 10:56
超详细!大模型面经指南(附答案)
[x]大模型(LLMs)进阶面[x]1.
llama
输入句子长度理论上可以无限长吗?
人工智能与算法学习
·
2023-11-20 12:01
LLM大模型4位量化实战【GPTQ】
权重量化方面的最新进展使我们能够在消费类硬件上运行大量大型语言模型,例如RTX3090GPU上的
LLaMA
-30B模型。这要归功于性能下降最小的新型4位量化技术,例如GPTQ、GGML和NF4。
新缸中之脑
·
2023-11-20 02:52
mvc
大语言模型的三阶段训练
为了训练专有领域模型,选择
LLaMA
2-7B作为基座模型,由于
LLaMA
模型中文词表有限,因此首先进行中文词表的扩展,然后进行三阶段训练(增量预训练,有监督微调,强化学习)。
hj_caas
·
2023-11-20 01:22
LLM
语言模型
人工智能
自然语言处理
通过制作
llama
_cpp的docker镜像在内网离线部署运行大模型
对于机器在内网,无法连接互联网的服务器来说,想要部署体验开源的大模型,需要拷贝各种依赖文件进行环境搭建难度较大,本文介绍如何通过制作docker镜像的方式,通过
llama
.cpp实现量化大模型的快速内网部署体验
springlustre
·
2023-11-17 00:06
linux
大模型
llama
docker
大模型
Mistral 7B 比
Llama
2更好的开源大模型 (三)
Mistral7B比
Llama
2更好的开源大模型Mistral7B是一个70亿参数的语言模型,旨在获得卓越的性能和效率。
段智华
·
2023-11-16 21:40
ChatGPT学习
llama
GQA
Mistral
零一万物回应「抄袭
LLaMA
」;京东原副总裁试用可穿戴人工喉丨 RTE 开发者日报 Vol.85
本期编辑:@Asui,@CY01有话题的新闻1、零一万物回应「抄袭
LLaMA
」:尊重开源社区反馈,
声网
·
2023-11-16 18:32
人工智能
错误:CUDA error: device-side assert triggered CUDA kernel errors
对
llama
扩充中文词表后直接增量预训练,忘记设置--modules_to_saveembed_tokens,lm_head,所以导致向量维度不一致,出现下面的错误。
hj_caas
·
2023-11-16 17:02
bug解决
python
win10部署 Mistral-7B 文本生成模型
16日人工智能创业公司MistralAI以Apache2.0授权开源Mistral7B语言模型,Mistral7B的特别之处在于其规模较小仅有73亿,但是在所有基准测试上,其表现都优于规模更大的语言模型
Llama
213B
绀目澄清
·
2023-11-16 17:31
pytorch
pytorch
NLP-分词器:SentencePiece【参考Chinese-
LLaMA
-Alpaca在通用中文语料上训练的20K中文词表并与原版
LLaMA
模型的32K词表进行合并的代码】
目前,开源的大语言模型主要有三大类:ChatGLM衍生的大模型(wenda、ChatSQL等)、
LLaMA
衍生的大模型(Alpaca、Vicuna、BELLE、Phoenix、Chimera等)、Bloom
u013250861
·
2023-11-16 17:00
#
NLP基础/分词
自然语言处理
人工智能
llama
模型研究系列1
一、
llama
模型的结构是怎么样的?
Takoony
·
2023-11-16 17:28
llama
打败700亿
LLaMA
2,苹果电脑就能跑|开源免费
西风发自凹非寺量子位|公众号QbitAI花500刀“调教”的70亿参数模型,打败700亿参数的
Llama
2!且笔记本就能轻松跑,效果媲美ChatGPT。重点:免费、不要钱。
QbitAl
·
2023-11-16 17:57
LLM大模型之基于SentencePiece扩充
LLaMa
中文词表实践
LLM大模型之基于SentencePiece扩充
LLaMa
中文词表实践目前大模型的词表和分词器都是基于SentencePiece工具实现的,比如
LLaMa
,BLOOM,ChatGLM,Baichuan等
Glan格蓝
·
2023-11-16 17:56
LLM大模型
llama
chatgpt
语言模型
nlp
LLaMA
模型之中文词表的蜕变
在目前的开源模型中,
LLaMA
模型无疑是一颗闪亮的⭐️,但是相对于ChatGLM、BaiChuan等国产大模型,其对于中文的支持能力不是很理想。
hj_caas
·
2023-11-16 17:25
LLM
llama
LLM(四)| Chinese-
LLaMA
-Alpaca:包含中文
LLaMA
模型和经过指令微调的 Alpaca 大型模型
EFFICIENTANDEFFECTIVETEXTENCODINGFORCHINESELLAMAANDALPACA》论文地址:https://arxiv.org/pdf/2304.08177v1.pdfGithub地址:https://github.com/ymcui/Chinese-
LLaMA
-Alpaca
wshzd
·
2023-11-16 17:25
ChatGPT
笔记
llama
北大联合智源提出训练框架
LLaMA
-Rider
北京大学和北京智源人工智能研究院的团队针对这个问题提出了
LLaMA
-Rider,该方法赋予了大模型在开放世界中探索任务、收集数据、学习策略的能力,助力智能体在《我的世界》(Minecraft)中自主探索获
richerg85
·
2023-11-16 17:55
llama
AI大模型
人工智能
Mistral 7B 比
Llama
2更好的开源大模型 (二)
Mistral7B论文学习Mistral7B论文链接https://arxiv.org/abs/2310.06825代码:https://github.com/mistralai/mistral-src网站:https://mistral.ai/news/announcing-mistral-7b/论文摘要Mistral7B是一个70亿参数的语言模型,旨在获得卓越的性能和效率。Mistral7B在
段智华
·
2023-11-16 17:24
ChatGPT学习
Mistral
Llama
完整时间线!李开复Yi大模型套壳争议;第二届AI故事大赛;AI算命GPTs;LLM应用全栈开发笔记;GPT-5提上日程 | ShowMeAI日报
/huggingface.co/01-ai/Yi-34B/discussions/11#6553145873a5a6f938658491最近两天,李开复麾下「零一万物」最新推出的Yi大模型陷入了「套壳
LLaMA
2
ShowMeAI
·
2023-11-16 15:33
ShowMeAI资讯日报
⛽
首席AI资讯收纳官
人工智能
copilot
大语言模型
AIGC
prompt
chatgpt
llama
最新类ChatPDF及AutoGPT开源18大功能平台——闻达手把手超详细环境部署与安装——如何在低显存单显卡上面安装私有ChatGPT GPT-4大语言模型LLM调用平台
及AutoGPT开源模型——闻达环境部署及安装相关代码及模型下载解压模型到指定地址配置文件修改根据使用的不同模型,安装相关库运行体验运行chatGLM-6B大语言模型运行chatRWKV大语言模型运行
llama
小胡说人工智能
·
2023-11-16 15:57
ChatGPT商业应用
学习路线
开源
chatgpt
语言模型
人工智能
自然语言处理
141 GB 超大显存,
Llama
2推理性能翻倍,老黄赢麻了!
原创作者|王二狗英伟达又一次打了所有人措手不及!就在昨晚,老黄发布了新一代史上最强AI芯片NVIDIAHGX™H200。141GB超大显存!带宽增加2.4倍H200拥有141GB显存!相比之前的H100和A100,容量几乎翻倍!NVIDIAH200是首款提供HBM3e的GPU,借助HBM3e,NVIDIAH200以每秒4.8TB的速度提供141GB显存,带宽增加2.4倍。H200可以轻松加速生成式
夕小瑶
·
2023-11-16 11:07
人工智能
芯片
英伟达
APUS与深圳大学大数据国家工程实验室联合训练开源中文大模型
双方集成各自优势联合开发、开源高性能中文多模态大模型Linly-Chinese-
LLaMA
-2-70B。
商业资讯汇
·
2023-11-15 22:03
大数据
人工智能
多个APP未收到苹果叫停摇一摇通知;OpenAI重金挖角谷歌,年薪可达1000万美元;FFmpeg 6.1发布|极客头条
基于
LLaMA
却改张量名,零一万物官方回应华为对平板电脑提价或因存储价格上涨,系余承东主导决策阿里智能信息事业群宣布发布自研大模型,夸克App将全面升级多个APP未收到苹果叫停摇一摇通知京东原副总裁、渐冻人蔡磊全球首次试用可穿戴人工喉
极客日报
·
2023-11-15 10:26
ffmpeg
推荐收藏!大模型算法工程师面试题来了(附答案)
历经了百模大战、
Llama
2开源、GPTs发布等一系列里程碑事件,将大模型技术推至无可争议的C位。基于大模型的研究与讨论,也让我们愈发接近这波技术浪潮的核心。
Python算法实战
·
2023-11-14 04:42
大模型理论与实战
大模型
算法
人工智能
大模型
深度学习
面试题
【NLP】理解
Llama
2:KV 缓存、分组查询注意力、旋转嵌入等
LLaMA
2.0是MetaAI的开创性作品,作为首批高性能开源预训练语言模型之一闯入了AI场景。值得注意的是,
LLaMA
-13B的性能优于巨大的GPT-3(175B),尽管其尺寸只是其一小部分。
Sonhhxg_柒
·
2023-11-13 18:19
自然语言处理(NLP)
人工智能(AI)
LLMs(大型语言模型)
自然语言处理
人工智能
llama
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他