E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLAMA
使用 PyTorch FSDP 微调
Llama
2 70B
通过本文,你将了解如何使用PyTorchFSDP及相关最佳实践微调
Llama
270B。在此过程中,我们主要会用到HuggingFaceTransformers、Accelerate和TRL库。
Python算法实战
·
2023-12-15 13:46
pytorch
llama
人工智能
使用 PyTorch FSDP 微调
Llama
2 70B
引言通过本文,你将了解如何使用PyTorchFSDP及相关最佳实践微调
Llama
270B。在此过程中,我们主要会用到HuggingFaceTransformers、Accelerate和TRL库。
Hugging Face
·
2023-12-15 12:35
pytorch
llama
人工智能
python
深度学习
LLM推理部署(六):TogetherAI推出世界上LLM最快推理引擎,性能超过vLLM和TGI三倍
Together推理引擎可以支持100多个开源大模型,比如
Llama
-2,并在
Llama
-2–70B-Chat上每秒生成117个tokens,在
Llama
2–13B-Chat中每秒生成171个tokens
wshzd
·
2023-12-15 05:31
ChatGPT
笔记
人工智能
探索AIGC未来:CPU源码优化、多GPU编程与中国算力瓶颈与发展
★人工智能;大数据技术;AIGC;Turbo;DALL·E3;多模态大模型;MLLM;LLM;Agent;
Llama
2;国产GPU芯片;GPU;CPU;高性能计算机;边缘计算;大模型显存占用;5G;深度学习
高性能服务器
·
2023-12-15 04:30
AIGC
只有27亿参数,性能却高25倍!微软发布Phi-2
虽然Phi-2的参数很小,性能却优于130亿参数的
Llama
-2和70亿参数的Mistral,以及谷歌最新发布的GeminiNano2。
richerg85
·
2023-12-14 17:45
microsoft
人工智能
aigc
开源大模型超越GPT-3.5!爆火MoE实测结果出炉
一条神秘磁力链接引爆整个AI圈,现在,正式测评结果终于来了:首个开源MoE大模型Mixtral8x7B,已经达到甚至超越了
Llama
270B和GPT-3.5的水平。
richerg85
·
2023-12-14 17:45
gpt-3
人工智能
Llama
2:新一代开源LLM,可用于研究和商业用途
目前已经有一些公开发布的预训练LLMs,如BLOOM、
LLaMa
-1和Falcon,它们与闭源预训练模型如GPT-3和Chinchilla相媲美。但是,这些模型
技术狂潮AI
·
2023-12-06 19:56
LLM应用实战
llama
语言模型
人工智能
开源
LLM微调(二)| 微调
LLAMA
-2和其他开源LLM的两种简单方法
本文将介绍两种开源工具来微调
LLAMA
-2。
wshzd
·
2023-12-06 19:25
笔记
ChatGPT
llama
chatgpt
大模型部署手记(11)
LLaMa
2+Chinese-
LLaMA
-Plus-2-7B+Windows+
llama
.cpp+中文对话
1.简介:组织机构:Meta(Facebook)代码仓:GitHub-facebookresearch/
llama
:InferencecodeforLLaMAmodels模型:LIama-2-7b-hf
张小白TWO
·
2023-12-06 13:44
大模型
llama
windows
大模型部署手记(8)
LLaMa
2+Windows+
llama
.cpp+英文文本补齐
1.简介:组织机构:Meta(Facebook)代码仓:https://github.com/facebookresearch/
llama
模型:
llama
-2-7b下载:使用download.sh下载硬件环境
张小白TWO
·
2023-12-06 13:43
大模型
深度学习
windows
大模型部署手记(9)
LLaMa
2+Chinese-
LLaMA
-Plus-7B+Windows+
llama
.cpp+中文文本补齐
1.简介:组织机构:Meta(Facebook)代码仓:GitHub-facebookresearch/
llama
:InferencecodeforLLaMAmodels模型:
llama
-2-7b、Chinese-
LLaMA
-Plus
张小白TWO
·
2023-12-06 13:43
大模型
llama
windows
大模型部署手记(10)
LLaMa
2+Chinese-
LLaMA
-Plus-7B+Windows+
llama
.cpp+中英文对话
1.简介:组织机构:Meta(Facebook)代码仓:GitHub-facebookresearch/
llama
:InferencecodeforLLaMAmodels模型:
llama
-2-7b、
llama
张小白TWO
·
2023-12-06 13:43
大模型
llama
windows
LLama
2 CPU Windows 部署-小白踩坑合集
关于
Llama
下载相关-小白踩坑1、直接在官网申请(需要梯子):https://ai.meta.com/
llama
/https://ai.meta.com/
llama
/申请的时候注意一定要点击下一步,我在这个上面踩过坑
λ+μ=1
·
2023-12-06 13:42
llama
在Windows CPU上使用oobabooga webui部署
llama
.cpp量化的
LLaMA
2模型
首先安装oobabooga/text-generation-webuigitclonehttps://github.com/oobabooga/text-generation-webui.git运行start_windows.bat进行配置,先在脚本里安装miniconda环境,然后运行one_click.py配置python环境,可以改one_click.py的部分代码使用清华的镜像源,其中re
chen499093551
·
2023-12-06 13:12
llama
llama
.cpp部署(windows)
一、下载源码和模型下载源码和模型#下载源码gitclonehttps://github.com/ggerganov/
llama
.cpp.git#下载
llama
-7b模型gitclonehttps://www.modelscope.cn
wwwsctvcom
·
2023-12-06 13:40
自然语言处理
llama
语言模型
大模型技术的发展与实践
大语言模型是一种深度学习模型,特别是属于自然语言处理(NLP)的领域,一般是指包含数干亿(或更多)参数的语言模型,这些参数是在大量文本数据上训练的,例如模型GPT-3,PaLM,
LLaMA
等,大语言模型的目的是理解和生成自然语言
攻城狮Wayne
·
2023-12-06 03:45
开源项目
大数据
数据库架构
教你5步学会用
Llama
2:我见过最简单的大模型教学
在这篇博客中,Meta探讨了使用
Llama
2的五个步骤,以便使用者在自己的项目中充分利用
Llama
2的优势。
Python算法实战
·
2023-12-05 11:35
学习笔记
大模型
大模型理论与实战
学习方法
机器学习
人工智能
pytorch
大模型
Lag-
Llama
:基于
LlaMa
的单变量时序预测基础模型
文章构建了一个通用单变量概率时间预测模型Lag-
Llama
,在来自MonashTimeSeries库中的大量时序数据上进行了训练,并表现出良好的零样本预测能力。
Python算法实战
·
2023-12-05 11:33
大模型理论与实战
llama
算法
人工智能
大模型
时间序列
RoPE旋转位置编码浅析
RoPE旋转位置编码浅析本文介绍了旋转位置编码RoPE在大模型中的广泛应用,包括
Llama
、Mistral7B、Baichuan、ChatGLM、Qwen、…等。
段智华
·
2023-12-05 08:47
ChatGPT学习
RoPE
LLM-Intro to Large Language Models
Llama
270bmodel2filesparametersfileparameterorweightofneuralnetworkparameter–2bytes,floatnumbercoderunparameters
mrbone11
·
2023-12-04 07:46
AI
语言模型
人工智能
自然语言处理
LLM
llama
llama
.cpp部署通义千问Qwen-14B
llama
.cpp是当前最火热的大模型开源推理框架之一,支持了非常多的LLM的量化推理,生态比较完善,是个人学习和使用的首选。
静待梅花开
·
2023-12-04 01:22
DeepLearning
llama
阿里云
transformer
Langchain-Chatchat的安装过程
参考:LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知识库问答应用)的简介(支持FastChat接入的ChatGLM-2/
LLaMA
-2等多款主流LLMs+多款embe
wangqiaowq
·
2023-12-03 21:31
langchain
周报6_YMK
周报6本周主要在看代码:看Medusa头的代码发现不是很了解base_model那部分,所以又去看了
llama
2的代码和一些相关博客。重写了一部分佛山中医学院项目的代码,更规范一些。
YMK_0
·
2023-12-03 14:37
学习
阿里云开源通义千问720亿参数模型,性能超越大部分商用闭源大模型
Qwen-72B在10个权威基准测评创下开源模型最优成绩,成为业界最强开源大模型,性能超越开源标杆
Llama
2-70B和大部分商用闭源模型。未来,企业级、科研级的高性能应用,也有了开源大模型这一选项。
CSDN云计算
·
2023-12-02 17:47
人工智能
基于
Llama
2 和 OpenVINO™ 打造聊天机器人
作者:武卓博士英特尔OpenVINO布道师,杨亦诚英特尔AI软件工程师
Llama
2是Meta发布了其最新的大型语言模型,
Llama
2是基于Transformer的人工神经网络,以一系列单词作为输入,递归地预测下一个单词来生成文本
英特尔开发人员专区
·
2023-12-02 10:32
开发者分享
OpenVINO
人工智能
openvino
人工智能
最新Claude2.1、
Llama
2随便用!亚马逊把生成式AI开发门槛打下去了
就在刚刚,亚马逊云科技在年度盛会re:Invent中正式宣布:在我这搞生成式AI应用,主流、最新大模型随便用~例如Meta家的
Llama
270B、Antropic家的Claude2.1等等:能够将如此众多大模型
QbitAl
·
2023-12-02 10:00
人工智能
计算机视觉
最新千亿大模型免费商用:1026亿参数,无需授权!诚邀开发者共同训练
这便是来自浪潮信息最新的开源大模型,源2.0;话不多说,直接来看下测试结果~在业界公开的数据集上,源2.0与GPT-4、
Llama
2同台竞技的结果如下:△采用与源2.0相同的输入调用Cha
QbitAl
·
2023-12-02 10:30
[AI]如何让语言模型LLMs流式输出:HuggingFace Transformers实现
HugginFaceTransforms是一个非常方便的库,集成了非常多SOTA的模型,包含:
LLAMA
,GPT,ChatGLMMoss,等。
AlgorithmWillBeFine
·
2023-12-02 10:58
语言模型
python
人工智能
自然语言处理
gpt
阿里云通义千问720亿参数模型开源,适配企业级、科研级高性能应用
Qwen-72B在10个权威基准测评创下开源模型最优成绩,成为业界最强开源大模型,性能超越开源标杆
Llama
2-70B和大部分商用闭源模型。未来,企业级、科研级的高性能应用,也有了开源大模型这一选项。
光锥智能
·
2023-12-02 08:06
阿里云
开源
云计算
腾讯云 CODING 快速应用中心,让您 10 分钟轻松玩转 AIGC
很多人已经听说过StableDiffusionAI绘图和Meta公司推出的免费大语言模型
Llama
2,它们代表了当今最前沿的技术水平。但对于绝大多数人来说,尝试和体验这些前沿技术仍然有着较高的门槛。
腾云 CODING
·
2023-12-01 19:56
腾讯云
AIGC
云计算
聊一聊大模型 | 京东云技术团队
一时间引爆了整个人工智能界,各大巨头也纷纷跟进发布了自家的大模型,如:百度-文心一言、科大讯飞-星火大模型、Meta-
LLama
等那么到底多大的模型算大模型呢?
京东云技术团队
·
2023-12-01 14:49
人工智能
京东云
大模型
人工智能
『亚马逊云科技产品测评』活动征文|搭建基于
llama
2的钉钉聊天机器人
包括不限于在DeveloperCentre,知乎,自媒体平台,第三方开发者媒体等亚马逊云科技官方渠道背景之前一段时间有通过用GPT对接对接过个人微信的群,但是没过多久微信就被警告不能扫码了,所以这次尝试把
Llama
2
好名字全被占用ABC
·
2023-11-30 06:39
科技
钉钉
机器人
Langchain-Chatchat学习
保姆级教程|次世代知识管理解决方案-知乎(zhihu.com)中文LLM生态观察模型就开源的部分而言,从一开始的MOSS[1]ChatGLM[2]ChatGLM2[3]到后来的baichan[4]基于
LLama
2
wangqiaowq
·
2023-11-29 16:17
langchain
学习
Code
Llama
:代码的开放基础模型
【翻译
llama
-2.ai的《CodeLlama:OpenFoundationModelsforCode》】Meta发布了CodeLlama,这是一系列基于
Llama
2的大型语言模型,可在开放模型中提供最先进的性能
DisonTangor
·
2023-11-29 13:15
llama
人工智能
深度学习
怎样提示Code
Llama
【翻译ollama.ai的《HowtopromptCodeLlama》】就在两周前由Meta发布了三种CodeLlama模型:-Instruct(指令)-Codecompletion(代码补全)-Python本指南将介绍针对CodeLlama的不同变体和功能构建提示的不同方法。以下示例使用具有4位量化的70亿参数模型,但也提供了130亿和340亿参数模型。本指南使用开源Ollama项目来下载和提示
DisonTangor
·
2023-11-29 13:15
llama
python
人工智能
精调
llama
模型
github地址:https://github.com/facebookresearch/
llama
-recipesgithub:https://github.com/facebookresearch/
WitsMakeMen
·
2023-11-29 11:46
llama
Goat: Fine-tuned
LLaMA
Outperforms GPT-4 on Arithmetic Tasks
在这篇文章中,作者提出了Goat,通过领域数据微调
LLaMA
,包含1M指令数据,实现了在基础数学上
HanZee
·
2023-11-29 05:13
llama
人工智能
深度学习
LangChain 12调用模型HuggingFace中的
Llama
2和Google Flan t5
LangChain系列文章LangChain实现给动物取名字,LangChain2模块化prompttemplate并用streamlit生成网站实现给动物取名字LangChain3使用Agent访问Wikipedia和llm-math计算狗的平均年龄LangChain4用向量数据库Faiss存储,读取YouTube的视频文本搜索IndexesforinformationretrieveLangC
AI架构师易筋
·
2023-11-28 15:51
LLM-Large
Language
Models
langchain
chatgpt
LLM
prompt
oobabooga-text-generation-webui可能是最好的语言模型启动器(包含手把手安装教程)
oobabooga-text-generation-webui是一个用于运行类似Chatglm、RWKV-Raven、Vicuna、MOSS、
LLaMA
、
llama
.cpp、GPT-J、Pythia、OPT
javastart
·
2023-11-28 09:38
大模型
人工智能
chatgpt
语言模型
预测token速度翻番!Transformer新解码算法火了,来自小羊驼团队|代码已开源
比如这是同一个模型(
LLaMa
-2-Chat7B)面对同一个用户提问(苏格拉底采用了哪些方法来挑战他那个时代的主流思想?)
QbitAl
·
2023-11-27 09:43
transformer
算法
深度学习
人工智能
LLaMA
2端到端推理打通!来自中国团队
允中发自凹非寺量子位|公众号QbitAIBuddyCompiler端到端
LLaMA
2-7B推理示例已经合并到buddy-mlir仓库[1]主线。
QbitAl
·
2023-11-27 09:11
llama
微软发布了Orca 2,一对小型语言模型,它们的性能超越了体积更大的同类产品
今天,由萨提亚·纳德拉领导的公司研究部门发布了Orca2,这是一对小型语言模型,它们在零样本设置下对复杂推理任务的测试中,要么匹敌要么超越了体积是它们五到十倍的大型语言模型,包括Meta的
Llama
-2Chat
新加坡内哥谈技术
·
2023-11-27 06:21
语言模型
人工智能
自然语言处理
Chatbot开发三剑客:
LLAMA
、LangChain和Python
在这一领域中,
LLAMA
、LangChain和Python的联合形成了一个强大的组合,为Chatbot的设计和实现提供了卓越支持。
Python中文社区
·
2023-11-27 06:24
llama
langchain
python
开发语言
LLM-2023:Alpaca(羊驼)【Stanford】【性能与GPT3.5相当比GPT4逊色,训练成本不到100美元,基于
LLaMA
和指令微调,仅使用约5万条训练数据就能达到类似GPT-3.5】
斯坦福的Alpaca模型基于
LLaMA
-7B和指令微调,仅使用约5万条训练数据,就能达到类似GPT-3.5的效果。
u013250861
·
2023-11-27 05:05
#
LLM/经典模型
gpt-3
llama
python
大模型三阶段训练
为了训练专有领域模型,选择
LLaMA
2-7B作为基座模型,由于
LLaMA
模型中文词表有限,因此首先进行中文词表的扩展,然后进行三阶段训练(增量预训练,有监督微调,强化学习)。
hj_caas
·
2023-11-26 20:17
领域模型三阶段训练
深度学习
人工智能
如何NCBI上传Genbank数据
作者:
llama
审稿:童蒙编辑:amethyst01登录NCBI与前面是相同的步骤,此处就不再重复了,登录完成后同样点击首页的submit进入即可,进入后往下翻页,看到Genbank提交数据,选择对应的选项即可
生信阿拉丁
·
2023-11-26 18:44
盘点2023年Q3的开源模型,这些值得推荐!
基座模型
LLaMA
2Baichuan2ChatGLM2-6BQwen-14BInternLM-20BTigerbot-13BTigerbot-70B多模态模型LLaVA1.5VisualGLM-6BVisCPMNexT-GPTMiniGPT
快乐小码农
·
2023-11-26 10:57
开源项目
AI
人工智能
大语言模型
LLM
开源模型
大语言模型概述(一):基于亚马逊云科技的研究分析与实践
大型语言模型指的是具有数十亿参数(B+)的预训练语言模型(例如:GPT-3,Bloom,
LLaMA
)。这种模型可以用于各种自然语言处理任务,如文本生成、机器翻译和自然语言理解等。
焦点快讯
·
2023-11-26 08:26
业界资讯
解读Lawyer
LLaMA
,延申专业领域大模型微调:数据集构建,模型训练
解读LawyerLLaMA,延申自己领域大模型微调:数据集构建,模型训练项目地址link自己领域的大模型微调,实现思路大都和这篇文章是一样的,有的是基于
LLaMA
,或者有的是基于Chinese-
LLaMA
dream_home8407
·
2023-11-26 08:57
llama
自然语言处理
人工智能
LLaMA
2:开源的预训练和微调语言模型推理引擎 | 开源日报 No.86
facebookresearch/llamaStars:36.0kLicense:NOASSERTIONLLaMA2是一个开源项目,用于加载
LLaMA
模型并进行推理。
开源服务指南
·
2023-11-26 08:23
开源日报
llama
语言模型
人工智能
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他