E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
llama
使用langchain及
llama
_index实现基于文档(长文本)的相似查询与询问
然而,通过结合使用langchain和
llama
_index这两个强大的工具,我们可以克服这个限制,实现对长文本的高效查询和询问。2.简介langchain是
如果皮卡会coding
·
2023-07-25 05:52
Python
语言模型
llama
人工智能
langchain
Langchain 新手完全指南
它是一个框架,用于在大型语言模型上开发应用程序,例如GPT、
LLama
、HuggingFace模型等。
javastart
·
2023-07-25 03:15
大模型
langchain
chatgpt
gpt-3
Meta牵手Microsoft推出下一代
Llama
2
官方消息1、今天,我们将介绍
Llama
2的可用性,这是我们的下一代开源大型语言模型。2、
Llama
2免费用于研究和商业用途。
大伟先生
·
2023-07-25 03:42
人工智能
microsoft
llama
【LLM系列之
LLaMA
2】
LLaMA
2技术细节详细介绍!
Llama
2发布!Meta刚刚发布了
LLaMa
2,它是
LLaMA
的下一代版本,具有商业友好的许可证。
LLaMA
2有3种不同的尺寸:7B、13B和70B。
致Great
·
2023-07-24 22:08
llama
650亿参数大模型预训练方案开源可商用,
LLaMA
训练加速38%
这就是由Colossal-AI最新发布的类
LLaMA
基础大模型预训练方案。要知道,在“百模大战”背景下,谁拥有自家大模型,往往被视为核心竞争力。在这个节点下,愿意开源大模型的公司少之又少。
sam5198
·
2023-07-24 22:01
AI人工智能
开源
llama
Llama
2: Open Foundation and Fine-Tuned Chat Models
文章目录TL;DRIntroduction背景本文方案实现方式预训练预训练数据训练细节训练硬件支持预训练碳足迹微调SFTSFT训练细节RLHF人类偏好数据收集奖励模型迭代式微调(RLHF)拒绝采样(RejectionSampling)PPO多轮一致性的系统消息(SystemMessageforMulti-TurnConsistency)安全性预训练中的安全性讨论学习和观察基于上下文的温度系数缩放(
kebijuelun
·
2023-07-24 22:27
llama
人工智能
语言模型
深度学习
chatgpt
gpt
使用 Docker 快速上手官方版
LLaMA
2 开源大模型
本篇文章,我们聊聊如何使用Docker容器快速上手MetaAI出品的
LLaMA
2开源大模型。
soulteary
·
2023-07-24 21:29
LLaMA2
Docker
Python
LLM
人工智能
开源
用 Hugging Face 推理端点部署 LLM
开源的LLM,如Falcon、(Open-)
LLaMA
、X-Gen、StarCoder或RedPajama,近几个月来取得了长足的进展,能够在某些用例中与闭源模型如ChatGPT或GPT4竞争。
Hugging Face
·
2023-07-24 20:39
Llama
2开源大模型的新篇章以及在阿里云的实践
Llama
一直被誉为AI社区中最强大的开源大模型。然而,由于开源协议的限制,它一直不能被免费用于商业用途。
DePeng8899
·
2023-07-24 19:20
人工智能
人工智能
MPT-7B:开源,商业可用,性能堪比
LLaMA
-7B的LLM新成员
简介:Meta开源了
LLama
,不过有很多限制,很难商业运用。于是现在MosaicML开发了MPT-7B模型,它是一个基于Transformer在1T文本/代码Token上训练出来的模型。
才能我浪费
·
2023-07-24 18:05
llama
深度学习
人工智能
在自定义数据集上微调Alpaca和
LLaMA
本文将介绍使用LoRa在本地机器上微调Alpaca和
LLaMA
,我们将介绍在特定数据集上对AlpacaLoRa进行微调的整个过程,本文将涵盖数据处理、模型训练和使用流行的自然语言处理库(如Transformers
deephub
·
2023-07-24 18:04
llama
机器学习
深度学习
transformer
大语言模型
【大模型】更强的
LLaMA
2 来了,开源可商用、与 ChatGPT 齐平
【大模型】可商用且更强的
LLaMA
2来了
LLaMA
2简介论文GitHubhuggingface模型列表训练数据训练信息模型信息许可证参考
LLaMA
2简介2023年7月19日:Meta发布开源可商用模型
Llama
2
szZack
·
2023-07-24 15:21
大语言模型
llama2
chatgpt
llm
【AI实战】
llama
.cpp 量化部署
llama
-33B
【AI实战】
llama
.cpp量化部署
llama
-33Bllama.cpp量化介绍环境配置安装
llama
.cpp拉取
llama
.cpp仓库代码编译
llama
.cpp生成量化版本模型模型准备将上述.pth
szZack
·
2023-07-24 14:16
大语言模型
llama
llama.cpp
大模型量化
在中文
LLaMA
模型上进行精调
最近在开源项目ymcui/Chinese-
LLaMA
-Alpaca的基础上完成了自己的中文模型精调工作,形成了两个工具共享给大家。
百家饭OpenAPI
·
2023-07-24 14:14
AI
llama
ai
语言模型
使用GGML和LangChain在CPU上运行量化的
llama
2
MetaAI在本周二发布了最新一代开源大模型
Llama
2。
deephub
·
2023-07-24 14:42
langchain
深度学习
大语言模型
llama
自然语言处理
Meta发布
Llama
2,开源且免费商用!
【Meta发布
Llama
2,开源且免费商用!】Meta宣布发布了超厉害的大模型
Llama
2,而且居然是免费的,还可以商用!
ooope
·
2023-07-24 14:25
llama
LLMs之
LLaMA
2:
LLaMA
2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略
LLMs之
LLaMA
2:
LLaMA
2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略导读:2023年7月18日,Meta重磅发布
Llama
2!
一个处女座的程序猿
·
2023-07-24 14:51
NLP/LLMs
基础大模型
自然语言处理
LLaMA
阿里最新年报:万霖、蒋凡成合伙人;Twitter 网址迁移至 X.com;Cython 3.0 发布|极客头条
阿里最新年报:菜鸟、国际商业成绩亮眼,万霖、蒋凡成合伙人B站内测大模型驱动的搜索助手功能任正非:华为需要盯着做事的干部,而不是会做人的干部王小川回应
LLaMa
套壳争议阿里巴巴:公司将不在蚂蚁集团拟议
极客日报
·
2023-07-24 09:18
快讯
极客日报
twitter
全球生成式AI大竞赛,
Llama
2大模型现已可在亚马逊云科技上使用
一直以来
Llama
可以说是AI社区内最强大的开源大模型。但因为开源协议问题,一直不可免费商用。7月19日,Meta发布了大家期待已久的免费可商用版本
Llama
2。一夜之间,大模型格局再次发生巨变。
XZ战
·
2023-07-23 17:30
segmentfault
音视频
火绒安全
飞书
蓝湖
LLM 盛行,如何优雅地训练大模型?
ChatGPT于2022年12月初发布,震惊轰动了全世界,发布后的这段时间里,一系列国内外的大模型训练开源项目接踵而至,例如Alpaca、BOOLM、
LLaMA
、ChatGLM、DeepSpeedChat
kaiyuan_sjtu
·
2023-07-23 07:13
Meta发布升级大模型
LLaMA
2:开源可商用
论文地址:https://ai.meta.com/research/publications/
llama
-2-open-foundation-and-fine-tuned-chat-models/Github
wshzd
·
2023-07-22 20:55
llama
基础语言模型
LLaMA
LLaMA
包含从7B到65B参数的基础语言模型集合。Meta在数万亿个tokens上训练了模型,
LLaMA
-13B在大多数基准测试中优于GPT-3(175B)。
tzc_fly
·
2023-07-22 14:39
生成式AI
语言模型
llama
人工智能
更强的
Llama
2开源,可直接商用:一夜之间,大模型格局变了
一直以来
Llama
可以说是AI社区内最强大的开源大模型。但因为开源协议问题,一直不可免费商用。今日,Meta终于发布了大家期待已久的免费可商用版本
Llama
2。
语音之家
·
2023-07-22 06:18
智能语音
llama
开源
AIGC
人工智能
语音识别
LLaMA
基础大模型复刻最佳实践开源,GitHub已获30k星
开源
LLaMA
神话再次复现!首个开源650亿参数大模型高性能预训练方案,训练加速38%,低成本打造量身大模型。「百模大战」正风起云涌,AIGC相关企业融资和并购金额也屡创新高,全球科技企业争相入局。
语音之家
·
2023-07-22 06:17
智能语音
llama
开源
github
格局打开,Meta 发布免费商业应用的开源 AI 模型
Llama
2,网友:微软又赢麻了!...
整理|屠敏出品|CSDN(ID:CSDNnews)昔日的竞争对手,今日的合作盟友;忽如一夜春风来,开源大模型迎来新局面;今天是OSSAI胜利的一天;随着Meta最新发布一个新的开源AI模型——
Llama
2
CSDN 程序人生
·
2023-07-21 09:58
人工智能
llama
市值216亿芯片股收监管工作函;工信部将采取举措推动算力发展;文心大模型3.5能力已超ChatGPT 3.5丨每日大事件...
Meta发布
Llama
2模型,与微软、高通展
数据猿
·
2023-07-21 09:39
chatgpt
linux Ubuntu Python 3.10 环境报错与解决方案集合
环境配置参考文章:使用Alpaca-Lora基于
LLaMA
(7B)二十分钟完成微调1.报错.nvidia/cublas/lib/libcublas.so.11:undefinedsymbol:cublasLtHSHMatmulAlgoInit
Jay_fearless
·
2023-07-20 21:34
Python
大模型
亚马逊云科技现已支持 Meta 推出的最新
Llama
2 基础模型
一直以来
Llama
可以说是AI社区内最强大的开源大模型。但因为开源协议问题,一直不可免费商用。今天,Meta发布了大家期待已久的免费可商用版本
Llama
2。一夜之间,大模型格局再次发生巨变。
亚马逊云开发者
·
2023-07-20 18:11
科技
llama
LLaMA
微调记录
本文基于开源代码https://github.com/Lightning-AI/lit-
llama
/tree/main执行微调其他参考链接:AcceleratingLLaMAwithFabric:AComprehensiveGuidetoTrainingandFine-TuningLLaMA-LightningAI
Enabler_Rx
·
2023-07-20 16:21
bug
Meta 发布大模型
Llama
2 ,开源且免费商用
今日,Meta发布了大家期待已久的免费可商用版本
Llama
2。和今年2月发布的
Llama
1相比,
Llama
2的训练数据多了40%,上下文长度也翻倍。推荐阅读:▶身价翻300倍!
CSDN 程序人生
·
2023-07-20 09:04
格局打开,Meta 发布免费商业应用的开源 AI 模型
Llama
2,网友:微软又赢麻了!...
整理|屠敏出品|CSDN(ID:CSDNnews)昔日的竞争对手,今日的合作盟友;忽如一夜春风来,开源大模型迎来新局面;今天是OSSAI胜利的一天;随着Meta最新发布一个新的开源AI模型——
Llama
2
CSDN资讯
·
2023-07-20 09:04
人工智能
llama
【LLM】金融大模型场景和大模型Lora微调实战
文章目录一、金融大模型背景二、大模型的研究问题三、大模型技术路线四、
LLaMA
家族模型五、Lora模型微调的原理六、基于mt0-large进行Lora微调实战Reference一、金融大模型背景金融行业需要垂直领域
山顶夕景
·
2023-07-20 08:04
#
自然语言处理
深度学习
#
LLM大模型
大模型
金融垂直领域
模型微调
FastEdit ⚡:在10秒内编辑大型语言模型
支持的模型:○GPT-J(6B)○
LLaMA
(7B/13B)○BLOOM(7.1B)○Falcon(7B)○Baichuan(7B/13B)○InternLM(7B)实现的算法:○一阶模型编辑(ROME
无数据不智能
·
2023-07-20 03:14
gpt
chatgpt
语言模型
Meta 最新发布
LLaMA
2(允许商业化)
文章目录
Llama
2模型介绍
Llama
2的核心点
Llama
2的测评结果
Llama
2的预训练预处理数据预训练设置和模型架构
Llama
-2-chat模型介绍
Llama
-2-chat模型在帮助性和安全性上的表现
dzysunshine
·
2023-07-20 02:35
llama
Rotary Position Embedding (RoPE, 旋转式位置编码) | 原理讲解+torch代码实现
出自论文:《RoFormer:EnhancedTransformerwithRotaryPositionEmbedding》据我了解,最近发布的大语言模型:Meta的
LLaMA
、清华的ChatGLM都采用了
#苦行僧
·
2023-07-19 23:48
NLP
位置编码
transformer
大模型
人工智能
深度学习
微软Office AI工具定价每人每月30美元;Meta开源免费可商用大语言模型
Llama
2;美团申请美团光年商标|极客头条
「极客头条」——技术人员的新闻圈!CSDN的读者朋友们早上好哇,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧。整理|梦依丹出品|CSDN(ID:CSDNnews)一分钟速览新闻点!微信公众号划线阅读功能被吐槽,腾讯客服回应称正进行灰度测试浙江大学发表TableGPT,可对表格进行操控美团申请美团光年商标华为宣布盘古大模型在矿山场景首次商用携程董事局主席梁建章提议实行3天周末或
极客日报
·
2023-07-19 09:34
极客日报
快讯
人工智能
microsoft
开源
提高
LLaMA
-7B的数学推理能力
概述这篇文章探讨了利用多视角微调方法提高数学推理的泛化能力。数学推理在相对较小的语言模型中仍然是一个挑战,许多现有方法倾向于依赖庞大但效率低下的大语言模型进行知识蒸馏。研究人员提出了一种避免过度依赖大语言模型的新方法,该方法通过有效利用具有不同注释格式的现有数学问题数据集来进行训练。区别于过去的方法,该方法充分考虑不同的注释格式,并在训练模型时利用它们。模型通过在输入问题后附加不同的指令来灵活地学
无数据不智能
·
2023-07-19 08:16
chatgpt
人工智能
LLaMA
LLaMA
1,
llama
参数范围7B13B33B65B在万亿token上训练的模型,2,研究重点研究表明,最好的模型性能不是由最大的模型体积实现,而是在更多的数据上训练较小的模型实现工作重点是通过使用比通常更多的
dream_home8407
·
2023-07-18 06:21
llama
大模型训练的复杂度在哪
国内更是如此基本都是基于
LLama
或者GLM开源的参数在调,百度基本是闭源的算是一个独立自主从零开始训练模型。
远洋之帆
·
2023-07-18 05:02
人工智能
AIGC
自然语言处理
算法
语言模型
国外资源国内镜像访问(亲测)
手动下载:https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models/hfl/代码下载:importllama#MODEL='/home/guo/
llama
_test
会发paper的学渣
·
2023-07-17 13:04
深度学习基础
人工智能
python
本地推理,单机运行,MacM1芯片系统基于大语言模型C++版本
LLaMA
部署“本地版”的ChatGPT
OpenAI公司基于GPT模型的ChatGPT风光无两,眼看它起朱楼,眼看它宴宾客,FaceBook终于坐不住了,发布了同样基于LLM的人工智能大语言模型
LLaMA
,号称包含70亿、130亿、330亿和
2301_77550592
·
2023-07-17 13:51
深度学习
LLaMA
以及其扩展模型总结(一)
Meta公司反其道行之,今年2月24日发布了半开源大语言模型
LLaMA
(中文意为“羊驼”),这是一组包含7到650亿个参数的基础大型语言模型,因其参数量远小于GPT-3,效果
wshzd
·
2023-07-17 12:59
NLP
ChatGPT
llama
chatgpt
论文笔记--Goat: Fine-tuned
LLaMA
Outperforms GPT-4 on Arithmetic Tasks
论文笔记--Goat:Fine-tunedLLaMAOutperformsGPT-4onArithmeticTasks1.文章简介2.文章概括3文章重点技术3.1LLM的选择3.2算数任务的可学习性(learnability)3.3大模型的加减乘除4.数值实验结果5.文章亮点6.原文传送门7.References1.文章简介标题:Goat:Fine-tunedLLaMAOutperformsGPT
Isawany
·
2023-07-16 18:56
论文阅读
论文阅读
llama
语言模型
GPT-4
Goat
快速训练自己的大语言模型:基于
LLAMA
-7B的lora指令微调
目录1.选用工程:lit-
llama
2.下载工程3.安装环境4.下载
LLAMA
-7B模型5.做模型转换6.初步测试7.为什么要进行指令微调?
lokvke
·
2023-07-16 06:26
NLP
llama
lora
指令微调
大语言模型
基于
LLAMA
-7B的lora中文指令微调
目录1.选用工程2.中文
llama
-7b预训练模型下载3.数据准备4.开始指令微调5.模型测试前言:系统:ubuntu18.04显卡:GTX3090-24G(惨呀,上次还是A100,现在只有3090了~
lokvke
·
2023-07-16 06:26
NLP
语言模型
llama
中文指令微调
lora
NLP
医疗金融法律大模型:从ChatDoctor到BloombergGPT/FinGPT/FinBERT、ChatLaw/LawGPT_zh
第一部分各种医疗类ChatGPT:或中英文数据微调
LLaMA
、或中文数据微调ChatGLM1.1基于
LLaMA
微调的国内外医疗问答模型1.1.1ChatDoctor:通过self-instruct技术提示
v_JULY_v
·
2023-07-15 17:58
论文
代码
实战
垂直领域大模型
医疗大模型ChatDoctor
金融BloombergGPT
ChatLaw
LawGPT_zh
LongLLaMA:
LLaMA
的升级版,处理超长上下文的利器!
原文来源:芝士AI吃鱼有效整合新知识:大模型面临的挑战大家使用过大型模型产品的时候可能会遇到一个共同的问题:在进行多轮对话时,模型可能会忘记之前的对话内容,导致回答不连贯。这实际上是由于大型模型在处理大量新内容时有时会力不从心,给人一种分心的感觉。这个问题实际上也是当前大型模型面临的一个主要挑战,即如何有效地将大量新知识整合到模型中。目前常见的解决方法之一是微调(fine-tune),但这种方法不
wwlsm_zql
·
2023-07-14 20:47
llama
人工智能
chatgpt
羊驼再度进化,“长颈鹿版”LongLLaMA 来啦,上下文长度冲向 100K ,性能不减
要说当下制约大模型释放更大规模潜力的桎梏,除了机器幻觉,肯定当属受限的上下文长度,前两天微软的LongNet正将Transformer的上下文长度扩展到夸张的10亿量级,这两天撑起了开源大模型一片天的
LLaMA
夕小瑶
·
2023-07-14 20:47
人工智能
深度学习
Meta提出全新参数高效微调方案,仅需一个RNN,Transformer模型GPU使用量减少84%!
近来,随着ChatGPT和GPT-4模型的不断发展,国内外互联网大厂纷纷推出了自家的大语言模型,例如谷歌的PaLM系列,MetaAI的
LLaMA
系列,还有国内公司和高校推出的一些大模型,例如百度的文心一言
TechBeat人工智能社区
·
2023-07-14 20:57
技术文章
rnn
transformer
人工智能
llama
.cpp试用
显存占用是真的低,13Bvicunaint4量化,example/chat-13B.sh正常问答交流,不到2G的占用。相比之下,vicuna7B原版int8量化,8G显卡下,cuda会OOM(原版不支持int4量化)。chatglm6Bint4量化,显存占用仍然需要6G。
菜鸡学AI
·
2023-07-14 19:12
llama
上一页
17
18
19
20
21
22
23
24
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他