E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLaMa
生成式语言大模型的工程实践
本文将重点探讨生成式语言大模型的一些工程思考,并结合paddlenlp、chatglm和
llama
这三个案例进行详细阐述。一、概述生成式语言大模型是指能够生成自然语言文本的深度学习模型。
百度_开发者中心
·
2024-01-22 02:30
自然语言处理
人工智能
深度学习
大模型
超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型
LLaMA
好在Meta(也就是原来的FaceBook)开源了他们家的大模型
LLaMa
。之所以叫“大”模型
董董灿是个攻城狮
·
2024-01-22 01:44
chatGPT
llama
人工智能
深度学习
【llm 使用
llama
小案例】
huggingfacehttps://huggingface.co/meta-llamafromtransformersimportAutoTokenizer,LlamaForCausalLMPATH_TO_CONVERTED_WEIGHTS=''PATH_TO_CONVERTED_TOKENIZER=''#一般和模型地址一样model=LlamaForCausalLM.from_pretrain
放飞自我的Coder
·
2024-01-21 13:35
llama
llama
llm
源2.0大模型适配
LLaMA
-Factory框架!
近日,源2.0开源大模型与
LLaMA
-Factory框架完成全面适配,用户通过
LLaMA
-Factory,即可快捷、高效地对不同参数规模的源2.0基础模型进行全量微调及高效微调,轻松实现专属大模型。
AI知识图谱大本营
·
2024-01-21 13:34
llama
【llm 微调code-
llama
训练自己的数据集 一个小案例】
这也是一个通用的方案,使用peft微调LLM。准备自己的数据集根据情况改就行了,jsonl格式,三个字段:context,answer,questionimportpandasaspdimportrandomimportjsondata=pd.read_csv('dataset.csv')train_data=data[['prompt','Code']]train_data=train_data
放飞自我的Coder
·
2024-01-21 13:33
llama
机器学习
llm
coda
llama
羊驼系列大模型
LLaMa
、Alpaca、Vicuna
羊驼系列大模型:大模型的安卓系统GPT系列:类比ios系统,不开源
LLaMa
让大模型平民化
LLaMa
优势用到的数据:大部分英语、西班牙语,少中文模型下载地址https://huggingface.co/
南宫凝忆
·
2024-01-21 13:59
大模型
大模型
羊驼模型
LLaMa
Alpaca
Vicuna
LLM之RAG实战(十六)| 使用
Llama
-2、PgVector和LlamaIndex构建LLM Rag Pipeline
本文,我们将深入研究使用transformer库、
Llama
-2模型、PgVector数据库和LlamaIndex库来构建RAGPipeline完整过程。一、什么是RAG(检索增强生成)
wshzd
·
2024-01-21 13:59
RAG
笔记
llama
开源大模型领域最重要的玩家们,在关心/担心什么
从2月份Meta发布的
Llama
,到3月份斯坦福大学微调
Llama
后发布的Alpaca,再到5月份出现的Falcon,世界各地的开源模型在「内卷」中快速进步。
开源社
·
2024-01-21 10:14
Self-RAG:通过自我反思学习检索、生成和批判
abs/2310.11511项目主页:https://selfrag.github.io/Self-RAG学习检索、生成和批评,以提高LM的输出质量和真实性,在六项任务上优于ChatGPT和检索增强的
LLama
2Chat
lichunericli
·
2024-01-21 08:27
RAG
人工智能
语言模型
学习
大模型日报-20240120
AlphaFold发现了数千种可能的致幻剂扎克伯格宣战AGI:
Llama
3训练中,今年要囤35万块H100,砸近百亿美元吞吐量提升5倍,联合设计后端系统和前端语言的LLM接口来了不担心字节跳动、腾讯等大厂竞争
程序无涯海
·
2024-01-21 02:31
大模型资讯篇
大模型
AIGC
chatgpt
gpt
人工智能
Portkey AI网关:一个用来连接多种人工智能模型的开源工具
包括OpenAI、Anthropic、Mistral、
LLama
2、Anyscale、GoogleGemini等。安装体积只有45kb,处理速度提升了9.9倍,可以在多个不同的AI模型中来回切换。
AI 研习所
·
2024-01-20 17:48
AIGC
人工智能
大模型训练
AIGC
人工智能
突破界限:首个国产DeepSeek MoE的高效表现
这款160亿参数的模型在保持与国际知名
Llama
2-7B模型相媲美的性能的同时,实现了显著的计算效率提升,计算量仅为对手的40%。模型特性与技术创新DeepSeekMoE模型的核心优势在
努力犯错
·
2024-01-19 23:54
人工智能
语言模型
自然语言处理
chatgpt
stable
diffusion
Meta将继续开源
Llama
3;Runway多动态刷头Multi Motion Brush
AI新闻Meta将继续开源
Llama
3:支持生成式AI和开源生态发展摘要:全球社交、科技巨头Meta正在训练
Llama
3,并且以负责任地方式继续开源,预计到2024年底将拥有足够的AI算力资源来支持其生成式
go2coding
·
2024-01-19 15:05
AI日报
llama
Meta正在训练
Llama
3,将继续开源
1月19日,全球社交、科技巨头Meta的联合创始人兼首席执行官-Zuck(扎克伯格)在is宣布,正在训练
Llama
3并且以负责任地方式继续开源。
richerg85
·
2024-01-19 13:31
llama
开源
Meta正在训练
Llama
3,将继续开源
1月19日,全球社交、科技巨头Meta的联合创始人兼首席执行官-Zuck(扎克伯格)在is宣布,正在训练
Llama
3并且以负责任地方式继续开源。
RPA中国
·
2024-01-19 12:20
llama
开源
LaWGPT安装和使用教程的复现版本【细节满满】
该系列模型在通用中文基座模型(如Chinese-
LLaMA
、ChatGLM等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。
D洁洁和W的御用Programmer
·
2024-01-18 22:57
大模型安装
NLP
语言模型
nlp
智能法律
用通俗易懂的方式讲解:使用
Llama
-2、PgVector和LlamaIndex,构建大模型 RAG 全流程
本文,我们将深入研究使用transformer库、
Llama
-2模型、PgVector数据库和LlamaIndex库来构建RAGPipeline完整过程。文章目录技术交流&资料通俗易懂讲
Python算法实战
·
2024-01-18 21:33
大模型理论与实战
大模型
llama
人工智能
算法
LLM
大模型
RAG
检索增强生成
GPT在地学、GIS、气象、农业、生态、环境等领域应用教程
在地学、GIS、气象、农业、生态、环境等领域应用教程一开启大模型1开启大模型1)大模型的发展历程与最新功能2)大模型的算法构架与底层逻辑3)大模型的强大功能与应用场景4)国内外经典大模型(ChatGPT、
LLaMA
夏日恋雨
·
2024-01-18 20:22
生态学
遥感
人工智能
gpt
人工智能
地学
生态学
水文学
气象学
GIS
一篇综述洞悉医学大型语言模型的原理,应用和挑战
在过去的一年中,随着GPT-4、
LLaMA
、Mistral,PaLM等先进技术的突飞猛进,大型语言模型(LargeLanguageModels)已经引领全球人工智能进入了一个全新的基础模型时代,这一时代不仅开启了技术创新的新篇章
TechBeat人工智能社区
·
2024-01-18 14:38
技术文章
语言模型
人工智能
自然语言处理
反射助你无痛使用Semantic Kernel接入离线大模型
本文主要介绍如何使用
llama
的server部署离线大模型,并通过反射技术修改SemanticKernel的OpenAIClient类,从而实现指定端点的功能。
桑榆肖物
·
2024-01-18 13:51
大模型
.NET
python
后端
Semantic
Kernel
大模型
十分钟读完「降低
LLaMA
模型微调内存占用的QLoRA」论文
降低
LLaMA
模型微调内存占用,仅需数小时追赶ChatGPT引言:大模型微调的新时代随着人工智能技术的飞速发展,大型语言模型(LargeLanguageModels,LLMs)已成为自然语言处理领域的重要工具
夕小瑶
·
2024-01-18 12:45
llama
nlp
人工智能
深度学习
语言模型
机器学习
十分钟读完「超越GPT-3.5和
LLama
2的Mixtral 8x7B」论文
超越GPT-3.5和
LLama
2!
夕小瑶
·
2024-01-18 12:44
自然语言处理
人工智能
神经网络
深度学习
大模型
nlp
【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-
LLaMA
-Alpaca-2
下载源码cd~/Downloads/aigitclone--depth=1https://gitee.com/ymcui/Chinese-
LLaMA
-Alpaca-2创建venvpython3-mvenvvenvsourcevenv
hkNaruto
·
2024-01-18 07:36
ubuntu
llama
在文心一言超越ChatGPT3.5后,我们做了大模型对比测试。
除了文心一言,号称超过ChatGPT3.5大模型,还有google的bard,Meta的
LlaMA
2和claude2。我们来一一对比测试下。将本文第一段,发给他们改写成震惊体。
ooope
·
2024-01-18 06:14
文心一言
gpt-3
人工智能
ubuntu下
llama
2的api远程调用
condaactivatellamachinesecd/home/cys/
Llama
2-Chinese/scripts/apipythonaccelerate_server.py--model_path
小草cys
·
2024-01-18 04:54
服务器
数据库
运维
大模型部署的方案
目前效果最好讨论最多的开源实现就是
LLAMA
,所以我这里讨论的也是基于
LLAMA
的魔
人工智能与算法学习
·
2024-01-18 01:07
人工智能
深度学习
计算机视觉
在矩池云使用
Llama
2-7B的具体方法
今天给大家分享如何在矩池云服务器使用
Llama
2-7b模型。硬件要求矩池云已经配置好了
Llama
2WebUI环境,显存需要大于8G,可以选择A4000、P100、3090以及更高配置的等显卡。
机器学习是魔鬼
·
2024-01-18 01:07
人工智能
llama
机器学习
深度学习
中国AIGC开发者大会:展望2024年大模型发展趋势,总结2023年大模型应用
为进一步总结2023年大模型的发展情况及洞察2024年大模型的发展趋势,2024年1月13日下午,AIGCLINK、硅创社、
llama
中文社区、超互联创新联盟、AI智原社区、Agently社区
Souidc-hph
·
2024-01-17 21:11
AIGC
【部署
LLaMa
到自己的Linux服务器】
部署
LLaMa
到自己的Linux服务器1、
Llama
2项目获取方法1:有git可以直接克隆到本地方法2:直接下载2、
LLama
2项目部署3、申请
Llama
2许可4、下载模型权重5、运行1、
Llama
2项目获取方法
OPTree412
·
2024-01-17 20:07
llama
linux
运维
[玩转AIGC]
LLaMA
2训练中文文章撰写神器(数据准备,数据处理,模型训练,模型推理)
下载并加载中文数据集二、中文数据集处理1、数据格式2、数据集处理之tokenizer训练格式1)先将一篇篇文本拼凑到一起(只是简单的拼凑一起,用于训练tokenizer)2)将数据集进行合并3、数据集处理之模型(
llama
2
六五酥
·
2024-01-17 18:07
玩转AIGC
AIGC
揭秘全球首个开源MoE模型:Mixtral-8x7B
MistralAI首个开源MoE大模型Mixtral8x7B,无良媒体宣称,已经达到甚至超越了
Llama
270B和GPT-3.5的水平。
AI星球
·
2024-01-17 18:09
人工智能
语言模型
深度学习
本地运行
LlaMA
2的简易指南
大家好,像
LLaMA
2这样的新开源模型已经变得相当先进,并且可以免费使用。可以在商业上使用它们,也可以根据自己的数据进行微调,以开发专业版本。凭借其易用性,现在可以在自己的设备上本地运行它们。
python慕遥
·
2024-01-17 12:41
llama
做大模型也有1年多了,聊聊这段时间的感悟!
近距离看到了老王和光年从风风火火到突发意外,也亲自参与了所谓的“百模大战”,还经历了被人误解的“
llama
套壳”风波,真的是
Python算法实战
·
2024-01-17 11:28
大模型理论与实战
人工智能
算法
大模型
LLM
十分钟读完 Meta提出
Llama
2模型的经典论文:
Llama
2: Open Foundation and Fine-Tuned Chat Models
超越GPT-3:MetaAI发布新一代开源人工智能对话大模型
Llama
2引言:介绍
Llama
2的发布背景和其在对话用例中的优化。
夕小瑶
·
2024-01-17 10:45
自然语言处理
人工智能
深度学习
chatgpt
transformer
llama
大模型
2023年度大模型技术发展盘点 -
LLaMA
、GPT-4、Stable Diffusion等15款重磅产品全面解读
SEO元描述:本文回顾2023年度大模型技术最重磅产品发布,包括
LLaMA
、GPT-4、StableDiffusion、Claude2等引领各技术分类的开山之作,全面总结大模型元年中的AI产品技术演进与突破
人工智能-瓦力
·
2024-01-16 17:02
llama
stable
diffusion
GPT在地学、GIS、气象、农业、生态、环境等领域应用
在地学、GIS、气象、农业、生态、环境等领域应用一开启大模型1开启大模型1)大模型的发展历程与最新功能2)大模型的算法构架与底层逻辑3)大模型的强大功能与应用场景4)国内外经典大模型(ChatGPT、
LLaMA
夏日恋雨
·
2024-01-16 09:22
生态学
水文水资源
大气科学
gpt
人工智能
地学
气象学
水文学
生态学
GIS
Llama
2部署、微调、集成Langchain过程记录
目录一、模型部署1.环境配置2.pip和conda源3.下载模型到本地4.下载并部署gradio5.使用gradio运行模型6.textgenerationwebui二、模型微调1.下载和预处理微调训练数据2.运行微调文件3.执行代码合并4.使用gradio运行微调后模型三、使用LangChain外挂本地知识库1.LangChain介绍2.安装和准备3.设置知识库4.加载模型5.知识库的使用和构造
GOozii1
·
2024-01-16 00:54
langchain
作业(3)——微调
支持的开源LLM(2023.11.01)InternLM✅
Llama
,
Llama
2ChatGLM2,ChatGLM3QwenBaichuan,Baichuan2Zephyr…平台
亲爱的阿基米德^
·
2024-01-15 21:13
笔记
什么是RoPE-旋转位置编码?
像是谷歌的PaLM和meta的
LLaMA
等开源大模型都是RoPE位置编码,那么RoPE有什么特点呢?本文将介绍如下内容:RoPE旋转位置编码概要什么是位置编码?
TFATS
·
2024-01-15 17:56
GPT大模型
nlp
深度学习
RoPE
旋转位置编码
大模型
AIGC
nlp
大模型入门(四)—— 基于peft 微调
LLaMa
模型
www.cnblogs.com/jiangxinyang/p/17330352.htmlllama-7b模型大小大约27G,本文在单张/两张16GV100上基于huggingface的peft库实现了
llama
baidu_huihui
·
2024-01-15 15:09
llama
huggingface
peft
微调
Llama
2 70B 问答 - 由人工神经网络训练的程序,与使用编程语言和数学算法编写的程序之间有何区别?
由人工神经网络训练的程序与使用编程语言和数学算法编写的程序之间存在一些差异:1.学习与编程:人工智能程序是使用大型数据集进行训练的,而传统程序是使用程序员明确定义的一组指令编写的。2.灵活性与刚性:人工智能程序可以适应新的数据或情况,而传统程序则遵循一组固定的规则。3.泛化与专业化:人工智能程序可以很好地泛化到新情况,而传统程序则针对特定任务进行优化。4.数据驱动与算法驱动:人工智能程序由数据驱动
qq_43058397
·
2024-01-15 10:15
算法
llama
2.c推理
模型图代码及分析不需要考虑任何mask问题,直接通过矩阵计算求出下三角矩阵每个元素的值即可,不需要额外添加mask之类的。temperature=0(确定性)的时候,模型推理每次都取概率最大的(从而导致同样的输入prompt会有完全相同的输出);否则根据概率分布来挑选,即有一定概率输出和前一个字不搭配的字多头注意力机制有两种理解,实现和效果也不同,一种是将embedding维切分成head_num
WAWA战士
·
2024-01-15 09:06
人工智能
机器学习
算法
用 Ollama 轻松玩转本地大模型
据此,
Llama
27B(70亿)对应需要约14GB显存以进行推理,这显然超出了普通家用计算机的硬件规格。作为参考,一块GeForceRTX4060Ti16GB显卡市场价超过3000元。
m0_54050778
·
2024-01-14 23:02
python
【llm 部署运行videochat--完整教程】
申请
llama
权重https://ai.meta.com/resources/models-and-libraries/
llama
-downloads/->勾选三个模型->等待接收邮件信息(很快)下载
llama
放飞自我的Coder
·
2024-01-14 17:07
llama
python
llama
videochat
最强开源中英双语大模型发布,340亿参数超越
Llama
2-70B !
Aquila2模型全系开源地址:https://github.com/FlagAI-Open/Aquila2https://model.baai.ac.cn/https://huggingface.co/BAAIAquila2-34B在代码生成、考试、理解、推理、语言四个维度的22个评测基准上,霸占了多个榜单TOP1。相较于大模型榜单分数,业内更看重对推理、泛化等重要模型实际能力的潜心提升,在支撑
语音之家
·
2024-01-14 10:16
开源
人工智能
palm
深度学习
语言模型
拖拽下图像就能生成视频,DragNUWA属实惊艳
来源:机器之心随着ChatGPT、GPT-4、
LLaMa
等模型的问世,人们越来越关注生成式模型的发展。相比于日渐成熟的文本生成和图像生成,视频、语音等模态的AI生成还面临着较大的挑战。
深度学习技术前沿
·
2024-01-14 10:37
人工智能
计算机视觉
2023年人工智能的最新发展(上)
目录1.ChatGPT:2.Transformer、Bert:3.Bard、Office365Copilot、
LLAMA
:4.Claude、Grok:1.ChatGPT:2023年被视为人类科技史上的一个重要年份
稻壳特筑
·
2024-01-14 04:20
科技
人工智能
chatgpt
【LangChain学习之旅】—(7) 调用模型:使用OpenAI API还是微调开源
Llama
2/ChatGLM?
【LangChain学习之旅】—(7)调用模型:使用OpenAIAPI还是微调开源
Llama
2/ChatGLM?
之墨_
·
2024-01-13 19:47
人工智能
NLP
langchain
大模型
LLM
Vicuna云端实践
简介Vicuna是开源领域最强最著名的大语言模型,是UC伯克利大学的研究人员联合其它几家研究机构共同推出的一系列基于
LLaMA
微调的大语言模型。
皮皮姑娘
·
2024-01-13 19:37
大语言模型
语言模型
人工智能
机器学习
骆驼产业发展调研报告
骆驼是骆驼科骆驼属的动物(拉丁名
Llama
),具有多种经济价值,柴达木地区是全国骆驼主产区之一,发展骆驼产业具有得天独厚的资源条件,为全面掌握目前骆驼产业的发展情况,我们考察了新疆阿勒泰地区福海县和内蒙古阿拉善右旗骆驼产业发展情况
春风十里绿神州
·
2024-01-13 12:18
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他