E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLM微调
LLM
词汇表
Fine-tuning
微调
是使用额外的数据进一步训练预训练语言模型的过程。这使得模型开始表示和模仿
微调
数
落难Coder
·
2024-09-16 10:22
LLMs
NLP
大语言模型
大模型
llama
人工智能
使用Apify加载Twitter消息以进行
微调
的完整指南
#使用Apify加载Twitter消息以进行
微调
的完整指南##引言在自然语言处理领域,
微调
模型以适应特定任务是提升模型性能的常见方法。
nseejrukjhad
·
2024-09-16 09:50
twitter
easyui
前端
python
如何部分格式化提示模板:LangChain中的高级技巧
标题:如何部分格式化提示模板:LangChain中的高级技巧内容:如何部分格式化提示模板:LangChain中的高级技巧引言在使用大型语言模型(
LLM
)时,提示工程是一个关键环节。
nseejrukjhad
·
2024-09-16 09:49
langchain
java
服务器
python
向宜家学习
其实像宜家这样,不是靠通用技术,而是在生产、运输、销售、经营的各个环节,不断
微调
、削减成本,看起来毫不起眼,却简单实用。不是求新求变,恰恰是回到事情的本来面目。
Billy_0e81
·
2024-09-15 18:05
【有啥问啥】刷爆各大榜单的Reflection 70B模型背后的错误自我纠正(Reflection-Tuning)技术解析:一种革新AI模型的方法
刷爆各大榜单的Reflection70B模型背后的错误自我纠正(Reflection-Tuning)技术解析:一种革新AI模型的方法在快速发展的AI领域,尤其是大型语言模型(
LLM
)的竞争中,错误自我纠正技术
Chauvin912
·
2024-09-15 15:32
大模型
行业调研
人工智能
算法
HALTT4
LLM
:大型语言模型的幻觉检测指标
HALTT4
LLM
:大型语言模型的幻觉检测指标haltt4llmThisprojectisanattempttocreateacommonmetrictotestLLM'sforprogressineliminatinghallucinationswhichisthemostseriouscurrentprobleminwidespreadadoptionofLLM'sformanyrealpur
谢忻含Norma
·
2024-09-15 14:30
深度解析:如何使用输出解析器将大型语言模型(
LLM
)的响应解析为结构化JSON格式
深度解析:如何使用输出解析器将大型语言模型(
LLM
)的响应解析为结构化JSON格式在现代自然语言处理(NLP)的应用中,大型语言模型(
LLM
)已经成为了重要的工具。
m0_57781768
·
2024-09-15 13:41
语言模型
json
人工智能
深入探讨:如何在Python中通过LangChain技术精准追踪大型语言模型(
LLM
)的Token使用情况
深入探讨:如何在Python中通过LangChain技术精准追踪大型语言模型(
LLM
)的Token使用情况在现代的人工智能开发中,大型语言模型(
LLM
)已经成为了不可或缺的工具,无论是用于自然语言处理、
m0_57781768
·
2024-09-15 13:37
python
langchain
语言模型
使用You.com API进行
LLM
输出的事实性增强
使用You.comAPI进行
LLM
输出的事实性增强引言大型语言模型(
LLM
)在生成人类可读的文本方面表现出色,但它们可能会产生过时或不准确的信息。
aehrutktrjk
·
2024-09-15 12:05
python
开发语言
如何从大型语言模型(
LLM
)流式响应
引言随着大型语言模型(
LLM
)的不断发展,我们不仅能够获得高质量的文本生成结果,还可以实时观察模型生成文本的过程。
aehrutktrjk
·
2024-09-15 12:30
语言模型
microsoft
ajax
python
LLM
进展和前进道路
它还将检查当前可用的大型语言模型(
LLM
),包括其架构、调优参数、企业就绪情况、系统配置等,以深入了解其训练和推理过程。这种探索将使我们能够了解该领域的进展,并评估可用于商
晨曦_子画
·
2024-09-15 09:44
人工智能学习
人工智能
transformer架构(Transformer Architecture)原理与代码实战案例讲解
transformer架构(TransformerArchitecture)原理与代码实战案例讲解关键词:Transformer,自注意力机制,编码器-解码器,预训练,
微调
,NLP,机器翻译作者:禅与计算机程序设计艺术
AI架构设计之禅
·
2024-09-14 16:47
大数据AI人工智能
Python入门实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
多模态大模型
微调
Qwen-VL
微调
及日志
%pipinstallmodelscope-U%pipinstalltransformersacceleratetiktoken-U%pipinstalleinopstransformers_stream_generator-U%pipinstallpillow-U%pipinstalltorchvision%pipinstallmatplotlib-Ufrommodelscopeimport(s
Messi^
·
2024-09-14 15:10
人工智能-大模型应用
python
人工智能
深度学习
Upstage 将发布新一代
LLM
“Solar Pro “预览版
SolarPro是最智能的
LLM
,经过优化可在单GPU上运行,性能超过微软、Meta和谷歌等科技巨头的模型。
吴脑的键客
·
2024-09-14 14:31
人工智能
人工智能
开源模型应用落地-qwen2-7b-instruct-LoRA
微调
-unsloth(让
微调
起飞)-单机单卡-V100(十七)
一、前言本篇文章将在v100单卡服务器上,使用unsloth去高效
微调
QWen2系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。
开源技术探险家
·
2024-09-14 13:28
开源模型-实际应用落地
#
深度学习
语言模型
自然语言处理
#
LLM
入门|Prompt#2.3_对查询任务进行分类|意图分析_Classification
在本章中,我们将重点探讨评估输入任务的重要性,这关乎到整个系统的质量和安全性。在处理不同情况下的多个独立指令集的任务时,首先对查询类型进行分类,并以此为基础确定要使用哪些指令,具有诸多优势。这可以通过定义固定类别和硬编码与处理特定类别任务相关的指令来实现。例如,在构建客户服务助手时,对查询类型进行分类并根据分类确定要使用的指令可能非常关键。具体来说,如果用户要求关闭其账户,那么二级指令可能是添加有
向日葵花籽儿
·
2024-09-14 12:16
LLM入门教程笔记
prompt
分类
数据库
垂直领域大模型
微调
实践经验最全总结
瓦力算法学研所技术总结专栏作者:vivida本篇从基座模型选择、模型整体架构、数据设计、训练
微调
四个角度总结垂直领域大模型
微调
经验。
人工智能大模型讲师培训咨询叶梓
·
2024-09-14 12:16
人工智能
微调
性能优化
大模型
ai
训练微调
大模型微调
OpenLM: 一个灵活的开源大语言模型接口工具
OpenLM:一个灵活的开源大语言模型接口工具引言在人工智能和自然语言处理快速发展的今天,大语言模型(
LLM
)已经成为许多应用的核心。
llzwxh888
·
2024-09-14 11:43
语言模型
人工智能
自然语言处理
python
使用中专API实现AI模型调用与部署
在AI技术领域,如何调用和部署大语言模型(
LLM
)是一个常见的需求。
llzwxh888
·
2024-09-14 11:42
人工智能
easyui
前端
python
大模型框架:vLLM
它利用了全新的注意力算法「PagedAttention」,提供易用、快速、便宜的
LLM
服务。二、安装vLLM2.1使用GPU进行安装vLLM是一个Py
m0_37559973
·
2024-09-14 11:41
大模型
大模型
通义千问
Qwen
多模态大语言模型(MLLMs)-一般架构(非常详细)零基础入门到精通,收藏这一篇就够了
多模态大语言模型(MultimodalLargeLanguageModel,MLLM),在
LLM
原有的强大泛化和推理能力基础上,进一步引入了多模态信息处理能力。
程序员_大白
·
2024-09-14 11:40
语言模型
人工智能
自然语言处理
一篇文章带你彻底弄懂大模型——掌握基本概念,领先别人一步!
本文从大模型的基本概念出发,对大模型领域容易混淆的相关概念进行区分,并就大模型的发展历程、特点和分类、泛化与
微调
进行了详细解读,供大家在了解大模型基本知识的过程中起到一定参考作用。
努力的光头强
·
2024-09-14 11:39
transformer
职场和发展
深度学习
人工智能
langchain
使用 Apache Cassandra 实现
LLM
缓存:提升 AI 应用性能的实用指南
使用ApacheCassandra实现
LLM
缓存:提升AI应用性能的实用指南引言在当今的AI驱动的应用程序中,大语言模型(
LLM
)扮演着越来越重要的角色。
afTFODguAKBF
·
2024-09-14 09:58
apache
缓存
人工智能
python
反思的魔力:用语言的力量强化AI智能体
智能体的困境近年来,大型语言模型(
LLM
)在与外部环境(如游戏、编译器、API)交互的领域中大放异彩,化身为目标驱动的智能体。然而,传统的强化学习方法如同一位严苛的训练师,需要大
步子哥
·
2024-09-14 08:52
人工智能
机器学习
大模型
微调
- 基于预训练大语言模型的对话生成任务 训练代码
大模型
微调
-基于预训练大语言模型的对话生成任务训练代码flyfish模型扮演堂吉诃德这个角色,回答关于自我介绍的问题importtorchfromdatasetsimportDatasetfrommodelscopeimportAutoTokenizer
西笑生
·
2024-09-14 05:00
大模型
大模型
自然语言处理
微调
天下苦英伟达久矣!PyTorch官方免CUDA加速推理,Triton时代要来?
在做大语言模型(
LLM
)的训练、
微调
和推理时,使用英伟达的GPU和CUDA是常见的做法。在更大的机器学习编程与计算范畴,同样严重依赖CUDA,使用它加速的机器学习模型可以实现更大的性能提升。
诗者才子酒中仙
·
2024-09-14 04:56
物联网
/
互联网
/
人工智能
/
其他
pytorch
人工智能
python
RAG与
LLM
原理及实践(17)---Docker Redis & Python Usage
目录背景Redis环境download修改镜像RunRedisCodingpythonredisdownload基本使用描述完整代码运行结果高阶用法序列化的方式Snapshot与AOF快照(RDB)AOF(Append-OnlyFile)代码总结发布与订阅描述代码运行结果注意事项解释Transanction描述代码键空间描述开启python代码运行结果背景实际上,你会发现本专栏题目是RAG,Mil
PhoenixAI8
·
2024-09-13 17:49
RAG
Milvus
Chroma
源码及实践
redis
数据库
缓存
RAG与
LLM
原理及实践(16)---RAG 前端技术Flask-socketIO
结合点实时数据更新与推送实时查询与响应安装使用完整案例说明后端python代码代码解释前端html代码JS代码代码解释总结背景构建RAG系统或别的系统时,如果后端采用的全Python,或者说是以python为主的系统,是很常见的一个选择,因为毕竟python对
LLM
PhoenixAI8
·
2024-09-13 17:18
RAG
Milvus
Chroma
源码及实践
前端
flask
python
socketio
RAG
llm
-universe学习小记录4--构建RAG应用
构建RAG应用一、将
LLM
接入LangChain1、基于LangChain调用ChatGPT2、使用LangChain调用百度文心一言3、使用LangChain调用讯飞星火4、使用LangChain调用智谱
Adela0546
·
2024-09-13 16:43
学习
语言模型
大模型基础知识-LoRA与QLoRA
介绍LoRA与QLoRA1.LoRA(Low-RankAdaptation)LoRA是一种用于大规模语言模型(
LLM
)的参数高效
微调
技术,旨在减少
微调
大模型所需的计算资源和存储空间。
破壁者-燕
·
2024-09-13 03:12
深度学习
HippoRAG如何从大脑获取线索以改进
LLM
检索
知识存储和检索正在成为大型语言模型(
LLM
)应用的重要组成部分。虽然检索增强生成(RAG)在该领域取得了巨大进步,但一些局限性仍然没有克服。
极道亦有道
·
2024-09-12 19:57
人工智能
如何训练
LLM
自动在RAG和参数记忆之间进行选择
检索增强生成(RAG)管道使大型语言模型(
LLM
)能够在其响应中使用外部信息源。但是RAG应用程序为发送到
LLM
的每个请求检索额外的场景信息。
极道亦有道
·
2024-09-12 19:27
人工智能
python
算法
增强检索增强生成模型的可靠性和可追溯性
大型语言模型(
LLM
)表现出了卓越的能力,但也存在幻觉、缺乏领域适应性和缺乏持续学习等问题。当它们必须处理知识密集型任务时,这些问题更加明显。
RA AI衍生者训练营
·
2024-09-12 18:47
人工智能
ai
开发语言
机器学习
语言模型
LLM
大模型学习:
LLM
大模型推理加速
文Mia/叶娇娇推理优化部署、推理加速技术是现在,尤其在大模型时代背景之下,消费级GPU和边端设备仍为主流的状况下。推理加速是实际工程落地的首要考虑因素之一,今天笔者来聊聊涉及到的可以实现大模型推理加速的技术。目录一、模型优化技术二、模型压缩技术三、硬件加速四、GPU加速五、模型并行化和分布式计算技术一、模型优化学习常见的模型优化技术,如模型剪枝、量化、分片、蒸馏等,掌握相应的实现方法。1.1剪枝
七七Seven~
·
2024-09-12 17:45
学习
人工智能
transformer
深度学习
llama
大模型书籍推荐:从头开始构建一个大型语言模型(含PDF免费)《Build a Large Language Model (From Scratch)》
在这本富有洞察力的书中,畅销书作家塞巴斯蒂安·拉施卡(SebastianRaschka)将指导你逐步创建自己的
LLM
,用清晰的文字、图表和示例解释每个阶段。
AI女王
·
2024-09-12 15:58
语言模型
pdf
人工智能
AI大模型
大模型
大语言模型
书籍
本地部署大语言模型详细讲解
前言:本地部署大语言模型(
LLM
,LargeLanguageModel)需要相应的硬件资源和技术栈支持,如GPU计算能力、大量内存、存储空间,以及模型部署框架。
程序员小羊!
·
2024-09-12 04:25
杂文
语言模型
人工智能
自然语言处理
LLM
系列(4):通义千问7B在Swift/DeepSpeed上
微调
秘诀与实战陷阱避坑指南
LLM
系列(4):通义千问7B在Swift/DeepSpeed上
微调
秘诀与实战陷阱避坑指南阿里云于2023年8月3日开源通义千问70亿参数模型,包括通用模型Qwen-7B以及对话模型Qwen-7B-Chat
汀、人工智能
·
2024-09-12 00:21
LLM工业级落地实践
人工智能
自然语言处理
prompt
Swifi
DeepSpeed
通义千问
Qwen
洞悉LangChain:LangChain工程化设计,从API到智能Agent的全面探索
当然也可以问一下AI:通义千问2.5:LangChain是一个开源框架,专注于简化开发者利用大型语言模型(
LLM
)创建应用程序的过程。这些大型语言模型,如GPT-3
汀、人工智能
·
2024-09-11 19:16
AI
Agent
LLM技术汇总
langchain
人工智能
自然语言处理
大模型
Agent
LangGraph
AI
Agent
基于Langchain的大模型RAG技术介绍(附示例代码)
为解决这一问题,出现了两种技术路线:一种是通过使用专业领域的数据集
微调
通用大模型
赵放-AI
·
2024-09-11 19:16
AI
langchain
人工智能
chatgpt
python
设置广告活动目标和数字广告关键绩效指标的3个步骤
在
微调
广告预算、优化广告、分析数字广告关键绩效指标(KPI)和个性化着陆页面的同时,有一件事是在启动广告活动之前必须做的:确定哪些因素能使广告活动有效。
科技评论AI
·
2024-09-11 18:39
人工智能
语言模型
自然语言处理
大数据
威斯康星大学教授的这本书把大模型(
LLM
)一次性讲明白了!
在当今人工智能技术飞速发展的时代,大型语言模型(
LLM
)作为聊天机器人、文本生成和理解等应用的核心,已经成为研究和商业领域关注的焦点。
AI小白龙*
·
2024-09-11 18:38
大模型
人工智能
langchain
transformer
LLM
ai大模型
大模型微调
大模型算法岗,面试百问百答,7天3个offer拿到手!
1.RAG技术体系的总体思路数据预处理->分块(这一步骤很关键,有时候也决定了模型的效果)->文本向量化->query向量化->向量检索->重排->query+检索内容输入
LLM
->输出2.使用外挂知识库主要为了解决什
爱喝白开水a
·
2024-09-11 14:44
算法
面试
职场和发展
ai大模型
大语言模型
LLM
大模型面试
深度学习速通系列:LoRA
微调
是什么
LoRA
微调
(Low-RankAdaptation)是一种用于大型预训练语言模型(
LLM
)的高效
微调
技术。
Ven%
·
2024-09-11 11:47
深度学习速通系列
人工智能
深度学习
python
机器学习
nlp
LLAMA Factory: 简洁高效的大语言模型训练平台
LLAMAFactory:简洁高效的大语言模型训练平台LLaMA-Factory易于使用的
LLM
微调
框架(LLaMA,BLOOM,Mistral,百川,Qwen,ChatGLM)。
俞纬鉴Joshua
·
2024-09-11 08:57
DayThirteen 笔记
returna.second>b.second;//从大到小排序}intmain(){sort(danjia,danjia+n,cmp);}记录一个求幂函数的二分算法LLbineryPow(LLa,LLb,
LLm
隔壁班胡胖胖
·
2024-09-11 02:17
这个七月
llama.cpp本地部署大模型
llama.cpp是一个C++库,用于简化
LLM
推理的设置,它使得在本地机器上运行大模型(GGUF格式)成为可能。
张兆坤的那些事
·
2024-09-11 00:00
大模型
llama.cpp
llm
在网页中的流式输出(langchain与streamlit库)
一、手动进行流式输出
llm
本身是支持在终端流式输出的,以ollama为例
llm
=Ollama(base_url="http://localhost:11434",model="qwen",callback_manager
格瑞Lxf
·
2024-09-10 23:22
langchain
Deepspeed 结合huggingface Trainer实现多机分布式训练
目前工作中只使用了单机多卡做
微调
训练,为了提升训练效率,特实验多机多卡分布式训练。
ningzhao
·
2024-09-10 17:38
分布式
大模型
LLM
面试常见算法题-包括Attention和Transformer常见面试题
介绍LoRA与QLoRARAG和
微调
的区别是什么?哪些因素会导致
LLM
的偏见?什么是思维链(CoT)提示?Tokenizer的实现方法及原理解释一下大模型的涌现能力?
剑圣土豆
·
2024-09-10 15:57
算法面试
大模型学习
自然语言处理
transformer
算法
nlp
自然语言处理
面试
深度学习
人工智能
深入解析五大
LLM
可视化工具:Langflow、Flowise、Dify、AutoGPT UI 和 AgentGPT
近年来,大语言模型(
LLM
)技术的迅猛发展推动了智能代理(Agent)应用的广泛应用。从任务自动化到智能对话系统,
LLM
代理可以极大简化复杂任务的执行。
花千树-010
·
2024-09-10 13:13
AI编程
langchain
机器学习
AI编程
python
机器人
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他