E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
微调llama2
三体融合实战:Django+讯飞星火+Colossal-AI的企业级AI系统架构
⚡核心架构设计️一、Django深度集成讯飞星火API(免费版)1.获取API凭证2.流式通信改造(解决高并发阻塞)3.Django视图层集成⚡二、Colossal-AI加速多模型适配策略1.私有模型
微调
方案
IT莫染
·
2025-07-05 19:24
Function
Module
AI大模型
工具及插件
django
人工智能
系统架构
讯飞星火
Colossal-AI
WebSocket
day 45 python打卡
对resnet18在cifar10上采用
微调
策略下,用tensorboard监控训练过程。
·
2025-07-05 14:12
AI原生应用开发必看:自然语言生成的5个最佳工程实践
AI原生应用开发必看:自然语言生成的5个最佳工程实践关键词:AI原生应用、自然语言生成、工程实践、Prompt工程、模型
微调
、评估指标、安全防护摘要:本文深入探讨了开发高质量自然语言生成(NLG)应用的
AI原生应用开发
·
2025-07-05 08:33
AI-native
网络
ai
Mamba-YOLOv8深度解析:基于状态空间模型的下一代目标检测架构(含完整代码与实战部署)文末含资料链接!
传统架构的局限性1.2Mamba的创新优势二、Mamba-YOLOv8架构详解2.1整体架构设计2.2核心模块:VSSblock2.3SS2D模块工作原理三、完整实现流程3.1环境配置3.2代码集成步骤3.3训练与
微调
四
博导ai君
·
2025-07-05 06:18
深度学习教学-附源码
YOLO
目标检测
架构
NVIDIA Isaac GR00T N1.5 人形机器人强化学习入门教程(五)
系列文章目录目录系列文章目录前言一、更深入的理解1.1实体化动作头
微调
1.1.1实体标签1.1.2工作原理1.1.3支持的实现1.2高级调优参数1.2.1模型组件1.2.1.1视觉编码器(tune_visual
强化学习与机器人控制仿真
·
2025-07-05 00:15
机器人与具身智能
人工智能
机器人
深度学习
神经网络
强化学习
模仿学习
具身智能
AI大模型探索之路-训练篇15:大语言模型预训练之全量参数
微调
系列篇章AI大模型探索之路-训练篇1:大语言模型
微调
基础认知AI大模型探索之路-训练篇2:大语言模型预训练基础认知AI大模型探索之路-训练篇3:大语言模型全景解读AI大模型探索之路-训练篇4:大语言模型训练数据集概览
寻道AI小兵
·
2025-07-04 22:03
AI大模型预训练微调进阶
AIGC
人工智能
语言模型
自然语言处理
python
AI编程
agi
Day44
1.预训练概念:在大规模数据上训练模型学习通用知识,再迁移到下游任务
微调
2.常见模型:图像有AlexNet、ResNet、ViT;NLP有BERT、GPT3.图像模型发展:从手工特征到深度学习,从CNN
·
2025-07-04 12:19
大规模预训练语言模型的参数高效
微调
人工智能咨询培训老师叶梓转载标明出处大规模预训练语言模型(PLMs)在特定下游任务上的
微调
和存储成本极高,这限制了它们在实际应用中的可行性。
·
2025-07-04 10:37
大模型
微调
到底有没有技术含量?
今天给大家带来知乎好友@ybq的一篇回答-大模型
微调
到底有没有技术含量,或者说技术含量到底有多大?
DeepSeek-大模型系统教程
·
2025-07-04 05:02
人工智能
语言模型
ai
大模型
大模型微调
程序员
AI大模型
Llama改进之——分组查询注意力
引言今天介绍
LLAMA2
模型引入的关于注意力的改进——分组查询注意力(Grouped-queryattention,GQA)1。Transformer中的多头注意力在解码阶段来说是一个性能瓶颈。
愤怒的可乐
·
2025-07-04 01:37
#
NLP项目实战
自然语言处理
llama
深度学习
人工智能
分组查询注意力
旋转位置编码
手把手从零打造 Llama3:解锁下一代预训练模型
引言Llama3相较于
Llama2
,不仅在模型架构上做了显著优化,尤其是全局查询注意力机制(GQA)的引入,使得模型在大规模数据处理上表现更加出色。
会飞的Anthony
·
2025-07-04 01:35
信息系统
人工智能
AIGC
自然语言处理
人工智能
llama3
AIGC
PyTorch-Llama: 从零开始实现LLaMA 2模型教程
PyTorch-Llama:从零开始实现
LLaMA2
模型教程pytorch-llamaLLaMA2implementedfromscratchinPyTorch项目地址:https://gitcode.com
乔昕连
·
2025-07-04 00:05
LoRA
微调
详解:如何为AIGC模型节省90%显存
LoRA
微调
详解:如何为AIGC模型节省90%显存关键词:LoRA、低秩适应、AIGC模型、参数高效
微调
、显存优化摘要:在AIGC(人工智能生成内容)领域,大模型(如GPT-3、LLaMA、StableDiffusion
SuperAGI2025
·
2025-07-03 19:00
AI大模型应用开发宝典
AIGC
ai
深入剖析AI大模型:关于模型训练
一、使用开源预训练模型1、如何利用开源模型(如BERT、GPT)进行
微调
开源预训练模型就像是已经搭建好框架的摩天大楼,BERT、GPT等模型便是其中声名赫赫的标志性建筑。它们经过海量数据的“
chilavert318
·
2025-07-03 08:06
熬之滴水穿石
人工智能
微调
|| RAG,项目落地怎么选?LLM应用选型指南,适用场景全解析
基本定义
微调
:是指利用更小、更具针对性的数据集对经过预先训练的大语言模型进一步训练的过程。在这个过程中,模型基于新数据集修改权重和参数,学习特定于任务的模式,同时保留来自最初预训练模型的知识。
认知超载
·
2025-07-03 08:36
AI
人工智能
Python Day44
图像预训练模型的发展史4.预训练的策略5.预训练代码实战:resnet181.预训练的概念预训练(Pre-training)是指在大规模数据集上,先训练模型以学习通用的特征表示,然后将其用于特定任务的
微调
别勉.
·
2025-07-03 07:57
python机器学习
python
开发语言
零基础起步:基于GpuGeek的文本生成模型实战
目录一、GpuGeek平台使用流程详解1.注册与登录2.数据上传3.创建训练实例4.启动与使用实例5.关闭实例(手动&自动)二、文本生成实战任务:
微调
GPT-21.
昊昊该干饭了
·
2025-07-03 06:54
人工智能
nlp
深度学习
gpu算力
gru
(论文总结)思维链激发LLM推理能力
动机:从之前的应用和研究中得知,可以用生成自然语言解释、使用神经符号等形式语言的方法来提高大模型的算术推理能力,当时采用了从头预训练和
微调
模型的方法,耗费的成本较多;而且大模型具有根据少量文本提示进行上下文少样本学习的能力
靈镌sama
·
2025-07-03 03:58
论文解读
人工智能
DAY 45 Tensorboard使用介绍
DAY45Tensorboard使用介绍1.tensorboard的发展历史和原理2.tensorboard的常见操作3.tensorboard在cifar上的实战:MLP和CNN模型作业:对resnet18在cifar10上采用
微调
策略下
HINOTOR_
·
2025-07-03 01:10
Python训练营
python
开发语言
【T2I】R&B: REGION AND BOUNDARY AWARE ZERO-SHOT GROUNDED TEXT-TO-IMAGE GENERATION
在这项工作中,我们探索了使用扩散模型进行零样本接地T2I生成,即无需训练辅助模块或
微调
扩散模型就能生成与输入布局信息相对应的图像。我们提出了一种区域与边
Akttt
·
2025-07-02 17:13
T2I
计算机视觉
人工智能
text2img
深度学习
GitHub已破4.5w star,从“零样本”到“少样本”TTS,5秒克隆声音,冲击传统录音棚!
GPT‑SoVITS应运而生,它让“5秒语音克隆”“1分钟
微调
自定义说话人”“多语言切换”变得轻而易举。让无论是主播、配音师,还是科技爱好者,都能轻松拥有定制化声音输出。痛点场景配
小华同学ai
·
2025-07-02 15:28
github
【机器学习&深度学习】适合
微调
的模型选型指南
目录一、不同规模模型
微调
适用性二、
微调
技术类型对显存的影响三、选择建议(根据你的硬件)四、实际模型推荐五、不同模型适合人群六、推荐几个“非常适合
微调
”的模型七、推荐使用的
微调
技术八、场景选择示例场景1:
一叶千舟
·
2025-07-02 05:12
深度学习【应用必备常识】
深度学习
人工智能
LoRA 实战指南:NLP 与 CV 场景的高效
微调
方法全解析
LoRA(Low-RankAdaptation)作为一种轻量级
微调
方案,正成为NLP与CV场景中低成本定制的利器。
fairymt
·
2025-07-02 00:11
产品经理的AI秘籍
自然语言处理
人工智能
机器学习
AI:
微调
框架 LLaMA-Factory(Large Language Model Factory)
LLaMA-Factory(LargeLanguageModelFactory)是由北航团队开源的高效大语言模型(LLM)
微调
框架,旨在简化大型语言模型的定制化训练流程,支持超过100种主流模型和多种先进
微调
技术
xyzroundo
·
2025-07-02 00:40
AI
人工智能
llama
语言模型
sft
llama-factory
AI
【机器学习&深度学习】模型
微调
的基本概念与流程
目录前言一、什么是模型
微调
(Fine-tuning)?二、预训练vs
微调
:什么关系?
一叶千舟
·
2025-07-01 23:34
深度学习【理论】
机器学习
深度学习
人工智能
linux深度学习问题汇总
Illegalinstruction(coredumped)3.死锁4.掉卡二、通用方法1.查看重启记录2.系统性能监控3.后台执行命令4.异常日志三、深度学习技术1.普通网络改DDP训练,单机多卡,pytorch四、专业内容方法1.
微调
不想改代码
·
2025-07-01 22:24
备忘录
linux
python
深度学习
pytorch
人工智能
1024程序员节
考取华为HCIE-AI有什么用?
主要是为了培养和认证掌握人工智能解决方案架构、设计与应用知识,具备大模型业务场景分析、大模型训练与
微调
、模型推理部署能力的专家级人才。一、HCIE-AI:专家级能力的权威认证HC
博睿谷IT99_
·
2025-07-01 18:59
华为
人工智能
华为认证
职业规划
设计模式 | 原型模式
当遇到以下场景时,传统构造方法面临挑战:创建成本高:对象初始化需访问数据库/读取文件(如游戏角色加载资源)状态复杂:对象包含多层嵌套结构(如DOM树节点)动态配置:运行时需基于现有对象
微调
生成新对象原型模式优势
@hdd
·
2025-07-01 17:16
设计模式
设计模式
原型模式
从零开始大模型开发与
微调
:PyTorch中的卷积函数实现详解
从零开始大模型开发与
微调
:PyTorch中的卷积函数实现详解1.背景介绍1.1大模型开发的意义1.2卷积神经网络在大模型中的应用1.3PyTorch框架简介2.核心概念与联系2.1卷积的数学定义2.2卷积神经网络的组成
AI天才研究院
·
2025-07-01 13:50
AI人工智能与大数据
AI大模型企业级应用开发实战
计算
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
【LLaMA 3实战】6、LLaMA 3上下文学习指南:从少样本提示到企业级应用实战
一、上下文学习(ICL)的技术本质与LLaMA3突破(一)ICL的核心原理与模型机制上下文学习(In-ContextLearning)的本质是通过提示词激活预训练模型的元学习能力,使模型无需
微调
即可适应新任务
无心水
·
2025-06-30 12:03
LLaMA
3
模型实战专栏
llama
LLaMA
3实战
LLaMa
3上下文
AI入门
程序员的AI开发第一课
人工智能
AI
什么是 A/B 测试?
A组:使用旧版本(或基线方案)B组:使用新版本(或新模型)然后对比它们的表现,例如:点击率(CTR)转化率(ConversionRate)用户停留时长任务完成率
微调
后模型的自动应答准确率、满意度等二,为什么叫
茫茫人海一粒沙
·
2025-06-30 11:30
人工智能
微调
大语言模型后,如何评估效果?一文讲清
在做大语言模型(LLM)
微调
时,“怎么判断模型调得好不好”是必须回答的问题。无论是在研究、项目落地,还是面试中,评估方法都不能停留在“训练loss降了”这么简单。
茫茫人海一粒沙
·
2025-06-30 11:28
人工智能
解密大模型全栈开发:从搭建环境到实战案例,一站式攻略
大模型的发展历程大模型的类型大模型全栈开发环境搭建硬件需求软件环境配置云服务选择大模型应用开发流程模型选择策略提示工程(PromptEngineering)模型
微调
(Fine-tuning)参数高效
微调
海棠AI实验室
·
2025-06-29 09:39
“智元启示录“
-
AI发展的深度思考与未来展望
人工智能
大模型
全栈开发
微调
大语言模型(生成任务),怎么评估它到底“变好”了?
随着大语言模型(如GPT、LLaMA)的广泛应用,越来越多团队开始基于它们做
微调
,定制符合自己业务需求的模型。
微调
虽能让模型更贴合任务,但评估是否真的“变好”却不是简单的事。
茫茫人海一粒沙
·
2025-06-29 09:38
语言模型
人工智能
自然语言处理
NL2SQL进阶系列(1):DB-GPT-Hub、SQLcoder、Text2SQL开源应用实践详解
开源应用实践详解NL2SQL基础系列(1):业界顶尖排行榜、权威测评数据集及LLM大模型(SpidervsBIRD)全面对比优劣分析[Text2SQL、Text2DSL]NL2SQL基础系列(2):主流大模型与
微调
方法精选集
汀、人工智能
·
2025-06-28 19:21
LLM工业级落地实践
人工智能
LLM
自然语言处理
NL2SQL
大模型应用
Text2SQL
gpt
LLaMA Factory
微调
后,迁移模型
方法1:使用HuggingFaceHub(最推荐)fromtransformersimportAutoModelForCausalLM,AutoTokenizer#在源服务器上保存模型到Hubmodel.push_to_hub("your-username/your-model-name")tokenizer.push_to_hub("your-username/your-model-name")
激进小猪1002
·
2025-06-28 18:17
llama
llamafactory
人工智能
python
企业级知识库私有化部署:腾讯混元+云容器服务TKE实战
本文以某证券机构智能投研系统为原型,演示如何基于腾讯混元大模型与TKE容器服务实现:千亿级参数模型的私有化部署金融领域垂直场景
微调
高并发低延迟推理服务全链路安全合规方案1.1典型技术挑战#性能基准测试数据
大熊计算机
·
2025-06-28 14:45
#
腾讯云
语言模型
大模型笔记10:LoRA
微调
LoRA
微调
的原理矩阵的秩矩阵的秩代表一个矩阵中所含信息的大小。行秩:矩阵中互相不重复、不依赖(即线性无关)的行的最大数目。列秩:矩阵中互相不重复、不依赖的列的最大数目。
errorwarn
·
2025-06-28 09:41
笔记
【大模型学习 | LORA 原理及实现】
GitHub-microsoft/LoRA:Codeforloralib,animplementationof“LoRA:Low-RankAdaptationofLargeLanguageModels”GPT-3:175B
微调
模型变得十分的贵
九年义务漏网鲨鱼
·
2025-06-27 23:13
语言模型
python
pytorch
自然语言处理
大语言模型(LLM)量化基础知识(一)
承接各类AI相关应用开发项目(包括但不限于大模型
微调
、RAG、AI智能体、NLP、机器学习算法、运筹优化算法、数据分析EDA等)!!!有意愿请私信!!!
-派神-
·
2025-06-27 23:42
RAG
NLP
ChatGPT
语言模型
人工智能
自然语言处理
【人工智能】
微调
的秘密武器:释放大模型的无限潜能
答案是
微调
(Fine-tuning)。本文深入探讨
微调
的理论基础、技术细节与实践方法,揭示其作为解锁大模型隐藏潜力
蒙娜丽宁
·
2025-06-27 20:18
Python杂谈
人工智能
人工智能
DeepSeek 部署中的常见问题及解决方案:从环境配置到性能优化的全流程指南
个人主页:慌ZHANG-CSDN博客期待您的关注一、引言:大模型部署的现实挑战随着大模型技术的发展,以DeepSeek为代表的开源中文大模型,逐渐成为企业与开发者探索私有化部署、垂直
微调
、模型服务化的重要选择
慌ZHANG
·
2025-06-27 16:49
人工智能
人工智能
开源浪潮之巅:当前最热门的开源项目全景图
以下精选当前最受关注、社区活跃的热门开源项目,涵盖人工智能、开发工具、基础设施等关键领域:一、人工智能与机器学习:引领创新前沿Llama系列(MetaAI):核心价值:Meta开源的大语言模型家族(
Llama2
万能小贤哥
·
2025-06-27 08:31
开源
【面试宝典】【大模型入门】【模型
微调
】
面试热点科普:监督
微调
vs无监督
微调
,有啥不一样?在大模型时代(比如BERT、GPT)里,我们经常听到“预训练+
微调
”的范式。但你可能会疑惑——监督
微调
、无监督
微调
,到底有啥区别?用的场景一样吗?
曾小文
·
2025-06-27 04:00
人工智能
深度学习
机器学习
中文工单分类模型选择
采用基于预训练模型的
微调
(Fine-tuning)方案来做中文工单分类,这是非常明智的选择,因为预训练模型已经在大量中文语料上学习了丰富的语言知识,能大幅提升分类效果。
SugarPPig
·
2025-06-27 04:26
人工智能
分类
人工智能
数据挖掘
⼤模型(LLMs)基础⾯
GPT模型通过在⼤规模⽆标签⽂本上进⾏预训练,然后在特定任务上进⾏
微调
,具有很强的⽣成能⼒和语⾔理解能⼒。2.BERT(B
cv2016_DL
·
2025-06-27 01:04
LLM大模型
计算机视觉
人工智能
llama
大模型加载多个LoRA并灵活切换
然而,这些模型在
微调
时往往需要大量的计算资源。为了解决这个问题,LoRA通过低秩矩阵来适应新的任务,从而减少了模型的内存占用和计算需求。
Kaydeon
·
2025-06-26 19:20
pytorch
python
llama
ArcMap常用1:地理配准(一张地图图片和gis地图的匹配)
7、在添加点后,如有不准确的点,可点击配准按钮旁边的列表按钮进行删减和
微调
:8、调整完成后,在左
肆意飞扬
·
2025-06-26 03:37
ArcMap
arcgis
地理配准
大模型应用10种架构模式全解析:从理论到实战的技术指南
一、架构模式全景图在深入细节前,先通过一张表格快速了解各模式的核心价值:架构模式核心目标典型场景开源工具案例端到端
微调
最大化任务性
ai大模型雪糕
·
2025-06-25 20:47
架构
人工智能学习
ai大模型
大模型资料分享
大模型评估
人工智能
MLX LM - 在Apple芯片上运行大语言模型的Python工具包
量化模型,上传HF4、流式生成采样5、命令行6、长提示词与生成四、支持模型大模型一、关于MLXLM1、项目概览MLXLM是一个Python工具包,支持在Apple芯片上使用MLX进行文本生成和大语言模型
微调
富婆E
·
2025-06-25 08:26
#
AI
开源项目
python
人工智能
MLX
macOS
大模型
Apple芯片
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他