E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LoRa杂谈
《小迪安全》学习笔记05
从这篇开始的小迪安全学习笔记就开始进入到漏洞模块了,这篇主要是讲一些与sql注入相关的思想,
杂谈
一些内容吧先。。
玄客)
·
2025-02-26 04:21
安全
学习
笔记
AI助力小微企业技术开发规范化管理 |
杂谈
AI助力小微企业技术开发规范化管理在小型技术研发企业中,人员配置紧张,往往一名员工需要承担多项职务和任务。例如,后端程序开发人员可能同时要负责需求调研、数据库设计、后端设计及开发,甚至在某些情况下还需兼任架构师的角色。这种多任务叠加的现象导致开发工作和代码结构变得非常混乱。为了缩减开支,员工在承担繁重开发任务的同时,还需追赶时间进度,形成了一种恶性循环。这种状况使得小微企业的技术开发结构及项目管理
黎智程
·
2025-02-25 18:12
人工智能
一文读懂
LORA
无线传输
LORA
(LongRange)是一种基于扩频技术的超远距离无线传输技术,在物联网领域应用广泛,其特点如下:一键直达长距离传输:
LORA
采用了扩频调制技术,极大地提高了信号的接收灵敏度,其传输距离可达数公里甚至更远
天津三格电子
·
2025-02-24 15:59
信息与通信
垂类大模型微调(二):使用LLaMA-Factory
上一篇博文和大家一起安装了LLaMA-Factory工具,并下载了大模型在上面进行了简单的加载和推理,今天尝试通过
LoRa
技术对大模型进行微调;一、训练集准备1.1介绍训练集结构这里演示对Qwen2.5
CITY_OF_MO_GY
·
2025-02-24 07:00
从零到亿大模型微调
llama
LLaMA-Factory|微调大语言模型初探索(3),q
lora
微调deepseek记录
前言 上篇文章记录了使用
lora
微调llama-1b,微调成功,但是微调llama-8b显存爆炸,这次尝试使用q
lora
来尝试微调参数体量更大的大语言模型,看看64G显存的极限在哪里。
闻道且行之
·
2025-02-24 01:49
自然语言处理
语言模型
人工智能
qlora微调
llama
deepseek
ε-贪心算法:在探索与利用之间寻找平衡
这个过程涉及到两个关键的决策因素:探索(exp
lora
tion)和利用(exploitation)。探索是指尝试新的行为以发现更好的策略;而利用是指采用已知的最佳行为以获得奖励。
Chen_Chance
·
2025-02-23 09:22
贪心算法
算法
vscode有几个版本 ?vscode的多个版本?vscode多版本在哪里下载?地址?
1.VSCode的主要版本(1)Stable(稳定版)(2)Insiders(内测版)(3)Exp
lora
tion(探索版)2.VSCode的分发渠道(1)官方版本(2)Portable(便携版)(3)
一只小小狗
·
2025-02-22 23:31
开发工具
vscode
ide
编辑器
大模型微调
以下是在本地部署使用LLaMA-Factory导出的
LoRA
模型,并通过Ollama运行的步骤指南:1.准备工作已训练好的
LoRA
模型:确保通过LLaMA-Factory导出了
LoRA
适配器文件(通常是
猴的哥儿
·
2025-02-22 12:42
机器学习
深度学习
神经网络
知识图谱
个人开发
SD模型微调之
LoRA
本文是SD模型微调方法
LoRA
的详细介绍,包括数据集准备,模型微调过程,推理过程,优缺点等。
好评笔记
·
2025-02-22 06:22
补档
深度学习
计算机视觉
人工智能
面试
AIGC
SD
stable
diffusion
【第13章】Stable Diffusion WebUI 动画类插件(Animatediff/Deforum)
animatediff/Animatediffwebui插件地址:https://github.com/continue-revolution/sd-webui-animatediff模型下载地址(包含大模型和控制
lora
聚梦小课堂
·
2025-02-22 06:52
stable
diffusion
人工智能
计算机视觉
语言模型
自然语言处理
图像处理
AI作画
AI绘画Stable Diffusion|进阶篇图片复现AnimateDiff动画插件基础教程
实际上,在AI绘画的领域中,对于SD而言,其核心秘诀在于选取一个恰当的大模型和灵活运用专业的
lora
包。今天,我将为大家揭示如何使用
lora
包来创造出具有高度真实感和质感的金克
设计师阿威
·
2025-02-22 06:21
AI作画
stable
diffusion
ai绘画
AIGC
AI教程
AnimateDiff
AI动画
LLM Course系列:使用 Unsloth 高效地微调 Llama 3.1
我们将将其与即时工程进行比较,以了解何时使用它有意义,详细介绍主要技术及其优缺点,并介绍主要概念,例如
LoRA
超参数
橙狮科技
·
2025-02-22 04:36
LLM工程
llama
人工智能
python
【圣诞树】用python实现圣诞树效果
万圣节过完了,下一个就是圣诞节了,那么我们来用代码实现打印一个圣诞树importrandomimporttimefromco
lora
maimportFore,Back,Style,init#初始化co
lora
mainit
johnny_hhh
·
2025-02-21 23:09
python
开发语言
FLUX本地
Lora
训练
前言目前Flux出现了3个训练工具SimpleTunerhttps://github.com/bghira/SimpleTuner,X-LABS的https://github.com/XLabs-AI/x-fluxai-toolkithttps://github.com/ostris/ai-toolkit待支持:https://github.com/kohya-ss/sd-scripts/目前前两
王念博客
·
2025-02-21 00:15
第26篇:pFed
LoRA
: Model-Heterogeneous Personalized Federated Learning with
LoRA
使用
lora
微调的模型异构个性化联邦学习
第一部分:解决的问题联邦学习(FederatedLearning,FL)是一种分布式机器学习方法,允许客户端在本地数据上训练模型,同时通过中心服务器共享学习成果。传统FL框架假设客户端使用相同的模型结构(模型同构),但在实际中可能面对:统计异质性:客户端的数据分布不均(non-IID)。资源异质性:客户端硬件资源有限。模型异质性:客户端可能拥有不同的模型结构。模型异构的个性化联邦学习(MHPFL)
还不秃顶的计科生
·
2025-02-20 20:10
联邦学习
深度学习
人工智能
开发语言
微调alpaca-
lora
遇到的一些问题
目录一、环境简介二、混合精度训练Tensor相互计算会报错三、推理加载
lora
报错:SafetensorError:Errorwhiledeserializingheader:InvalidHeaderDeserialization
自学AI的鲨鱼儿
·
2025-02-19 05:42
#
训练
个人笔记
深度学习
LLM
LLaMA系列大模型调研与整理-llama-alpaca-
lora
文章目录LLaMA大模型及其衍生模型1.LLaMA2.stanford_alpaca3.ChatDoctor4.alpaca-
lora
5.Chinese-LLaMA-Alpaca6.BELLE大模型综述
AI大模型-大飞
·
2025-02-19 02:17
llama
AI大模型
AI
职场和发展
人工智能
Python--正则表达式
调试信息")logger.info("普通信息")logger.warning("警告信息")logger.error("错误信息")logger.success("成功信息")1.2终端颜色控制(Co
lora
ma
索然无味io
·
2025-02-18 15:13
Python安全开发
python
正则表达式
开发语言
windows
网络安全
安全
web安全
Flux【
Lora
模型】:效率太高了,超写实逼真黑悟空Flux
Lora
它来了
在大家热心谈论黑悟空的时候,AI绘画领域也不甘落后,结合最近火爆的AI绘画工具Flux,各路大神第一时间就训练出了Flux的loar版本,今天我们就来体验感受一下大神“AIGAME熊熊”推出的Flux版本的loar模型:FLUX1-超写实逼真黑悟空模型下载地址(文末网盘地址也可获取)****触发词:aiyouxiketang下面是作者推荐的提示词:amaninarmorwithabeardanda
AI绘画师-海绵
·
2025-02-17 15:59
ui
AIGC
人工智能
3d
平面
设计
计算机
技术方案:基于巨控GRM120系列
LoRa
无线模块的移动设备通信系统
技术方案:基于巨控GRM120系列
LoRa
无线模块的移动设备通信系统项目需求3台移动设备需通过无线通信互联,支持485、网口、DI、AI接口,并满足以下功能:1公里无线通信(无需插卡)多PLC无线通信、
何工13763355074
·
2025-02-17 05:38
人工智能
GRM110
GRM120
巨控lora
巨控GRM120
大语言模型常用微调与基于SFT微调DeepSeek R1指南
在大型语言模型(LLM)的微调中,有几种常见的方法,包括SFT(监督微调)、
LoRA
(低秩适应)、P-tuningv2和**Fre
知来者逆
·
2025-02-16 16:08
LLM
深度学习
人工智能
自然语言处理
DeepSeek
SFT
微调
(15-3)DeepSeek混合专家模型初探:模型微调
支持加载特定任务的数据、对数据进行预处理和编码,以及通过多种配置选项(如
LoRA
量化、分布式训练等)对模型进行高效训练。
码农三叔
·
2025-02-16 16:35
训练
RAG
多模态)
人工智能
Deekseep
深度学习
大模型
transformer
大前端公共知识
杂谈
近年来,随着移动化联网浪潮的汹涌而来与浏览器性能的提升,iOS、Android、Web等前端开发技术各领风骚,大前端的概念也日渐成为某种共识。其中特别是Web开发的领域,以单页应用为代表的富客户端应用迅速流行,各种框架理念争妍斗艳,百花竞放。Web技术的蓬勃发展也催生了一系列跨端混合开发技术,希望能够结合Web的开发便捷性与原生应用的高性能性;其中以Cordova、PWA为代表的方向致力于为Web
黑虎含珠
·
2025-02-15 07:52
#
FlinkCDC
一些关于数据结构的
杂谈
树链剖分P3384【模板】轻重链剖分/树链剖分作用维护树上路径的相关信息。常与线段树相结合。性质所有节点都属于且仅属于一条重链,重链将树完全剖分。重链与子树内的dfs\texttt{dfs}dfs序连续。【这一个性质非常有用】每一条路径最多被拆分成logn\lognlogn条重链(向下经过一条轻边时,子树大小至少除以222)。一些定义f[x]节点xxx的父亲。sz[x]节点xxx对应的子树大小。
超闻逸事
·
2025-02-14 20:53
算法
c++
算法
笔记
数据结构
关于精度话题的
杂谈
01
杂谈
之前在CSDN上写过《关于float浮点值二进制存储和运算精度损失的话题》等几篇精度有关的文章,简述了精度损失的背后机制以及怎么保持较高的精度。
哈市雪花
·
2025-02-14 20:49
图形几何之美
几何算法
图形学
算法
几何学
精度
误差
图形学
LLM大模型中文开源数据集集锦(三)
文章目录1ChatGLM-Med:基于中文医学知识的ChatGLM模型微调1.1数据集1.2ChatGLM+P-tuningV2微调1.3Llama+Alpaca的
Lora
微调版本2LawGPT_zh:
悟乙己
·
2025-02-14 13:01
付费-智能写作专栏
LLM大模型
开源
大模型
LLM
GPT
微调
如何微调(Fine-tuning)大语言模型?看完这篇你就懂了!!
什么是
LoRA
?如何进行微调?本文将解答以上问题,并通过代码实例展示如何使用
LoRA
进行微调。微调的技术门槛并不高,如果微调的模型规模不大10B及10B以下所需硬件成本也不高(10B模
datian1234
·
2025-02-13 23:05
语言模型
人工智能
chatgpt
LLM
ai
AI大模型
大模型微调
自学人工智能大模型,满足7B模型的训练和微调以及推理,预算3万,如何选购电脑
关键硬件配置(1)GPU(显卡)推荐显卡:NVIDIARTX4090(24GBVRAM)或者RTX3090(24GBVRAM)理由:7B模型推理:24GB显存足够跑7B模型的推理,但全参数训练可能吃力,适合
LoRA
岁月的眸
·
2025-02-13 23:03
人工智能
用Llama Factory单机多卡微调Qwen2.5时报torch.OutOfMemoryError: CUDA out of memory的解决办法
但如果仿照上篇博客,直接运行:llamafactory-clitrainexamples/train_q
lora
/qwen_
lora
蛐蛐蛐
·
2025-02-12 22:27
大模型
科研工具
Python技巧
llama
人工智能
大模型
开源模型应用落地-qwen2-7b-instruct-
LoRA
微调&合并-ms-swift-单机多卡-RTX 4090双卡(十五)
二、术语介绍2.1.
LoRA
微调
LoRA
(Low-RankAdaptation)用于微调大型语言模型(LLM)。
开源技术探险家
·
2025-02-12 04:50
开源模型-实际应用落地
#
开源模型-微调实战密码
自然语言处理
深度学习
语言模型
【Black
杂谈
】是否有一种方法可以在二进制世界中准确描述现实世界?
如何只用0和1创造一个世界?要用0和1创造一个世界,实际上是在谈论数字化的模拟或计算机生成的虚拟世界。这个虚拟世界的基础构建可以类比于二进制代码在计算机中的工作原理。每个0和1可以代表一种状态或信息,像构建一个虚拟世界的“基本元素”一样。世界的本源是什么?毕达哥拉斯认为,数是世界的本源,数先于一切事物而存在,他把宇宙的性质都归结于数的规律,数是永恒的。他说数的原则就是一切事物的原则,整个天体体现着
Bl_a_ck
·
2025-02-10 22:08
杂谈
人工智能
超分辨率重建
程序人生
学习
科技
量子计算
经验分享
.NET Core/.NET6 使用DbContext 连接数据库,SqlServer和MySql
usingMicrosoft.EntityFrameworkCore;SQLserver需要添加包Microsoft.EntityFrameworkCore.SqlServerMySql需要添加包Pomelo.EntityFrameworkCore.MySq
lOra
cle
weixin_42199478
·
2025-02-10 18:39
.net
core
数据库
.netcore
The following classes could not be instantiated
Thefollowingclassescouldnotbeinstantiated”等信息,通过查询资料都说要将style文件夹下主题从@color/colorPrimary@color/colorPrimaryDark@color/co
lorA
ccent
小强的奋斗人生
·
2025-02-10 16:53
Android
android-studio
android
xml
基于 llama-Factory 动手实践 Llama 全参数 SFT 和
LoRA
SFT
它提供了简洁的界面和强大的功能,让你无需复杂的代码编写,就能轻松完成Llama模型的SFT任务,无论是全参数微调还是参数高效的
LoRA
微调,llama-Factory都能轻松搞定。
kakaZhui
·
2025-02-09 12:36
llama
AIGC
chatgpt
深度学习
WPF进阶 | WPF 动画特效揭秘:实现炫酷的界面交互效果
|WPF动画特效揭秘:实现炫酷的界面交互效果前言一、WPF动画基础概念1.1什么是WPF动画1.2动画的基本类型1.3动画的核心元素二、线性动画详解2.1DoubleAnimation的使用2.2Co
lorA
nimation
xcLeigh
·
2025-02-08 23:58
WPF
从入门到精通
wpf
交互
C#
【面试系列】软件架构师 高频面试题及详细解答
欢迎订阅相关专栏:工重hao:野老
杂谈
⭐️全网最全IT互联网公司面试宝典:收集整理全网各大IT互联网公司技术、项目、HR面试真题.
野老杂谈
·
2025-02-08 20:08
全网最全IT公司面试宝典
面试
职场和发展
软件构建
使用一个大语言模型对另一个大语言模型进行“调教”
•PEFT:用于微调,特别是
LoRA
(Low-RankAdaptation)等技术。•Accelerate:用
大霸王龙
·
2025-02-07 03:25
python
人工智能
python
QT坐标系统的变化
QT坐标系统的变化(2012-04-0716:33:36)转载▼标签:
杂谈
分类:WORKS原来坐标系是(0,0)Xaxis右Yaxis下现在想把它变成,坐标在窗口中间,X右,Y上,标准的数学中的坐标系。
chenchizhao
·
2025-02-04 18:45
QT
qt
transformation
translation
【llm对话系统】大模型 Llama 源码分析之
LoRA
微调
LoRA
(Low-RankAdaptation)是一种高效的微调方法,它通过引入少量可训练参数,固定预训练模型的权重,从而在保持性能的同时大大减少了计算开销。
kakaZhui
·
2025-02-02 13:14
llama
深度学习
pytorch
AIGC
chatgpt
实战LLM强化学习——使用GRPO(DeepSeek R1出圈算法)
——关于使用Unsloth库、
LoRa
微调及GRPOTrainer自定义奖励函数实现“只输出10个英语单词”的探索为什么要进行“只输出10个英文单词”的极端尝试?
FF-Studio
·
2025-01-30 19:54
DeepSeek
R1
算法
语言模型
人工智能
自然语言处理
机器学习
用自然语言与mysql数据库对话几种方案的思考
服务器中的数据大约有两万多条记录,服务器的作用主要是记录设备的出库和回库的流水账(即以时间为序的记录),但有一些sql查询比较复杂,必须根据特定的sql语句查询,否则很难得到准确稳定的答案,调试和训练大模型的方法有多种方式,比如
lora
闲云野鹤_SG
·
2025-01-30 08:52
数据库
mysql
AI
text2sql
自然语言
本地部署
大模型
TPA注意力机制详解及代码复现
这种方法类似于一种“动态的
LoRA
”,通过巧妙的数学变换,在不牺牲性能的前提下大幅降低了模型的内存需求。TPA注意力机制的
清风AI
·
2025-01-29 17:28
深度学习算法详解及代码复现
深度学习
人工智能
python
神经网络
算法
机器学习
lora
wan服务器通信协议,
LoRa
WAN网络架构和解决方案介绍
一个
LoRa
WAN典型的网络架构中包含了终端、基站、NS(网络服务器)、应用服务器这四个部分。基站和终端之间采用星型网络拓扑,由于
LoRa
的长距离特性,它们之间得以使用单跳传输。
胡晓晴
·
2025-01-29 15:41
lorawan服务器通信协议
湿度传感器pcb遇到的问题
画湿度传感器pcb遇到的问题:1.
lora
模块封装画反了。由于在布局时,使用快捷键X使被选中的器件左右对调,导致封装反了。重新调整
lora
模块部分布局。
司端杨
·
2025-01-28 02:01
学习ESP32系列一个超级有用的网站
ESP32ArduinoIDEESP32ArduinoIDE2.0VSCode和PlatformIOESP32引脚分布ESP32输入输出ESP32PWMESP32模拟输入ESP32中断定时器ESP32深度睡眠协议ESP32Web服务器ESP32
LoRa
ESP32BLEESP32BLE
LS_learner
·
2025-01-25 12:57
嵌入式
嵌入式硬件
【
Lora
微调】提高模型效率的创新方法
为了在保持模型性能的同时减少计算开销,**
Lora
(Low-RankAdaptation)**应运而生。
@fishv
·
2025-01-25 07:19
人工智能
大模型微调
Lora
stable diffusion webui电商基础模型
电商必备的10款StablediffusionWebUI模型-知乎一、WFProduct电商场景这是一个专门为电商摄影场景训练的
lora
模型,可以生成各种极具设计感的场景图,效果逼真,无论是电商、海报、
Kun Li
·
2025-01-25 05:06
多模态大语言模型
stable
diffusion
stable diffusion 模型和
lora
融合
炜哥的AI学习笔记——SuperMerger插件学习-哔哩哔哩接下来学习的插件名字叫做SuperMerger,它的作用正如其名,可以融合大模型或者
LoRA
,一般来说会结合之前的插件
LoRA
BlockWeight
Kun Li
·
2025-01-25 05:06
图像视频生成大模型
stable
diffusion
Linux dirname、basename 指令
Linuxdirname、basename指令(2012-04-3021:44:53)转载▼标签:
杂谈
分类:linux一、dirname指令1、功能:从给定的包含绝对路径的文件名中去除文件名(非目录的部分
weixin_30457465
·
2025-01-24 18:09
操作系统
LLaMA Pro是什么 相比于
lora
full freeze有什么区别 怎么使用
1.LLaMAPro是什么?LLaMAPro是一种基于LLaMA架构改进的大型语言模型(LLM),旨在解决大模型微调中的知识遗忘问题。它通过在原有模型的基础上扩展新的模块(如Transformer块),并在微调时仅训练这些新增模块,从而在适应新任务的同时保留预训练模型的通用知识。LLaMAPro在代码理解、数学推理和语言理解等任务上表现出色,特别适合需要持续学习和多任务处理的场景。2.LLaMAP
Ven%
·
2025-01-24 16:58
简单说深度学习
深度学习基础动手
深度学习速通系列
llama
transformer
深度学习
人工智能
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他