E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
联邦学习+知识蒸馏
量子计算对密码学的威胁及应对方式
PrimiHub一款由密码学专家团队打造的开源隐私计算平台,专注于分享数据安全、密码学、
联邦学习
、同态加密等隐私计算领域的技术和内容。当量子计算机问世时,许多加密方式将慢慢失去效果。
PrimiHub
·
2023-12-15 05:42
量子计算
密码学
网络安全
开源
基于
联邦学习
的分布式农业组织
基于此,提出一种结合
联邦学习
与区块链技术的分布式农业人工智能框架,使得在数据不共享的情况下,能达到训练模型的目的,并可建立参与方的激励机制。
罗思付之技术屋
·
2023-12-14 22:15
行业数字化研究及信息化建设专栏
分布式
知识蒸馏
KL-loss解读
文章目录前言一、KLloss原理二、logit蒸馏网络图示三、KL代码四、运行结果显示前言本文简单介绍
知识蒸馏
教师模型与学生模型使用KLloss方法。
tangjunjun-owen
·
2023-12-06 18:44
python-pytorch
KL
loss
知识蒸馏
知识蒸馏
去雾:Distilling image dehazing with heterogeneous task imitation
知识蒸馏
使得利用教师网络训练学生网络成为可能。然而,大多数的
知识蒸馏
方法都是应用于图像分类、语义分割或者目标检测的,很少有研究将
知识蒸馏
应用于不同图像恢复任务之间的知识转移。
lishuoshi1996
·
2023-12-05 19:07
知识蒸馏
测试(使用ImageNet中的1000类dog数据,Resnet101和Resnet18分别做教师模型和学生模型)
当教师网络为resnet101,学生网络为resnet18时:使用蒸馏方法训练的resnet18训练准确率都小于单独训练resnet18,使用蒸馏方法反而导致了下降。当hard_loss的alpha为0.7时,下降了1.1当hard_loss的alpha为0.6时,下降了1.7说明当学生网络和教师网络训练准确率相差不多时,要给hard_loss权重大一点。VanillaKD:RevisittheP
computer_vision_chen
·
2023-12-03 09:11
动手学深度学习(计算机视觉篇)
机器学习&深度学习笔记
知识蒸馏
人工智能
知识蒸馏
《PFL》论文阅读笔记
一、概要随着
联邦学习
的发展,简单的聚合算法已经不在有效。但复杂的聚合算法使得
联邦学习
训练时间出现新的瓶颈。
superY25
·
2023-12-03 09:07
人工智能
联邦学习
PFL
异构数据
网络掉队
FL
联邦学习
--论文汇集(二)
这次总结两篇文章去中心化的
联邦学习
Hu,Y.,Xia,W.,Xiao,J.,andWu,C.,“GFL:ADecentralizedFederatedLearningFrameworkBasedOnBlockchain
35岁北京一套房
·
2023-12-02 01:29
机器学习
基于 PSI 的纵向
联邦学习
数据隐私安全技术
摘 要:
联邦学习
系统较好地解决了“数据孤岛”问题,也在一定程度上保护了私密训练数据,然而目前
联邦学习
仍然存在一些隐私安全风险。
罗思付之技术屋
·
2023-12-01 10:59
综合技术探讨及方案专栏
安全
联邦学习
面临的瓶颈与挑战
摘要
联邦学习
(FederatedLearning,FL)是Google公司于2016年首次提出的概念,是一种在隐私约束下进行模型训练的机器学习训练范式。
罗思付之技术屋
·
2023-12-01 10:59
物联网及AI前沿技术专栏
人工智能
知识蒸馏
(深度学习模型压缩)
模型压缩大体上可以分为5种:模型剪枝:即移除对结果作用较小的组件,如减少head的数量和去除作用较少的层,共享参数等,ALBERT属于这种;量化:比如将float32降到float8;
知识蒸馏
:将teacher
猿代码_xiao
·
2023-11-30 21:33
人工智能
深度学习
神经网络
计算机视觉
深度学习:什么是
知识蒸馏
1概况1.1定义
知识蒸馏
(KnowledgeDistillation)是一种深度学习技术,旨在将一个复杂模型(通常称为“教师模型”)的知识转移到一个更简单、更小的模型(称为“学生模型”)中。
智慧医疗探索者
·
2023-11-30 21:29
人工智能初探
深度学习
人工智能
用了这个方法,两周没变过的模型精度居然提升了(附资源)
作者|DerrickMwiti译者|刘畅编辑|Jane出品|AI科技大本营(ID:rgznai100)【导语】
知识蒸馏
是一种模型压缩技术,它利用训练好的大网络(教师网络)去教小网络(学生网络)。
AI科技大本营
·
2023-11-30 19:57
全网最细图解
知识蒸馏
(涉及知识点:
知识蒸馏
训练过程,推理过程,蒸馏温度,蒸馏损失函数)
二.为什么要用
知识蒸馏
把大模型学习到的东西迁移到小模型呢呢?因为大的模型很臃肿,而真正落地的终端算力有限,比如手表,安防终端。所以要把大模型变成小模型,把小模型部署到终端上。
computer_vision_chen
·
2023-11-30 19:53
机器学习&深度学习笔记
深度学习
人工智能
分布式机器学习、
联邦学习
、多智能体的区别和联系——一文进行详细解释
1分布式机器学习、
联邦学习
、多智能体介绍最近这三个方面的论文都读过,这里写一篇博客归纳一下,以方便搞这几个领域的其他童鞋入门。我们先来介绍以下这三种机器学习范式的基本概念。
别出BUG求求了
·
2023-11-30 18:28
分布式
分布式
机器学习
人工智能
2022BCS——AI安全论坛
安全研究发现AI安全研究主要集中于:模型鲁棒性(对抗样本攻击)、机密性(成员推理攻击)、完整性(模型后门攻击)e.g.人脸识别身份认证协议的安全威胁:传输过程、感知器件、终端系统、宿主软件、业务代码、识别模型
联邦学习
TARO_ZERO
·
2023-11-30 09:17
论坛讲座
人工智能
安全
知识蒸馏
—原理+代码实战(Distillation CNN 和 Progressive Distillation Diffusion)
ProgressiveDistillationDiffusion生成代码实战3.1ProgressiveDistillation原理3.2v-parameterization3.2渐进蒸馏cifar代码实战1.Distillation基本概念
知识蒸馏
被广泛的用于模型压缩和迁移学习
Yuezero_
·
2023-11-29 09:58
cnn
人工智能
神经网络
2022全球隐私计算专利排行榜发布,微众银行位居全球银行业第一
作为国内首家互联网银行,微众银行自成立以来,一直以科技为核心驱动力,在区块链、安全多方计算、
联邦学习
等方面积极开展
微众区块链
·
2023-11-29 01:02
隐私保护
区块链
什么是隐私计算?隐私计算技术路线
“隐语”是开源的可信隐私计算框架,内置MPC、TEE、同态等多种密态计算虚拟设备供灵活选择,提供丰富的
联邦学习
算法和差分隐私机制。
隐语SecretFlow
·
2023-11-27 10:27
隐私计算
阅读记录【arXiv2020】 Adaptive Personalized Federated Learning
AdaptivePersonalizedFederatedLearning论文地址:https://arxiv.org/abs/2003.13461摘要对
联邦学习
算法个性化程度的研究表明,只有最大化全局模型的性能才会限制局部模型的个性化能力
furoto_
·
2023-11-26 08:27
机器学习&深度学习
联邦学习
泛化
人工智能
深度学习
机器学习
阅读记录【PMLR2023】The Aggregation–Heterogeneity Trade-off in Federated Learning
因此,人们开发了多种
联邦学习
方法来聚合尽可能多的本地样本。与这种观点相反,本文表明,在存在异构性的情况下,
furoto_
·
2023-11-26 08:57
机器学习&深度学习
联邦学习
泛化
机器学习
联邦学习
联邦学习
研究综述笔记
联邦学习
联邦学习
的定义:
联邦学习
是一种分布式机器学习架构,包含多个客户端(参与者)和一个聚合服务器。
空调不灵
·
2023-11-25 07:53
联邦学习
笔记
深度学习
机器学习【01】相关环境的安装
学习实例参考资料:
联邦学习
实战{杨强}https://book.douban.com/subject/35436587/项目地址:https://github.com/FederatedAI/Practicing-Federated-Learning
ihan1001
·
2023-11-24 16:40
机器学习
机器学习
人工智能
【Soc级系统防御】Soc硬件木马与电子链
这是有区别与隐私计算中的多方安全计算(密码学技术)、
联邦学习
(融合延伸)等其他可信技术。所以很
安全-Hkcoco
·
2023-11-21 21:02
数字IC
IC
risc-v
fpga开发
安全
硬件安全
安全架构
【Soc级系统防御】Soc硬件木马与电子链
这是有区别与隐私计算中的多方安全计算(密码学技术)、
联邦学习
(融合延伸)等其他可信技术。所以很
安全-Hkcoco
·
2023-11-21 21:32
数字IC
安全
可信
硬件
IC
木马
从新电脑开始构建FATE环境,图文并茂
VMwareWorkStation16安装CentOS7(已安装的可以略过,这部分比较详细内容较多)安装python3(注意网络要保持连接)安装dockerDocker命令下载FATE项目Fate命令横向
联邦学习
样例横向
联邦学习
样例写在
桐青冰蝶Kiyotaka
·
2023-11-21 04:15
FATE学习
FATE
python
机器学习
PP-OCR笔记
目录检测det数据准备数据格式训练模型微调数据选择模型选择前沿算法与模型训练超参选择预测超参选择启动训练断点训练更换Backbone训练添加新算法混合精度训练分布式训练
知识蒸馏
训练其他训练环境评估、预测导出
贺一诺
·
2023-11-19 08:36
深度学习
ocr
计算机视觉
【L2GD】: 无环局部梯度下降
文章链接:FederatedLearningofaMixtureofGlobalandLocalModels发表期刊(会议):ICLR2021Conference(机器学习顶会)往期博客:FLMix:
联邦学习
新范式
恭仔さん
·
2023-11-17 09:46
联邦学习
联邦学习
模型收敛
梯度下降
【
联邦学习
+区块链】TORR: A Lightweight Blockchain for Decentralized Federated Learning
文章目录I.CONTRIBUTIONII.ASSUMPTIONSANDTHREATMODELA.AssumptionsB.ThreatModelIII.SYSTEMDESIGNA.DesignOverviewB.BlockDesignC.InitializationD.RoleSelectionE.StorageProtocolF.AggregationProtocolG.ProofofRelia
WuwuwuwH_
·
2023-11-17 01:59
隐私保护机器学习
区块链
去中心化
联邦学习
机器学习
知识蒸馏
:如何用一个神经网络训练另一个神经网络
作者:TivadarDanka编译:ronghuaiyang来源:AI公园导读
知识蒸馏
的简单介绍,让大家了解
知识蒸馏
背后的直觉。
Imagination官方博客
·
2023-11-16 21:16
大数据
python
神经网络
机器学习
人工智能
神经网络 mse一直不变_神经网络中的蒸馏技术,从Softmax开始说起
↑点击蓝字关注极市平台作者丨SayakPaul、ronghuaiyang(译)来源丨AI公园编辑丨极市平台极市导读本文讨论了一种模型优化技术——
知识蒸馏
。
weixin_39804620
·
2023-11-16 21:46
神经网络
mse一直不变
神经网络中的蒸馏技术,从Softmax开始说起
点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达作者:SayakPaul编译:ronghuaiyang导读从各个层次给大家讲解模型的
知识蒸馏
的相关内容,并通过实际的代码给大家进行演示
小白学视觉
·
2023-11-16 21:14
大数据
编程语言
python
计算机视觉
神经网络
知识蒸馏
(Pytorch入门)
知识蒸馏
:Hinton2015年在论文《Distillingtheknowledgeinaneuralnetwork》中首次提出,并应用在分类任务上,大模型称为teacher(教师模型),小模型称为Student
我有明珠一颗
·
2023-11-16 06:48
pytorch
深度学习
机器学习
pytorch
深度学习
蒸馏学习
机器学习
python
联邦学习
FATE 框架安装运行
Centos7.5平台下运行
联邦学习
FATE框架的Example引言最近的课题方向就是基于
联邦学习
的框架进行数据分析处理,有一些粗浅的认识,但是搜寻资料散乱杂多,自己也记不太清楚,在虚拟机上也经常出错崩溃
Van�
·
2023-11-13 15:58
联邦学习
centos
从隐私悖论到隐私工程
例如,
联邦学习
与大模型的结合目前还面临着许多挑战,包括安全威胁及防御、隐私威胁与增强、效率问题以及处理非独立同分布(Non-IID)数据等问题。这些问题可能会对用户的隐私造成潜在的威胁。
半吊子全栈工匠
·
2023-11-13 11:49
网络
联邦学习
的梯度重构
联邦学习
中的梯度出现挑战:暴露原始训练数据的某些属性利用生成对抗网络生成与私有训练图像类似的图片尽管许多研究已经证实从梯度中重构原始数据的可能性,这些研究通常基于一个前提假设,即用户上传的梯度是全梯度。
白兔1205
·
2023-11-12 23:48
汇报论文
重构
人工智能
深度学习
学者观察 |
联邦学习
与区块链、大模型等新技术的融合与挑战-北京航空航天大学童咏昕
为解决原始数据自主可控与数据跨区域流动之间的矛盾,
联邦学习
这项技术应运而生。
长安链开源社区
·
2023-11-12 15:24
区块链
机器学习
可信计算技术
知识蒸馏
概述及开源项目推荐
文章目录1.介绍2.知识2.1基于响应的知识(response-based)2.2基于特征的知识(feature-based)2.3基于关系的知识(relation-based)3.蒸馏机制3.1离线蒸馏3.2在线蒸馏3.3自蒸馏4.教师-学生架构5.蒸馏算法5.1对抗性蒸馏(AdversarialDistillation)5.2多教师蒸馏(Multi-teacherDistillation)5.
@BangBang
·
2023-11-12 13:39
深度学习
目标检测
计算机视觉
深度学习
人工智能
对
知识蒸馏
的一些理解
知识蒸馏
是一种模型压缩技术,它通过从一个大模型(教师模型)中传输知识到一个小模型(学生模型)中来提高学生模型的性能,
知识蒸馏
也要用到真实的数据集标签。
重剑DS
·
2023-11-11 17:38
深度学习
知识蒸馏
FedAT:分层机制更新的
联邦学习
文章链接:FedAT:ACommunication-EfficientFederatedLearningMethodwithAsynchronousTiersunderNon-IIDData发表会议:SC’21(InternationalConferenceforHighPerformanceComputing,Networking,Storage,andAnalysis)高性能计算,体系结构领域
恭仔さん
·
2023-11-08 15:40
联邦学习
联邦学习
异步更新
模型收敛
分层更新
Towards Personalized Federated Learning(个性化
联邦学习
综述)文献阅读
基本内容文章:TowardsPersonalizedFederatedLearning作者:AlysaZiyingTan,HanYu∗,LizhenCui∗,andQiangYang∗机构:AlysaZiyingTaniswiththeSchoolofComputerScienceandEngineering,NanyangTechnologicalUniversity,Singapore;Ali
_RichardYang
·
2023-11-08 08:14
联邦学习
人工智能
深度学习
联邦图机器学习(综述阅读)
目录一、联邦图机器学习的介绍二、联邦图机器学习的类型三、具有结构化数据的
联邦学习
(FLWithStructuredData)3.1跨客户端信息重构3.2重叠实例对齐3.3非独立同分布数据适配3.3.3基于单一全局模型的方法
大菠菠菠萝
·
2023-11-08 08:13
联邦图学习
机器学习
人工智能
深度学习
【
联邦学习
-论文阅读】Towards Personalized Federated Learning
题目:个性化
联邦学习
作者:AlysaZiyingTan,HanYu,Member,IEEE,LizhenCui,Member,IEEE,andQiangYang,Fellow,IEEE期刊:IEEETRANSACTIONSONNEURALNETWORKSANDLEARNINGSYSTEMS
一只小maru
·
2023-11-08 08:42
论文阅读
机器学习
安全
个性化
联邦学习
-综述
介绍阅读的三篇个性化
联邦学习
的经典综述文章ThreeApproachesforPersonalizationwithApplicationstoFederatedLearning论文地址文章的主要内容介绍了用户聚类
jieHeEternity
·
2023-11-08 08:41
联邦学习
迁移学习
深度学习
pytorch
人工智能
知识蒸馏
联邦学习
个性化联邦学习
论文阅读_
知识蒸馏
_MobileBERT
英文题目:MobileBERT:aCompactTask-AgnosticBERTforResource-LimitedDevices中文题目:MobileBERT:面向资源有限设备的任务无关的压缩模型论文地址:https://arxiv.org/pdf/2004.02984领域:自然语言处理,模型蒸馏发表时间:2020作者:ZhiqingSun,卡内基梅隆大学,谷歌出处:ACL被引量:162代码
xieyan0811
·
2023-11-06 19:28
【神经网络架构搜索】DNA: Block-wisely Supervised NAS with KD
【GiantPandaCV导语】
知识蒸馏
结合NAS的一篇工作,提出了DNA,让教师网络来指导超网的学习。这个工作将
知识蒸馏
非常深入的融合在一起,有很强的创新性,已被CVPR20接收。
pprpp
·
2023-11-04 07:28
基于图神经网络的
联邦学习
跨企业推荐
FederatedLearning-BasedCross-EnterpriseRecommendationWithGraphNeuralNetworks论文试图解决什么问题该论文试图解决跨企业推荐系统中存在的数据共享和用户隐私保护的问题。在许多小型和中型企业中,由于资源有限,无法提供足够的数据来进行大规模的模型训练,也不能购买用户数据。同时,由于用户数据隐私保护法律的限制,这些企业也无法与其他企业
jieHeEternity
·
2023-11-04 01:54
联邦学习
神经网络
人工智能
深度学习
FedFast: Going Beyond Average for Faster Training of Federated Recommender Systems
超越平均水平更快训练联邦推荐系统idea类似的一篇论文参考博客论文试图解决什么问题该论文试图解决在
联邦学习
中训练推荐系统的速度和准确性问题。
jieHeEternity
·
2023-11-04 01:23
联邦学习
深度学习
pytorch
人工智能
推荐算法
聚类
Dual Personalization on Federated Recommendation
这种机制能够在
联邦学习
框架中为每个本地模型学习用户特定的物品嵌入,从而显著提升推荐系统的效果。
jieHeEternity
·
2023-11-04 01:50
联邦学习
python
神经网络
pytorch
深度学习
推荐算法
SSD-1B:Segmind的加速稳定扩散模型
SSD-1B模型采用
知识蒸馏
策略,连续利用多个专家模型(包括SDXL、ZavyChromaXL和JuggernautXL)的教学,结合
新缸中之脑
·
2023-11-03 10:59
SSD-1B
基于生成对抗网络的
知识蒸馏
数据增强
基于生成对抗网络的
知识蒸馏
数据增强期刊:计算机工程C时间:2022研究院:武汉工程大学关键词:数据增强;神经网络分类器;工业视觉;生成对抗网络;
知识蒸馏
方法简介思想来源:仅对原标签做简单的线性变化或直接使用原标签作为新样本标签的方法是无法表示标签中离散信息的
HoraceO
·
2023-11-03 06:16
文献
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他