E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
TUNING】
Coursera-吴恩达-深度学习-改善深层神经网络:超参数调试、正则化以及优化-week2-编程作业
本文章内容:Coursera吴恩达深度学习课程,第二课,改善深层神经网络:超参数调试、正则化以及优化(ImprovingDeepNeuralNetworks:Hyperparameter
tuning
,RegularizationandOptimization
帅金毛
·
2023-02-07 13:53
Deep
learning
Coursera-吴恩达-深度学习-改善深层神经网络:超参数调试、正则化以及优化-week1-测验
本文章内容:Coursera吴恩达深度学习课程,第二课改善深层神经网络:超参数调试、正则化以及优化(ImprovingDeepNeuralNetworks:Hyperparameter
tuning
,RegularizationandOptimization
帅金毛
·
2023-02-07 13:23
Deep
learning
Coursera吴恩达课程笔记 2.3《优化深度神经网络》-- 超参数调试、Batch正则化和编程框架
文章目录1.
Tuning
Process2.Usinganappropriatescaletopickhyperparameters3.Hyperparameters
tuning
inpractice:Pandasvs.Caviar4
jianming21
·
2023-02-07 13:22
深度学习
神经网络
深度学习
1/200 Learning Efficient Convolutional Networks through Network Slimming
Keywords:networkslimming,Sparsifying,ChannelPruning,Fine-
tuning
针对问题及解决方案:针对深度神经网络在实际应用中的部署很大程度上受到高计算成本的阻碍的问题
一定向着光的方向
·
2023-02-07 09:19
深度学习
神经网络
计算机视觉
5模型训练和调参(The caret package)
5.模型训练和调参内容:ModelTrainingandParameter
Tuning
AnExampleBasicParameter
Tuning
NotesonReproducibilityCustomizingthe
Tuning
ProcessPre-ProcessingOptionsAlternate
Tuning
GridsPlottingtheResamplingProfileThetrainCo
相逢一醉为前缘
·
2023-02-06 17:08
R
机器学习
1、tensorflowwhl下载2、bertfine
tuning
3、jupyter配置4、bertasservice文档5、tensorflow利用gpu(unbuntu18.04/cuda10.1/
PeterWang2017
·
2023-02-05 18:20
BERT:Pre-training of Deep Bidirectional Transformers for Language
fine-
tuning
:对于微调,首先使用预先训练的参数初始化BERT模型,并使用来自下
直接往二
·
2023-02-05 14:13
构建我的图像分类框架记录
系列参考博客评价指标训练trick整理调参网络结构调优resnet系列学习衰减策略标签平滑知识蒸馏数据增强mixup参数值的设置优化批归一化batchnormalization损失函数添加正则化项Fine
Tuning
learningrate
慕一Chambers
·
2023-02-05 10:43
图像分类
CNN
深度学习框架
深度学习
mlflow模型生命周期_使用MLflow进行Tensorflow模型跟踪
Developingamachinelearningmodelisaniterativeprocessconsistingofmultiplestepssuchas—modelselections,modeltraining,hyperparameter
tuning
weixin_26726011
·
2023-02-04 19:26
tensorflow
机器学习
python
人工智能
深度学习
关于入职 ISP
Tuning
岗位的几个问题及解答
“有比较多的读者向我咨询过如何入职
Tuning
、及做
Tuning
的一些要求,这里结合我自身的一些工作经历,总结几条常见的问题,希望可以帮助到打算入职这个岗位的同学。
木 东
·
2023-02-04 15:45
ISP调试相关
Camera
isp
图像处理
每日学术速递2.3
CV-计算机视觉|ML-机器学习|RL-强化学习|NLP自然语言处理Subjects:cs.Cv、cs.LG1.CompositionalPrompt
Tuning
withMotionCuesforOpen-vocabularyVideoRelationDetection
AiCharm
·
2023-02-04 09:13
#
每日学术速递
人工智能
深度学习
Raise a Child in Large Language Model: Towards Effective and Generalizable Fine-
tuning
在pretrain-fine
Tuning
两阶段的范式下,pretrain阶段,数据量较大,学习到的知识泛化能力较强。fine
tuning
阶段的数据往往是少量的。
吹洞箫饮酒杏花下
·
2023-02-04 08:02
AdaQuant:改进训练后神经网络量化:分层校准和整数编程
AdaQuant:改进训练后神经网络量化:分层校准和整数编程摘要方法AdaQuant:在校准数据集上的逐层量化校验集的大小IntegerProgramming:实现每层的比特分配基本公式Batch-Norm
Tuning
AI异构
·
2023-02-03 14:04
神经网络量化
PTQ
神经网络量化
模型压缩
【Pytorch项目实战】之迁移学习:特征提取、微调、特征提取+微调、雾霾清除
文章目录迁移学习(TransferLearning)方法一:特征提取(FeatureExtraction)方法二:微调(Fine
Tuning
)(一)实战:基于特征提取的迁移学习(数据集:CIFAR-10
胖墩会武术
·
2023-02-01 20:43
深度学习
Pytorch项目实战
pytorch
迁移学习
深度学习
人工智能
python
深度学习调参指南《Deep Learning
Tuning
Playbook》
项目地址:https://github.com/google-research/
tuning
_playbook「大量的实践经验已被提炼成这份强大的深度学习模型调参指南。」
mingo_敏
·
2023-02-01 17:03
Deep
Learning
深度学习
人工智能
Deep Learning
Tuning
Playbook(深度学习调参手册中译版)
前言由五名研究人员和工程师组成的团队发布了《DeepLearning
Tuning
Playbook》,来自他们自己训练神经网络的实验结果以及工程师的一些实践建议,目前在Github上已有1.5k星。
羽星_s
·
2023-02-01 12:22
深度学习
人工智能
[FSCE]FSCE: Few-Shot Object Detection via Contrastive Proposal Encoding(CVPR. 2021)
1.Motivation本文是基于fine-
tuning
based方法Inthiswork,weobserveandaddresstheessentialweaknessofthefine-
tuning
basedapproach–constantlymislabelingnovelin-stancesasconfusablecategories
Ah丶Weii
·
2023-01-31 15:17
笔记
深度学习
机器学习
自然语言处理
ICCV2015(object detection):Fast RCNN-论文解读《Fast R-CNN》
.FastR-CNNarchitectureandtraining2.1TheRoIpoolinglayer2.2Initializingfrompre-trainednetworks2.3Fine-
tuning
forobjectdetectionMulti-tasklossMin
我是大黄同学呀
·
2023-01-31 11:40
读点论文
-
检测与分割
算法
计算机视觉
神经网络
【科研】ET-BERT代码分析
微调数据集的链接—>fine-
tuning
cstnet-tls1.31.
勇往直前的力量
·
2023-01-31 11:32
科研
bert
人工智能
深度学习
【科研】ET-BERT资料库梳理
作者原repo链接https://github.com/linwhitehat/ET-BERT0.资料总库分为数据+模型+语料库1.数据集包含fine-
tuning
数据集(cstnet-tls1.3)与公开数据集
勇往直前的力量
·
2023-01-31 10:54
科研
深度学习
人工智能
谷歌&HuggingFace | 零样本能力最强的语言模型结构
本文约2000字,建议阅读5分钟要是为了模型的zero-shot泛化能力,decoder结构+语言模型任务最好;要是再multitaskfine
tuning
,encoder-decoder结构+MLM任务最好
数据派THU
·
2023-01-31 10:04
人工智能
机器学习
深度学习
算法
python
《Improving Language Understanding by Generative Pre-Training》论文笔记
引言GPT(GenerativePre-Training)受到《Semi-SupervisedSequenceLearning》与《UniversalLanguageModelFine-
tuning
forTextClassification
凯子要面包
·
2023-01-30 20:47
NLP
NLP
Improving Language Understanding by Generative Pre-Training
本文展示了先在大规模未标注语料上预训练生成式语言模型然后在每个判别式任务上进行fine-
tuning
可以获得较大的效果提升。
chansonzhang
·
2023-01-30 20:46
NLP
Papers
NLP
AI
自然语言处理
人工智能
(三)大话深度学习编译器中的自动调优·Empirical Search
大话深度学习编译器中的自动调优·前言"与第二篇"(二)大话深度学习编译器中的自动调优·DSL与IR"分别介绍了背景与一些相关概念,这第三篇我们开始切入正题,看下现代深度学习编译器中的自动调优(Auto-
tuning
ariesjzj
·
2023-01-30 15:26
深度学习
人工智能
机器学习
Auto-tuning
深度学习编译器
论文笔记之《Pre-trained Language Model for Web-scale Retrieval in Baidu Search》
Query-Document相关性模型Bi-encoderCross-encoderPoly-encoder四阶段训练范式pretraining-阶段一post-pretraining-阶段二intermediatefine-
tuning
rogeroyer
·
2023-01-29 20:42
论文笔记
Deep
Learning
语言模型
百度
人工智能
搜索引擎
【差分隐私】Hyperparameter
Tuning
with Renyi Differential Privacy论文解读
【差分隐私】Hyperparameter
Tuning
withRenyiDifferentialPrivacy论文解读文章目录【差分隐私】Hyperparameter
Tuning
withRenyiDifferentialPrivacy
f蜀黍
·
2023-01-28 14:30
差分隐私
机器学习
支持向量机
人工智能
Audio-预训练模型-2020:Wav2vec 2.0
contrastivetask将真正的量化的latent变量表示与其他负例分辨出来(同时训练了量化过程的latentrepresentation),由此得到的representation,基于少量的有标签数据fine-
tuning
u013250861
·
2023-01-26 17:52
#
Audio/预训练模型
算法
机器学习
人工智能
2.FINE-
TUNING
WAV2VEC2 FOR SPEAKER RECOGNITION
摘要:本文探讨了将wav2vec2框架应用于说话人识别而不是语音识别。我们研究了预先训练的权重对说话人识别任务的有效性,以及如何将wav2vec2输出序列汇集到固定长度的说话人嵌入中。为了使框架适应说话人识别,我们提出了具有交叉熵或加性角度softmax损失的单话语分类变体,以及具有BCE损失的话语对分类变体。我们表现最好的变体在扩展的voxceleb1测试集上实现了1.88%的EER,而ECAP
一根藤~
·
2023-01-26 17:52
声纹识别
python
机器学习
开发语言
深度学习超参设置的一般性方法
HyperParameter
Tuning
Hand
Tuning
GoodCodeStyle将各个参数的设置部分集中在⼀起。如果参数的设置分布在代码的各个地⽅,那么修改的过程想必会⾮常痛苦。
在路上的工程师
·
2023-01-26 13:08
自然语言处理
深度学习
深度学习
神经网络
Hyper
Parameter
Tuning
apache负载,服务质量监控
服务做好了,加个apache做反向代理,觉得搭起来就好了,apache应该很强的,老牛气了,性能什么的应该都妥妥,但是最近性能问题比较多,调查起来突然发现apache好像透明的一样的,什么状态都获取不到,
tuning
zeloas
·
2023-01-26 12:54
Prompt
tuning
新工作,五个参数解决下游任务 fine-
tuning
今天介绍的这篇文章从近来大火的prompt
tuning
的角度出发,对这个问题进行了初步的
夕小瑶
·
2023-01-26 11:55
大数据
机器学习
人工智能
深度学习
python
预训练语言模型fine-
tuning
近期进展概述
近年来,迁移学习改变了自然语言处理领域的范式,对预训练语言模型(PLM)进行微调(fine-
tuning
)已经成为了新的范式。本文主要梳理了近期的预训练语言模型做fine-
tuning
的进展。
zenRRan
·
2023-01-26 11:54
大数据
机器学习
人工智能
深度学习
编程语言
一文综述Prompt
Tuning
发展
【专栏:前沿进展】2021年,Prompt
Tuning
已经成为NLP领域一大重点研究方向。不久前,CMU博士刘鹏飞发表了相关综述文章,在业界引起讨论。
智源社区
·
2023-01-26 11:53
大数据
算法
编程语言
python
机器学习
AdaPrompt: Adaptive Prompt-based Fine
tuning
for Relation Extraction
AdaPrompt:AdaptivePrompt-basedFine
tuning
forRelationExtraction本文仅供参考、交流、学习论文地址:https://arxiv.org/abs/2104.07650v1
回锅肉炒肉
·
2023-01-26 11:23
神经网络
深度学习
自然语言处理
【调参指南 - 值得推荐 - 谷歌】星标9K,强烈推荐谷歌大脑团队开源的深度学习调参指南
星标9K,强烈推荐谷歌大脑团队开源的深度学习调参指南:https://github.com/google-research/
tuning
_playbook视频:https://www.bilibili.com
I"ll carry you
·
2023-01-26 10:31
还不知道怎么分类
人工智能
2021 ACL Parameter-efficient Multi-task Fine-
tuning
for Transformers via Shared Hypernetworks
Parameter-efficientMulti-taskFine-
tuning
forTransformersviaSharedHypernetworks阅读这篇文章的目的是为了了解hypernet,相关代码
文三路张同学
·
2023-01-26 08:56
我的科研之路~
其他
深度学习
人工智能
Keras_Yolov3 实现人脸检测
目录1.实验环境的搭建2.人脸数据集的介绍及准备3.相关代码的修改及调整4.算法模型的fine-
tuning
5.模型检测结果6.图片的批量测试代码一.实验环境的搭建本次实验所需要的环境配置如下:Python
沙皮狗de忧伤
·
2023-01-26 05:49
学习笔记
深度学习
人脸检测
YOLOv3
神经网络
pytorch 性能调优系列(一般优化篇)
本文翻译自:https://pytorch.org/tutorials/recipes/recipes/
tuning
_guide.html#general-optimizationspytorch.org
智星云服务
·
2023-01-23 08:00
服务器
bert关键词提取_ir+bert: sigir19短文一篇
/arxiv.org/pdf/1905.09217.pdfarxiv.org针对的问题bert的强文本理解能力能否应用到ir领域,能否带来ir领域性能的提升结论使用ir领域数据对bert进行fine-
tuning
PS自学部落
·
2023-01-21 22:35
bert关键词提取
Pytorch中数据集太大加载爆内存问题解决记录
我按照Transformers库官方文档里的Fine-
tuning
withcustomdatasets一文中对BERT模型在IMDb数据集上Finetune的过程进行改写。
11好好学习,天天向上
·
2023-01-21 13:50
自然语言处理
Pytorch
NLP
深度学习杂谈(调参、损失函数、trick、正负样本...)
谷歌大脑深度学习调参(炼丹)指南出炉,Hinton点赞,一天收获1500星:谷歌大脑深度学习调参(炼丹)指南出炉,Hinton点赞,一天收获1500星GitHub-google-research/
tuning
_playbook
Pengsen Ma
·
2023-01-21 12:30
图像相关trick
深度学习
pytorch
目标检测
BERT源码分析(PART II)
写在前面BERT的使用可以分为两个步骤:「pre-training」和「fine-
tuning
」。
风度78
·
2023-01-21 10:58
TVM的安装编译
一.Ubuntu20.04安装配置由于要用到RPC来进行auto-
tuning
,所以Ubuntu20.04的网络适配器需要选择桥接模式,VMware也需要编辑虚拟网络适配器,添加桥接模式。
意大利山炮儿
·
2023-01-20 15:24
图像处理
性能优化
深度学习
迁移学习中的预训练模型(转载)
转载自https://www.analyticsvidhya.com/blog/2017/06/transfer-learning-the-art-of-fine-
tuning
-a-pre-trained-model
yepeng2007fei
·
2023-01-20 13:49
深度学习
Transfer learning & The art of using Pre-trained Models in Deep Learning
原文网址:https://www.analyticsvidhya.com/blog/2017/06/transfer-learning-the-art-of-fine-
tuning
-a-pre-trained-model
sas???
·
2023-01-20 13:45
人工智能
python
【YOLO】预训练,微调
问题描述:在阅读YOLO论文的时候,总是出现预训练(pretraining)以及微调(fine
tuning
)。那么问题来了:预训练是什么?为什么要用预训练?怎样预训练?微调是什么?为什么要用微调?
一场玫瑰花的葬礼
·
2023-01-19 12:20
深度学习
神经网络
人工智能
AMiner推荐论文:Self-
Tuning
for Data-Efficient Deep Learning
论文链接:https://www.aminer.cn/pub/60bdde338585e32c38af4e77?f=cs大规模标记数据集推动深度学习获得了广泛应用,然而,在现实场景中收集足量的标记数据往往耗时耗力。为了减少对标记数据的需求,半监督学习和迁移学习的研究者们从两个不同的视角给出了自己的思考:半监督学习(Semi-supervisedLearning,SSL)侧重于同时探索标记数据和无标
AMiner学术搜索和科技情报挖掘
·
2023-01-19 11:29
AMiner论文推荐
AMiner
深度学习
r语言
机器学习
BERT模型fine-
tuning
Preface:fine-
tuning
到底是什么?在预训练模型层上添加新的网络层,然后预训练层和新网络层联合训练。
anshiquanshu
·
2023-01-19 10:47
深度学习
python
ANSOR:一种Auto-Scheduler方法
ANSOR:一种Auto-Scheduler方法背景Ansor方案TaskSchedulerSketchAnnotationPerformancefine-
tuning
评估数据不足参考本文主要是对论文Ansor
loongknown
·
2023-01-18 19:33
编译工具链
深度学习
编译器
【目标检测】自定义Dataset方法(VOC数据集)——pytorch实现
推荐参考:TORCHVISIONOBJECTDETECTIONFINE
TUNING
TUTORIAL以VOC2007数据集为例:importosimporttorchfromtorch.utils.dataimportDatasetfromPILimportImagefromlxmlimportetreefromxml.etreeimportElementTree
CV_Peach
·
2023-01-18 18:00
目标检测
pytorch
深度学习
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他