Leetcode题目
FPGA快速入门
半加器,全加器,串行加法和超前加法器
跨时钟域问题(一)(建立时间保持时间和亚稳态)
跨时钟域问题(二)(单bit信号跨时钟域 1. 电平同步器 2. 边沿同步器 3. 脉冲检测器)
跨时钟域问题(三)异步FIFO的Verilog实现(格雷码)
LAB01 VGA图像显示
FPGA-HDMI-彩条显示实验(ZYBO Z7)
FPGA-HDMI-静态图片显示实验(ZYBO Z7)
FPGA-HDMI-图片Sobel滤波显示实验(ZYBO Z7)
Vivado简单双端口RAM 使用,问题探析
基于verilog的CNN搭建缓存图片数据浅析
基于Verilog搭建一个卷积运算单元的简单实现
HDLBits(1)——Modules:Hierarchy
HDLBits(2)——Procedures
verilog边学边练习(1)反相器_与非门
verilog_边学边练习(2)二选一_四选一(组合逻辑电路)
verilog_边学边练习(3)补码转换_七段数码管译码(组合逻辑电路)
verilog_边学边练习(4)计数器_四级伪随机码发生器(时序逻辑电路
verilog_边学边练习(5) 秒计数器(时序逻辑电路
verilog_边学边练习(6) 相邻点累加(时序逻辑电路)
同步FIFO设计详解及代码分享(这一篇就足够~)
verilog牛客网刷题代码汇总
1.CSDN字体格式(字体、颜色、大小)、背景色设置
2.符号大小
创建keras环境步骤
tensorflow2.0 深度学习基础和tf.keras
tensorflow2.0 卷积神经网络的实现实例(卫星与湖)
tensorflow2.0 tf.keras序列问题
tensorflow2.0 实例猫狗识别(1)
tensorflow2.0 eager模式与自定义训练网络
tensorflow2.0 tf.keras猫狗识别(2)—自定义训练
tebsorflow2.0 使用Keras编写自定义图层和模型
tebsorflow2.0 多输出模型实例
tebsorflow2.0 图像定位+分类(Oxford-IIIT数据集)
tebsorflow2.0 图像语义分割(Oxford-IIIT数据集)
tensorflow1.0 计算模型复杂度
1. Matlab-梯度Roberts算子、拉普拉斯算子、Sobel算子、Prewitt算子对图像进行锐化
2. Matalb-邻域平均法、均值滤波法、中值滤波法对图像进行平滑去噪
3. Matlab-直方图均衡化
4. Matalb-图像均值滤波,中值滤波,梯度锐化(sobel算子)的实现
5. 基于DCT变换的JPEG图像压缩
6. 信息熵介绍及其在图像处理中的应用与实现
python-opencv(1) 图像的基础操作
python-opencv(2) 图像运算
python-opencv(3) 图像类型转换
python-opencv(4) 几何变换
python-opencv(10) 图像金字塔
python-opencv(11) 图像轮廓
python-opencv(12) 直方图
python-opencv(13) 傅里叶变换
1. 皮肤检测
2. 基于身高体重的性别分类(朴素贝叶斯,LDA线性分类器,pazen窗方法的概率密度估计)
3. 基于身高体重的性别分类(压缩近邻法)
4. 基于PCA降维的人脸识别
5. 基于PCA–LDA的人脸识别
6. 基于聚类的图片分割
7. 如何用MCMC产生任意的概率分布?Python简单实现
1. 图像描述文献阅读(1)Comprehending and Ordering Semantics for Image Captioning
2. 自注意机制(Self-attention)
3. 基于Attention的Seq2Seq
行 | 1-1天 | 1-2天 | 1-3天 | 2-1天 | 2-2天 | 2-3天 |
---|---|---|---|---|---|---|
1 | 1-1标注 | 1-2标注 | 1-3标注 | 2-1标注 | 2-2标注 | 2-3标注 |
2 | 3-1标注 | 3-2标注 | 3-3标注 | |||
3 | ||||||
4 | ||||||
5 | ||||||
6 | ||||||
7 | ||||||
8 | ||||||
9 | ||||||
10 | ||||||
11 | ||||||
12 | ||||||
13 | ||||||
14 | ||||||
15 | ||||||
16 | ||||||
17 | ||||||
18 | ||||||
19 | ||||||
20 | ||||||
21 | ||||||
22 | ||||||
23 | ||||||
24 | ||||||
25 | ||||||
26 |
跟我学万字长文:最前沿的特征可视化(CAM)技术
半小时学会 PyTorch Hook
1. 马尔科夫决策过程(MDP)
2. 强化学习(动态规划DP)之策略迭代
3. 基于神经网络方法求解RL
4. 强化学习之Policy Gradient
1. 韩松Deep compression论文讲解——PPT加说明文字
2. 通用矩阵乘(GEMM)优化算法
3. 三大种类矩阵范数:诱导范数,元素范数,Schatten范数,涵盖谱范数,2范数
4. 模型加速与压缩 | 剪枝乱炖
5. 闲话模型压缩之网络剪枝(Network Pruning)篇
6. 剪枝论文分析
7. The Sandwich Rule(三明治规则)
8. 张量分解与应用-学习笔记
9. 闲话模型压缩之量化(Quantization)篇
1. 基于Fashion-MNIST数据集的模型剪枝练习
0. 相关论文总结
1. ICCV2017—Learning Efficient Convolutional Networks through Network Slimming
2. Learning Structured Sparsity in Deep Neural Networks
3. ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression
4. CVPR2020-HRank:Filter Pruning using High-Rank Feature Map(利用High-rank特征图进行过滤剪枝)
5. Exploring the Regularity of Sparse Structure in Convolutional Neural Networks(在卷积神经网络中探索稀疏结构的规律性)
6. IJCAI2020_Channel Pruning via Automatic Structure Search(通道剪枝通过自动结构搜索)
7. CVPR2020_DMCP: Differentiable Markov Channel Pruning for Neural Networks(DMCP:神经网络的可微马尔科夫通道剪枝)
8. ICML2020_DropNet: Reducing Neural Network Complexity via Iterative Pruning(DropNet:通过迭代修剪降低神经网络复杂度)
9. 2020-ECCV-EagleEye: Fast Sub-net Evaluation for Efficient Neural Network Pruning(EagleEye:高效神经网络剪枝的快速子网评价)
10. ICLR-2019-Rethinking the Value of Network Pruning(重新思考网络修剪的价值)
11. 2020-AAAI-Beyond Network Pruning a Joint Search-and-Training Approach(NAS_联合优化)
12. 2019-NeurIPS-Network Pruning via Transformable Architecture Search
13. 2018-ECCV-AMC: AutoML for Model Compression and Acceleration on Mobile Devices(用于移动设备上模型压缩和加速的AutoML)
14. 2020-腾讯优图-Prunging filter in filter
15. To Filter Prune, or to Layer Prune, That Is The Question——滤波器剪枝,还是层修剪,这就是问题所在?
16. Shallowing Deep Networks: Layer-Wise Pruning Based on Feature Representations—基于特征表示的分层剪枝
17. Global Biased Pruning Considering Layer Contribution
18. MEAL V2: Boosting Vanilla ResNet-50 to 80%+ Top-1 Accuracy on ImageNet without Tricks(无需额外数据、Tricks、架构调整,CMU开源首个将ResNet50精度提升至80%+新方法)
19. Model Pruning Based on Quantified Similarity of Feature Maps基于特征图量化相似度的模型修剪
1. Tied Block Convolution: Leaner and Better CNNs with Shared Thinner Filters
2. MobileNeXt: Rethinking Bottleneck Structure for Efficient Mobile Network Design
3. Understanding intermediate layers using linear classifier probes—使用线性分类器探针理解中间层
1. Improving Post Training Neural Quantization: Layer-wise Calibration and Integer Programming
2. Any-Precision Deep Neural Networks
3. One Model for All Quantization: A Quantized Network Supporting Hot-Swap Bit-Width Adjustment
4. DoReFa-Net: Training Low Bitwidth Convolutional Neural Networks with Low Bitwidth Gradients
神经网络量化基础(1)——模型的构建与基础量化函数的实现
神经网络量化基础(2)——量化模型的实现
Any_percision的代码分析(1)
跟Xilinx SAE 学HLS系列视频讲座笔记(1)
跟Xilinx SAE 学HLS系列视频讲座笔记(2)—— 编写高效的C Test Bench
跟Xilinx SAE 学HLS系列视频讲座笔记(3)—— 接口综合
跟Xilinx SAE 学HLS系列视频讲座笔记(4)—— For循环优化
跟Xilinx SAE 学HLS系列视频讲座笔记(5)—— 数组优化
跟Xilinx SAE 学HLS系列视频讲座笔记(6)—— 函数优化
基于HLS的加速器Overlay设计实例 - 快速生成硬件IP
AXI4总线介绍
对卷积的定点化运算理解
基于HLS的池化运算单元设计
写论文要用
学术论坛汇报-基于嵌入式深度学习的种子分选系统设计
FPGA加速器,双缓冲的程序分析
0. 什么是NAS
1. 神经网络架构搜索(Neural Architecture Search)杂谈
2. 图解高效神经网络结构搜索(ENAS)
3. Gumbel softmax在可微NAS的作用是什么?
1. 2019-ICLR-神经网络架构搜索——可微分搜索(DARTS)
2. 2018-ICML-Understanding and Simplifying One-Shot Architecture Search(One-shot)
3. 2018-ECCV-Progressive Neural Architecture Search(代理模型评估)
4. 2018-ILCR-Simple And Efficient Architecture Search For Neural Networks(NSPH,网络态射+爬山法)
5. 2019-ICLR-ProxyLessNAS : Direct Neural Architecture Search On Target Task And Hardware
论文一实验
论文二实验
论文三实验
数据集划分
论文四实验
1. python中的语法使用(easydict set() plt.subplots() assert)
2. os.path库常用函数的使用
3. argparse使用方法简单总结
4. numpy使用方法积累
5. 定点数与浮点数
6. python __all__含义
0. pytorch使用方法积累(net.parameters()查看网络参数和torch.optim.lr_scheduler.MultiStepLR)
1. pytorch权重初始化
2. Pytorch中多GPU训练指北
3. 为什么设置cudnn.benchmark = True?
4. pickle.dump和pickle.load
5. pytorch中的torch.manual_seed()
6.神经网络实现的基本步骤
7. 定义torch.autograd.Function的子类,自己定义某些操作,且定义反向求导函数
8. torch.autograd.Function 学习理解