安静到无声文件浏览器

目录

  • Leetcode刷题
  • FPGA
    • 基于Verilog的CNN实现
    • Verilog刷题
  • CSDN操作
  • tensorflow 学习
  • matlab数字图像处理
  • python-opencv
  • 模式识别与机器学习实战练习
  • 图像描述
    • 水下图像标注
  • 深度学习
  • 强化学习
  • 模型的压缩与加速
    • 1. 理论分析
    • 2. 练习实现
    • 3. 剪枝阅读
    • 4. 模型设计阅读
    • 5. 量化阅读
    • 6. 硬件加速
  • 网络结构搜索
    • 1. 理论分析
    • 2.论文阅读
  • 实验
  • 软件使用与程序语法
  • pytorch使用积累

Leetcode刷题

Leetcode题目

FPGA

FPGA快速入门
半加器,全加器,串行加法和超前加法器
跨时钟域问题(一)(建立时间保持时间和亚稳态)
跨时钟域问题(二)(单bit信号跨时钟域 1. 电平同步器 2. 边沿同步器 3. 脉冲检测器)
跨时钟域问题(三)异步FIFO的Verilog实现(格雷码)
LAB01 VGA图像显示
FPGA-HDMI-彩条显示实验(ZYBO Z7)
FPGA-HDMI-静态图片显示实验(ZYBO Z7)
FPGA-HDMI-图片Sobel滤波显示实验(ZYBO Z7)

基于Verilog的CNN实现

Vivado简单双端口RAM 使用,问题探析
基于verilog的CNN搭建缓存图片数据浅析
基于Verilog搭建一个卷积运算单元的简单实现

Verilog刷题

HDLBits(1)——Modules:Hierarchy
HDLBits(2)——Procedures
verilog边学边练习(1)反相器_与非门
verilog_边学边练习(2)二选一_四选一(组合逻辑电路)
verilog_边学边练习(3)补码转换_七段数码管译码(组合逻辑电路)
verilog_边学边练习(4)计数器_四级伪随机码发生器(时序逻辑电路
verilog_边学边练习(5) 秒计数器(时序逻辑电路
verilog_边学边练习(6) 相邻点累加(时序逻辑电路)
同步FIFO设计详解及代码分享(这一篇就足够~)
verilog牛客网刷题代码汇总

CSDN操作

1.CSDN字体格式(字体、颜色、大小)、背景色设置
2.符号大小

tensorflow 学习

创建keras环境步骤
tensorflow2.0 深度学习基础和tf.keras
tensorflow2.0 卷积神经网络的实现实例(卫星与湖)
tensorflow2.0 tf.keras序列问题
tensorflow2.0 实例猫狗识别(1)
tensorflow2.0 eager模式与自定义训练网络
tensorflow2.0 tf.keras猫狗识别(2)—自定义训练
tebsorflow2.0 使用Keras编写自定义图层和模型
tebsorflow2.0 多输出模型实例
tebsorflow2.0 图像定位+分类(Oxford-IIIT数据集)
tebsorflow2.0 图像语义分割(Oxford-IIIT数据集)
tensorflow1.0 计算模型复杂度

matlab数字图像处理

1. Matlab-梯度Roberts算子、拉普拉斯算子、Sobel算子、Prewitt算子对图像进行锐化
2. Matalb-邻域平均法、均值滤波法、中值滤波法对图像进行平滑去噪
3. Matlab-直方图均衡化
4. Matalb-图像均值滤波,中值滤波,梯度锐化(sobel算子)的实现
5. 基于DCT变换的JPEG图像压缩
6. 信息熵介绍及其在图像处理中的应用与实现

python-opencv

python-opencv(1) 图像的基础操作
python-opencv(2) 图像运算
python-opencv(3) 图像类型转换
python-opencv(4) 几何变换
python-opencv(10) 图像金字塔
python-opencv(11) 图像轮廓
python-opencv(12) 直方图
python-opencv(13) 傅里叶变换

模式识别与机器学习实战练习

1. 皮肤检测
2. 基于身高体重的性别分类(朴素贝叶斯,LDA线性分类器,pazen窗方法的概率密度估计)
3. 基于身高体重的性别分类(压缩近邻法)
4. 基于PCA降维的人脸识别
5. 基于PCA–LDA的人脸识别
6. 基于聚类的图片分割
7. 如何用MCMC产生任意的概率分布?Python简单实现

图像描述

1. 图像描述文献阅读(1)Comprehending and Ordering Semantics for Image Captioning
2. 自注意机制(Self-attention)
3. 基于Attention的Seq2Seq

水下图像标注

1-1天 1-2天 1-3天 2-1天 2-2天 2-3天
1 1-1标注 1-2标注 1-3标注 2-1标注 2-2标注 2-3标注
2 3-1标注 3-2标注 3-3标注
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26

深度学习

跟我学万字长文:最前沿的特征可视化(CAM)技术
半小时学会 PyTorch Hook

强化学习

1. 马尔科夫决策过程(MDP)
2. 强化学习(动态规划DP)之策略迭代
3. 基于神经网络方法求解RL
4. 强化学习之Policy Gradient

模型的压缩与加速

1. 理论分析

1. 韩松Deep compression论文讲解——PPT加说明文字
2. 通用矩阵乘(GEMM)优化算法
3. 三大种类矩阵范数:诱导范数,元素范数,Schatten范数,涵盖谱范数,2范数
4. 模型加速与压缩 | 剪枝乱炖
5. 闲话模型压缩之网络剪枝(Network Pruning)篇
6. 剪枝论文分析
7. The Sandwich Rule(三明治规则)
8. 张量分解与应用-学习笔记
9. 闲话模型压缩之量化(Quantization)篇

2. 练习实现

1. 基于Fashion-MNIST数据集的模型剪枝练习

3. 剪枝阅读

0. 相关论文总结
1. ICCV2017—Learning Efficient Convolutional Networks through Network Slimming
2. Learning Structured Sparsity in Deep Neural Networks
3. ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression
4. CVPR2020-HRank:Filter Pruning using High-Rank Feature Map(利用High-rank特征图进行过滤剪枝)
5. Exploring the Regularity of Sparse Structure in Convolutional Neural Networks(在卷积神经网络中探索稀疏结构的规律性)
6. IJCAI2020_Channel Pruning via Automatic Structure Search(通道剪枝通过自动结构搜索)
7. CVPR2020_DMCP: Differentiable Markov Channel Pruning for Neural Networks(DMCP:神经网络的可微马尔科夫通道剪枝)
8. ICML2020_DropNet: Reducing Neural Network Complexity via Iterative Pruning(DropNet:通过迭代修剪降低神经网络复杂度)
9. 2020-ECCV-EagleEye: Fast Sub-net Evaluation for Efficient Neural Network Pruning(EagleEye:高效神经网络剪枝的快速子网评价)
10. ICLR-2019-Rethinking the Value of Network Pruning(重新思考网络修剪的价值)
11. 2020-AAAI-Beyond Network Pruning a Joint Search-and-Training Approach(NAS_联合优化)
12. 2019-NeurIPS-Network Pruning via Transformable Architecture Search
13. 2018-ECCV-AMC: AutoML for Model Compression and Acceleration on Mobile Devices(用于移动设备上模型压缩和加速的AutoML)
14. 2020-腾讯优图-Prunging filter in filter
15. To Filter Prune, or to Layer Prune, That Is The Question——滤波器剪枝,还是层修剪,这就是问题所在?
16. Shallowing Deep Networks: Layer-Wise Pruning Based on Feature Representations—基于特征表示的分层剪枝
17. Global Biased Pruning Considering Layer Contribution
18. MEAL V2: Boosting Vanilla ResNet-50 to 80%+ Top-1 Accuracy on ImageNet without Tricks(无需额外数据、Tricks、架构调整,CMU开源首个将ResNet50精度提升至80%+新方法)
19. Model Pruning Based on Quantified Similarity of Feature Maps基于特征图量化相似度的模型修剪

4. 模型设计阅读

1. Tied Block Convolution: Leaner and Better CNNs with Shared Thinner Filters
2. MobileNeXt: Rethinking Bottleneck Structure for Efficient Mobile Network Design
3. Understanding intermediate layers using linear classifier probes—使用线性分类器探针理解中间层

5. 量化阅读

1. Improving Post Training Neural Quantization: Layer-wise Calibration and Integer Programming
2. Any-Precision Deep Neural Networks
3. One Model for All Quantization: A Quantized Network Supporting Hot-Swap Bit-Width Adjustment
4. DoReFa-Net: Training Low Bitwidth Convolutional Neural Networks with Low Bitwidth Gradients
神经网络量化基础(1)——模型的构建与基础量化函数的实现
神经网络量化基础(2)——量化模型的实现
Any_percision的代码分析(1)


6. 硬件加速

跟Xilinx SAE 学HLS系列视频讲座笔记(1)
跟Xilinx SAE 学HLS系列视频讲座笔记(2)—— 编写高效的C Test Bench
跟Xilinx SAE 学HLS系列视频讲座笔记(3)—— 接口综合
跟Xilinx SAE 学HLS系列视频讲座笔记(4)—— For循环优化
跟Xilinx SAE 学HLS系列视频讲座笔记(5)—— 数组优化
跟Xilinx SAE 学HLS系列视频讲座笔记(6)—— 函数优化
基于HLS的加速器Overlay设计实例 - 快速生成硬件IP
AXI4总线介绍
对卷积的定点化运算理解
基于HLS的池化运算单元设计
写论文要用
学术论坛汇报-基于嵌入式深度学习的种子分选系统设计

FPGA加速器,双缓冲的程序分析

网络结构搜索

1. 理论分析

0. 什么是NAS
1. 神经网络架构搜索(Neural Architecture Search)杂谈
2. 图解高效神经网络结构搜索(ENAS)
3. Gumbel softmax在可微NAS的作用是什么?

2.论文阅读

1. 2019-ICLR-神经网络架构搜索——可微分搜索(DARTS)
2. 2018-ICML-Understanding and Simplifying One-Shot Architecture Search(One-shot)
3. 2018-ECCV-Progressive Neural Architecture Search(代理模型评估)
4. 2018-ILCR-Simple And Efficient Architecture Search For Neural Networks(NSPH,网络态射+爬山法)
5. 2019-ICLR-ProxyLessNAS : Direct Neural Architecture Search On Target Task And Hardware

实验

论文一实验
论文二实验
论文三实验
数据集划分
论文四实验

软件使用与程序语法

1. python中的语法使用(easydict set() plt.subplots() assert)
2. os.path库常用函数的使用
3. argparse使用方法简单总结
4. numpy使用方法积累
5. 定点数与浮点数
6. python __all__含义

pytorch使用积累

0. pytorch使用方法积累(net.parameters()查看网络参数和torch.optim.lr_scheduler.MultiStepLR)
1. pytorch权重初始化
2. Pytorch中多GPU训练指北
3. 为什么设置cudnn.benchmark = True?
4. pickle.dump和pickle.load
5. pytorch中的torch.manual_seed()
6.神经网络实现的基本步骤
7. 定义torch.autograd.Function的子类,自己定义某些操作,且定义反向求导函数
8. torch.autograd.Function 学习理解

你可能感兴趣的:(文章浏览器,1024程序员节)