E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
深度学习笔记
(3)——kernel(内核)与filter(滤波器)
深度学习笔记
(3)——kernel(内核)与filter(滤波器)文章目录
深度学习笔记
(3)——kernel(内核)与filter(滤波器)前言一、kernel内核概念二、filter滤波器概念三、两者关系
江清月近人。
·
2022-11-24 07:41
python
深度学习
深度学习
人工智能
神经网络
深度学习笔记
(4)——维度操作(2)展平、·拼接、拆分
深度学习笔记
(4)——维度操作(2)展平文章目录
深度学习笔记
(4)——维度操作(2)展平前言一、flatten()二、view()总结前言上一篇文章记录了维度操作的增加维度和维度压缩,这篇笔记介绍维度的展平一
江清月近人。
·
2022-11-24 07:41
深度学习
深度学习
人工智能
python
深度学习笔记
(2)——loss.item()
深度学习笔记
(2)——loss.item()文章目录
深度学习笔记
(2)——loss.item()一、前言二、测试实验三、结论四、用途:一、前言在深度学习代码进行训练时,经常用到.item()。
江清月近人。
·
2022-11-24 07:06
深度学习
深度学习
人工智能
python
小小白
深度学习笔记
(八):机器学习基础
因为刚从机器学习转向深度学习研究,想借助keras之父——弗朗索瓦的书重新梳理下机器学习基本知识及需要注意的事项,通篇文章大部分内容及配图截取自书中第四章内容,自己也对书中代码进行亲自测试,做了一些自己的结构模型图。读完受益匪浅,获益良多。在此整理一番,希望更多地初学者能有所收获,如有侵权,请联系本人。1.机器学习的四个分支相信很多读者已经很熟悉了主要的机器学习问题:二分类问题,多分类问题和标量回
穿牛仔的Runner
·
2022-11-24 06:13
机器学习
深度学习
【吴恩达
深度学习笔记
】1.3 浅层神经网络Shallow neural networks
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)3.1神经网络概述(NeuralNetworkOverview)感觉这块没啥好记的3.2神经网络的表示(NeuralNetworkRepresentation)神经网络包括输入层(inputlayer):包含输入特征x1,x2,...x_1,x_2,...x1,x2,...隐藏层(hiddenlayer):训练
贪钱算法还我头发
·
2022-11-24 05:08
AI
#
Deep
Learning
深度学习
深度学习笔记
—— 样式迁移
直观地理解就是滤镜目的是训练这样一张图片X,使得该图片放进和内容图片同样一个CNN的时候在某一层的输出能够匹配上内容;同理,X和样式图片进入同一个CNN,某些层的输出在样式上能够匹配。如果能够同时满足这两个条件,那么X既保留了内容,也保留了样式。importtorchimporttorchvisionfromtorchimportnnfromd2limporttorchasd2limportmat
Whisper_yl
·
2022-11-24 04:39
#
深度学习
深度学习
(八)
深度学习笔记
|误差反向传播算法
一、前言反向传播算法(backpropagation,简称BP模型)是1986年由Rumelhart和McClelland为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,是目前应用最广泛的神经网络。误差反向传播算法系统解决了多层神经网络隐含层连接权学习问题,人们把采用这种算法进行误差校正的多层前馈网络称为BP网。BP神经网络具有任意复杂的模式分类能力和优良的多维函数映射能
Viviana-0
·
2022-11-24 02:56
深度学习
神经网络
算法
机器学习
深度学习
动手
深度学习笔记
(二十)4.6. 暂退法(Dropout)
动手
深度学习笔记
(二十)4.6.暂退法(Dropout)4.多层感知机4.6.暂退法(Dropout)4.6.1.重新审视过拟合4.6.2.扰动的稳健性4.6.3.实践中的暂退法4.6.4.从零开始实现
落花逐流水
·
2022-11-24 02:11
pytorch实践
pytorch
pytorch
吴恩达
深度学习笔记
——DAY4
目录一、神经网络的梯度下降二、随机初始化三、深层神经网络四、矩阵的维数五、参数VS超参数一、神经网络的梯度下降正向传播的方程:反向传播方程:二、随机初始化如果你要初始化成0,由于所有的隐含单元都是对称的,无论你运行梯度下降多久,他们一直计算同样的函数。这没有任何帮助,因为你想要两个不同的隐含单元计算不同的函数,这个问题的解决方法就是随机初始化参数。初始化如下:这里的0.01是为了使得产生的随机数数
qq_45948088
·
2022-11-24 00:18
深度学习
神经网络
cnn
吴恩达
深度学习笔记
——DAY2
目录一、梯度下降法二、向量化(Vectorization)三、Python中的广播(BroadcastinginPython)一、梯度下降法梯度下降法在测试集上,通过最小化代价函数(成本函数〉J(w,b)来训练的参数w和b,找到全局最优解,也就是代价函数(成本函数)J(w,b)这个凸函数的最小值点,这个函数含有两个参数w和b。二、向量化(Vectorization)向量化是非常基础的去除代码中fo
qq_45948088
·
2022-11-24 00:47
深度学习
人工智能
神经网络
Python
深度学习笔记
06——tensorflow实现神经网络(叁)
目录前言一、卷积神经网络1、卷积神经网络的结构:(1)卷积层过滤器:(相当于观察窗口,里面有权重,移动来观察)(2)激活函数:f(x)=max(0,x)(3)池化层(Pooling)计算(4)卷积网络API介绍:二、案例实现总结前言关于python深度学习(tensorflow1.x版本)学习笔记06——神经网络(叁),本文通过学习视频《python深度学习》整理学习笔记。视频学习地址:https
是故里吖
·
2022-11-23 21:24
Python
HALCON 20.11:
深度学习笔记
(10)---分类
HALCON20.11:
深度学习笔记
(10)---分类HALCON20.11.0.0中,实现了深度学习方法。本章解释了如何在训练和推理阶段使用基于深度学习的分类。
机器视觉001
·
2022-11-23 19:44
深度学习
HALCON
人工智能
深度学习
HALCON
HALCON 21.11:
深度学习笔记
---对象检测, 实例分割(11)
HALCON21.11:
深度学习笔记
---对象检测,实例分割(11)HALCON21.11.0.0中,实现了深度学习方法。本章介绍了如何使用基于深度学习的对象检测。
机器视觉001
·
2022-11-23 19:44
HALCON
Halcon
21
AI
深度学习笔记
(学习中)
embedding嵌入(embedding)层的理解将升维降维比喻成靠近或者远离一幅画,深度学习的过程就是不断前进后退直到找到一个合适的最能看清画的距离embedding层将我们的稀疏矩阵,通过一些线性变换,变成了一个密集矩阵,这个密集矩阵用了N个特征来表征所有的文字,在这个密集矩阵中,表象上代表着密集矩阵跟单个字的一一对应关系,实际上还蕴含了大量的字与字之间,词与词之间甚至句子与句子之间的内在关
努力敲代码的小方
·
2022-11-23 17:03
深度学习
人工智能
机器学习
【目标检测_1】rcnn/fast_rcnn/faster_rcnn/mask_rcnn (目标检测与目标实例分割 论文理解)
@TOC原文链接mask_rcnnpaper原文链接r_cnn原文链接fast_rcnn原文链接FPNopencv4.0代码-mask_rcnn
深度学习笔记
1R_CNN说明RossGirshick2014
Rebecca(swust)
·
2022-11-23 17:17
深度学习
机器学习
目标识别
目标检测
实例分割
深度学习笔记
(二)—— 梯度下降[Gradient Descent]
这是
深度学习笔记
第二篇,完整的笔记目录可以点击这里查看。
zeeq_
·
2022-11-23 13:10
CS231n课程笔记
神经网络
机器学习
深度学习
人工智能
python
深度学习笔记
根据B站李沐大神动手深度学习课程记录初学者多有不足,欢迎大佬指正文章目录案例广告点击1.数据操作2.数据操作实现3.数据预处理基本思想4.线性代数5.降维5.矩阵求导6.自动求导7.线性回归基础优化算法8.softmax回归1.预测与分类2.分类标签的表示3.softmax网络架构4.softmax运算5.小批量样本的矢量化6.似然估计7.损失函数的导数9.多层感知机MLP多层感知机使用隐藏层和激
水云青岚
·
2022-11-23 12:43
深度学习笔记
深度学习
人工智能
深度学习笔记
——深度学习技巧
1、模型在训练数据上表现不好,why?(1)过拟合(2)激活函数(3)学习率2、梯度消失?盲目增加网络层数很容易导致发生梯度消失现象,尤其是使用sigmoid作为激活函数的时候。sigmoid函数的特点使得权重很大的改变对输出产生很小的影响,当层数很多时这种影响甚至可以忽略不计。在权重更新环节,靠近输出端的权重梯度较大,靠近输入端的权重梯度很小,这使得后端权重更新的很快、很快就收敛,而前端却更新的
千君一发
·
2022-11-23 12:13
深度学习
深度学习
深度学习笔记
4——RNN、LSTM
RNNRNN与BP的区别传统的神经网络没有设计记忆结构,难以处理序列数据,循环神经网络(RNN)针对BP神经网络的缺点,增加了信息跨时代传递的结构。当我们处理与事件发生的时间轴有关系的问题时,比如自然语言处理,文本处理,文字的上下文是有一定的关联性的;时间序列数据,如连续几天的天气状况,当日的天气情况与过去的几天有某些联系;又比如语音识别,机器翻译等RNN的历史信息传递方式对于RNN,每个时刻的隐
卖strawberry的小女孩
·
2022-11-23 12:41
深度学习
rnn
lstm
深度学习
深度学习笔记
---什么是空洞卷积
1,标准卷积使用卷积核大小为3*3、填充为1,步长为2的卷积操作对输入为5*5的特征图进行卷积生成3*3的特征图,如图1所示。图1普通卷积2.空洞卷积使用卷积核大小为3*3、空洞率(dilatedrate)为2、卷积步长为1的空洞卷积操作对输入为7*7的特征图进行卷积生成3*3的特征图,如图2所示。图2空洞卷积标准的卷积操作中,卷积核的元素之间都是相邻的。但是,在空洞卷积中,卷积核的元素是间隔的,
YOULANSHENGMENG
·
2022-11-23 12:41
深度学习基础知识
深度学习
神经网络
计算机视觉
深度学习笔记
—— 语义分割和数据集
语义分割只关心像素属于哪个类,实例分割关心像素属于哪个类的哪个实例(可以认为是目标检测的进化版本)。importosimporttorchimporttorchvisionfromd2limporttorchasd2limportmatplotlib.pyplotaspltd2l.DATA_HUB['voc2012']=(d2l.DATA_URL+'VOCtrainval_11-May-2012.
Whisper_yl
·
2022-11-23 12:09
#
深度学习
深度学习
Torch实现线性回归
深度学习笔记
(二)用Torch实现线性回归转自:http://www.aichengxu.com/view/2464032代码地址:https://github.com/vic-w/torch-practice
ccccccod
·
2022-11-23 11:42
Deeplearning
机器学习
PyTorch
深度学习笔记
(十五)损失函数与反向传播
课程学习笔记,课程链接importtorchfromtorchimportnnfromtorch.nnimportL1Loss,MSELossinputs=torch.tensor([1,2,3],dtype=torch.float32)targets=torch.tensor([1,2,5],dtype=torch.float32)inputs=torch.reshape(inputs,(1
小于同学饿了
·
2022-11-23 08:51
PyTorch
pytorch
深度学习
python
深度学习笔记
(一)深度学习的基本知识
深度学习笔记
(一)深度学习的基本知识人工智能、机器学习、深度学习之间的关系人工智能是机器具有模仿人类的功能。机器学习是人工智能的分支,机器利用统计技术从以前的信息和经验学习。
小菜
·
2022-11-23 06:59
深度学习
机器学习
神经网络
5.1 时序模型——循环神经网络RNN
吴恩达
深度学习笔记
——十三、第五课第一周:时序模型——循环神经网络RNN1时序模型简介1.1时序模型的用处1.2符号定义1.3如何表示一个句子里的词2循环神经网络RNN2.1简介RNN2.2反向传播2.3
lizhaoxinLZX
·
2022-11-23 06:46
吴恩达-深度学习
神经网络
深度学习
人工智能
吴恩达
深度学习笔记
-循环神经网络(RNN) (第13课)
序列模型一、为什么选择序列模型二、数学符号三、循环神经网络四、穿越时间的反向传播五、不同类型的循环神经网络六、语言模型和序列生成七、新序列采样八、RNN神经网络的梯度消失九、GRU单元(门控循环单元)十、长短期记忆(LSTM)十一、双向RNN(BidirectionalBNN,BRNN)十二、深层循环神经网络十三、RNN为什么要使用Clipping?十四、解决梯度消失一、为什么选择序列模型序列模型
快乐活在当下
·
2022-11-23 06:12
吴恩达深度学习
深度学习
人工智能
机器学习
深度学习笔记
-三种深度学习框架;PyTorch、Tensorflow、Caffe
PyTorch研发者:Facebook2017年1月,Facebook人工智能研究院(FAIR)团队在GitHub上开源了PyTorch。其与Torch的不同之处在于PyTorch使用了Python作为开发语言。TensorFlow研发者:Google2015年11月10日,Google宣布推出全新的机器学习开源工具TensorFlow。TensorFlow主要用于进行机器学习和深度神经网络研究,
超爱嵌入式
·
2022-11-23 05:37
深度学习笔记
机器学习
动手学
深度学习笔记
三
Task06错题一.批量归一化和残差网络二.凸优化可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象,这个现象是由于协变量时间发生了变化造成的。三.梯度下降实现深层循环神经网络需要修改的参数是?num_layers3.GRU有重置门和更新门,没有遗忘门。重置门有助于捕捉时间序列里短期的依赖关系,更新门有助于捕捉时间序列⾥长期的依赖关系。参考视频
Little_stepL
·
2022-11-23 02:53
动手学
深度学习笔记
一
Task01错题一.线性回归加法的广播机制:给Xw中的每个元素加上的偏置是一样的.参数的形状与批量大小没有关系,也正是因为如此,对同一个模型,我们可以选择不同的批量大小。2.y_hat的形状是[n,1],而y的形状是[n],两者相减得到的结果的形状是[n,n],相当于用y_hat的每一个元素分别减去y的所有元素,所以无法得到正确的损失值。对于第一个选项,y_hat.view(-1)的形状是[n],
Little_stepL
·
2022-11-23 02:23
深度学习笔记
——matlab程序结构与可视化
顺序结构语句holdon的使用>>clearall;>>a=[1521263238];>>b=[99.5100100.6101.2103.1];>>figure;>>plot(a,b);holdon;plot(a,b,'ro');分支控制语句if与else或elseif连用,偏向于是非选择,当某个逻辑条件满足时执行if后的语句,否则执行else语句。>>clearall;>>nrows=4;>>n
lurleenyl01
·
2022-11-23 02:25
SSD学习笔记
请去我的知乎原文地址:SSD学习笔记开篇之前,贴一个很好的非常全面的SSD笔记:
深度学习笔记
(七)SSD论文阅读笔记www.cnblogs.com还有一个SSD300的pytorch实现:USTClj/
机器AI
·
2022-11-23 01:50
检测
Ng
深度学习笔记
—搭建多层神经网络python实现
搭建多隐层神经网络其实就是在单隐层神经网络的基础上多加了几层隐藏层,此次作业将用python实现L层神经网络的搭建;其中前L-1层使用Relu激活函数,最后一层使用sigmoid激活函数。此次作业分为以下几部分:模型搭建训练模型测试模型用自己的图片做测试实验所需文件:链接:https://pan.baidu.com/s/151BNM_gcKvKVPz14bJmpQg提取码:06mg准备工作导入相关
木头人苏
·
2022-11-22 23:19
机器学习&深度学习
神经网络
python
深度学习
人工智能
深度学习笔记
2之改善神经网络(调参、优化)
目录第二课week1偏差和方差正则化为什么L2正则化可以减少过拟合:Dropout正则化其他正则化手段归一化输入梯度消失与爆炸week2minibatch梯度下降法batchsize的选择优化算法指数加权平均动量梯度下降RMSpropAdam学习率衰减局部最优问题week3调参指导BatchNormalizationsoftmax个人学习记录,侵删第二课week1偏差和方差机器学习关键:数据集,选
菜鸟中的菜中菜
·
2022-11-22 22:46
深度学习
深度学习
神经网络
机器学习
卷积神经网络(Convolutional Neural Networks, CNN)小总结
先列参考资料,这篇文章基本是以下资料相关部分的拼接和概括:邱锡鹏《神经网络与深度学习》卷积层-深度学习入门-卷积神经网络(一)-知乎池化层(Poolinglayers)吴恩达
深度学习笔记
(79)深度卷积神经网络综述
笃谷
·
2022-11-22 21:06
cnn
神经网络
深度学习
卷积神经网络
人工智能
从零点五开始的
深度学习笔记
——VAE(Variational AutoEncoder) (一) 预备知识
VAE-VariationalAutoEncoder学习笔记1.VAE变分自动编码器1.1StackedAutoEncoder回顾1.2VariationalAutoEncoder结构2.预备知识2.1概率2.1.1概率分布2.1.2条件概率2.1.3贝叶斯定理(Baye'stheorem)2.1.4全概率定理(Theoremoftotalprobability)2.2矩阵迹计算技巧2.3KL散度
无始之始
·
2022-11-22 21:26
深度学习
深度学习
变分自编码器
VAE
深度学习笔记
------现阶段的目标检测器结构解析(Neck[FPN,PANet,Bi-FPN],Head[rpn,yolo...])
目录1.概述2.经典Neck的回顾2.1FPN(特征金字塔结构)2.2PANet2.2.1创建了自下而上的路径增强2.2.2AdaptiveFeaturePooling2.3Bi-FPN及FPN的演进ASFF,NAS-FPN,Recursive-FPN)3典型head回顾3.1RPN(RegionProposalNetwor)3.1.1RPN的运作机制3.1.2RPN详解3.2无融合SSD类型的h
YOULANSHENGMENG
·
2022-11-22 19:32
深度学习基础知识
目标检测
深度学习
计算机视觉
(七)
深度学习笔记
|pytorch官方demo(LeNet-5)下
一、前言此前我们对LeNet进行讲解https://blog.csdn.net/weixin_45579930/article/details/112277024并对我们接下来要使用的model.py进行讲解https://blog.csdn.net/weixin_45579930/article/details/112323167下面有需要用到的代码我已经将其放入我的githubhttps://
Viviana-0
·
2022-11-22 18:14
深度学习
python
神经网络
机器学习
人工智能
深度学习
pycharm动手学
深度学习笔记
-01预备知识
笔记参考:B站橘子CSDNpycharm版(简略版笔记)核心的不懂的地方参考沐神的课程主页本地python环境python3.8改成了深度学习专用的文章目录预备知识数据操作和数据预处理线性代数微积分自动求导预备知识数据操作和数据预处理dim啥意思查了一下torch.cat((x,y),dim=0):张量X,Y按照列堆起来torch.cat((x,y),dim=1):张量X,Y按照行并排起来广播机制
东方-教育技术博主
·
2022-11-22 18:07
机器学习之路
深度学习
数据分析
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
(批量归一化)
批量归一化(BatchNormalization)1.引言当神经网络比较深的时候,数据在下边损失函数在上边,在梯度自动求导,forward是数据从下一点点往上走,计算backWard是从上往下计算(这里有个问题,梯度在上边的时候会比较大,越往下边就越容易变小),因为上边的梯度比较大,那么每次上边的梯度都会不断去更新,下边的梯度比较小,所以权重的更新的就比较小,上边的会很快收敛,下边的会很慢。那么就
Jul7_LYY
·
2022-11-22 18:20
深度学习
pytorch
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
(VGG、NIN)
1.vgg引言alexnet比lenet更深更大?能带来更好的精度?能不能更深更大?(1)更多的全连接层【太贵】(2)更多的卷积层(3)讲卷积层组合成块2.vgg(1)vgg16包括3个全连接+13个卷积层(2)CNN感受野计算公式:F(i)=(F(i+1)-1)stride+ksize【概念公式看下方】(3)亮点:通过堆叠三个33卷积核来代替5*5卷积核需要的参数【减少参数】(4)Vgg16网络
Jul7_LYY
·
2022-11-22 18:50
深度学习
pytorch
【机器学习】《动手学深度学习 PyTorch版》李沐
深度学习笔记
(googlenet)
googlenet注意:每个分支所得的特征矩阵高和宽必须相同1.inception块的引入(1)alexnet引入ReLu(缓解梯度消失),隐层全连接层后加入了丢弃层(2)vgg出现卷积层组合成块(通过堆叠三个33卷积核来代替55卷积核需要的参数)(3)nin模型出行1*1卷积,丢弃全连接层(4)googlenet全部结合,inception块,从四个路径从不同层面抽取信息,然后在输出通道维合并(
Jul7_LYY
·
2022-11-22 18:37
深度学习
pytorch
(一)逻辑回归及其代价函数 --- 吴恩达
深度学习笔记
逻辑回归—适用于二分类问题使用逻辑回归算法会得到的输出标签y,y在监督问题中全是0或者1,因此这是一种针对二分类问题的算法。给定的输入特征向量x和一幅图像对应,我们希望识别这是否是一张猫的图片。因此我们想要一种算法能够输出一个预测值,我们称之为y帽(yhaty^\widehat{y}y),这代表对真是标签Y的估计。形式上讲yhat是当给定特定输入特征x时,预测标签y为1的概率。换种说法就是当x是一
奕星星奕
·
2022-11-22 11:07
图像处理
逻辑回归
深度学习
深度学习笔记
--权重文件、模型参数和预训练模型的使用
目录1--打印权重文件参数2--打印模型参数3--使用权重文件参数更新模型的参数4--将模型部分参数固定(不进行梯度下降)5--参考1--打印权重文件参数importtorchweights_files='./test.pt'#权重文件路径weights=torch.load(weights_files)#加载权重文件fork,vinweights.items():#key,valueprint(
憨豆的小泰迪
·
2022-11-22 07:55
深度学习
人工智能
python
动手
深度学习笔记
(九)3.2. 线性回归的从零开始实现
动手
深度学习笔记
(九)3.2.线性回归的从零开始实现3.线性神经网络3.2.线性回归的从零开始实现3.2.1.生成数据集3.2.2.读取数据集3.2.3.初始化模型参数3.2.4.定义模型3.2.5.定义损失函数
落花逐流水
·
2022-11-22 05:42
pytorch实践
pytorch
HALCON 21.11:
深度学习笔记
---分类(10)
HALCON21.11:
深度学习笔记
---分类(10)HALCON21.11.0.0中,实现了深度学习方法。本章介绍了如何在训练和推理阶段使用基于深度学习的分类。
机器视觉001
·
2022-11-22 05:01
HALCON
Halcon
21
AI
HALCON 21.11:
深度学习笔记
---语义分割/边缘提取(12)
HALCON21.11:
深度学习笔记
---语义分割/边缘提取(12)HALCON21.11.0.0中,实现了深度学习方法。本章介绍了如何使用基于深度学习的语义分割,包括训练和推理阶段。
机器视觉001
·
2022-11-22 05:01
HALCON
Halcon
21
AI
HALCON 21.11:
深度学习笔记
---设置超参数(5)
HALCON21.11:
深度学习笔记
---设置超参数(5)HALCON21.11.0.0中,实现了深度学习方法。关于超参数的有关设置内容如下:不同的DL方法是为不同的任务设计的,它们的构建方式也不同。
机器视觉001
·
2022-11-22 05:00
HALCON
Halcon
21
AI
HALCON 21.11:
深度学习笔记
---网络和训练过程(4)
HALCON21.11:
深度学习笔记
---网络和训练过程(4)HALCON21.11.0.0中,实现了深度学习方法。关于网络和训练过程如下:在深度学习中,任务是通过网络发送输入图像来执行的。
机器视觉001
·
2022-11-22 05:30
HALCON
Halcon
21
AI
深度学习笔记
——波士顿房价预测
初次接触深度学习,记录一点思考和想法,请大家多多指正。首先是工具包的导入pycharm这里我用到了numpy科学计算库,json轻量级的数据交换格式包,以及matplotlib绘图工具包importnumpyasnpimportjsonimportmatplotlib.pyplotaspltfrommpl_toolkits.mplot3dimportAxes3D首先我们的目的是用13个有关因素预测
打代码的大白鲨
·
2022-11-22 01:00
深度学习
python
深度学习与卷积神经网络(直观理解)
附上链接:凌风探梅的卷积神经网络(CNN)新手指南http://blog.csdn.net/real_myth/article/details/52273930;
深度学习笔记
整理系列:http://blog.csdn.net
伊伊note
·
2022-11-22 01:55
深度学习
caffe
深度学习
神经网络
cnn
图像分类
滤波器
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他