E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
07.网络学习
神经
网络学习
笔记1
*打工人的第三周学习目标和渠道*#神经网络算法的学习看斯坦福计算机视觉课程,看完相关笔记并完成作业看吴恩达的机器学习(还没开始看)某博主总结:https://yoyoyohamapi.gitbooks.io/mit-ml/content/看andrejkapathy的博客和文章注1:课程和博客看起来的会有些晦涩难懂,建议辅助看些入门资料,如下:(1)什么是神经网络?https://blog.csd
vitalgirl
·
2022-12-03 13:58
神经网络
python
VGG
网络学习
笔记。
VGG
网络学习
看b站霹雳吧啦Wz的视频总结的学习笔记!
刚学编程的小白( •̥́ ˍ •̀ू )
·
2022-12-03 13:55
python深度学习
网络
学习
深度学习
一位深度学习小萌新的学渣笔记(一)神经网络原理理解+pytorch框架理解
软工大一学生,9月升大二,在暑假期间申报项目,7月份开始学习,学习的项目关于到神经网络和注意力机制自学python首先通过廖雪峰老师的网站自学了python简单了解神经
网络学习
所需知识配置开发环境Anaconda3python3.7&
IntMain45
·
2022-12-03 13:52
深度学习
数据库
pycharm
python
神经网络
线性代数
【机器学习】
07.
决策树模型DecisionTreeClassifier(代码注释,思路推导)
目录资源下载实现思路与核心函数解读DecisionTreeClassifier分类决策树tree.plot_tree决策树可视化1.对决策树最大深度的研究与可视化绘图结果分析2.对特征选择标准的研究与可视化绘图结果分析3.对决策树其他参数的研究与可视化绘图结果分析总结『机器学习』分享机器学习课程学习笔记,逐步讲述从简单的线性回归、逻辑回归到▪决策树算法▪朴素贝叶斯算法▪支持向量机算法▪随机森林算法
发现你走远了
·
2022-12-03 10:50
python
#
机器学习
机器学习
决策树
python
d2l卷积神经
网络学习
笔记(1)
1.由于输入数据为图像,1024*1024*3水平的特征数量难以处理,通过引入卷积核进行对输入图像像素的批量卷积(或者按照d2l的说法,互相关运算,我觉得这个描述更能体现卷积核在其感受野内对图像小范围整体学习的特性)进行整体层面的特征学习。2.通过调节卷积核,可以方便的降低特征数量。单通道stride为1且不考虑填充情况下,对a*b尺寸的图像通过一个c*d尺寸的卷积核,能够将a*b像素代表的信息压
Tsparkle
·
2022-12-03 05:36
学习之路
cnn
学习
深度学习
自编码器的理解与应用
是一种无监督学习,基于反向传播算法和最优化方法,利用数据x本身作为监督来指导神经
网络学习
一个映射关系h,得到一个重构输出y。这个y近似等于x。自编码器可以理解为试图让输出和输入一样的神经网络。
dlut0427
·
2022-12-03 04:17
python
机器学习
数据挖掘
LSTM的梯度、学习率、前项传播等
由于梯度的反方向是函数下降最快的方向,为了控制参数调整的速度,算法使用梯度乘以一个步长来当作参数的修正量,这个步长又叫做学习率,即梯度*学习率作为参数的修正量学习率作为控制
网络学习
速度的超参数,设置过小则模型的收敛速度就会变得很慢
若初雪舞
·
2022-12-02 15:23
神经网络
深度学习
python神经网络编程 代码,python神经网络编程 豆瓣
如何用9行Python代码编写一个简易神经
网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
普通网友
·
2022-12-02 15:34
python
神经网络
机器学习
1运行GCN和DeepWalk
百度飞浆PGL图神经
网络学习
心得-1目录PaddlepaddlePGL本地运行出现的问题第一课:图学习初印象习题1.环境搭建2.下载PGL代码库3.运行示例3.1GCN3.2DeepWalk4PGL相关信息
不是助词
·
2022-12-02 14:20
paddle深度学习训练营杂记
python
神经网络
深度学习
图神经
网络学习
笔记(2)——图滤波器
本文参考书目为《深入浅出图神经网络:GNN原理解析》图滤波器参考之前的学习笔记图神经
网络学习
笔记(1)——图信号与图傅里叶变换,图信号定义在图的节点上,图信号处理不仅需要考虑图的信号强度,也需要考虑图的拓扑结构
王志晗
·
2022-12-02 14:50
笔记
神经网络
深度学习
卷积
贝叶斯
网络学习
心得
Bayes'Net的定义:由于每个结点的概率都只与父结点相关,因此在贝叶斯网络中,想要边缘化某个变量,首先相乘求其联合分布,再进行投影降维。
AlgernonFe
·
2022-12-02 13:07
杂七杂八学习笔记
概率论
算法
人工智能
残差网络性能机制 ResNet、DenseNet及网络结构应用
深度学习在过去的神经
网络学习
中,理论上层数越高的网络准确率越高,层数越高的网络其实在当时并没有提升准确率,单纯的堆层并不能提升网络的表现,有时甚至网络的层数越多,准确率越低,而深度残差网络机制ResNet
daguantou
·
2022-12-02 13:18
python
神经网络
生成对抗网络
图像处理
深度学习
《数据挖掘与大数据分析》课堂学习笔记-9 第四章 分类器--初识支持向量机 人工神经网络
对偶问题的求解8.线性不可分9.核函数3.人工神经网络3.1神经网络的历史3.2人工智能三大流派3.3神经网络基本概念神经元模型激活函数3.4神经网络结构隐藏层各个参数输出层各个参数来看看怎么估计3.5
网络学习
使用代价函数来学习
敲代码的小提琴手
·
2022-12-02 02:28
课堂笔记-数据挖掘与大数据分析
支持向量机
神经网络
ROS中的消息通信机制
而发布视频的作者首先要在网络上创建账户,通过网络发布视频,也可以通过
网络学习
其他人的视频,我们通过他的账户,可以告诉他我们接下来想学习的视频并期望他能够接下来发出这类的视频。
岁暮&C
·
2022-12-01 15:32
神经
网络学习
小记录67——Pytorch版 Vision Transformer(VIT)模型的复现详解
神经
网络学习
小记录67——Pytorch版VisionTransformer(VIT)模型的复现详解学习前言什么是VisionTransformer(VIT)代码下载VisionTransforme的实现思路一
Bubbliiiing
·
2022-12-01 13:49
神经网络学习小记录
pytorch
transformer
神经网络
吴恩达机器学习笔记 —— 9 神经
网络学习
http://www.cnblogs.com/xing901022/p/9344621.html本章讲述了神经网络的起源与神经元模型,并且描述了前馈型神经网络的构造。更多内容参考机器学习&深度学习在传统的线性回归或者逻辑回归中,如果特征很多,想要手动组合很多有效的特征是不现实的;而且处理这么大的特征数据量,计算上也很复杂。神经网络最开始起源于生物信息中的大脑,在上世纪80-90年代的时候很火,后来
喜欢打酱油的老鸟
·
2022-12-01 13:17
人工智能
吴恩达
机器学习
神经网络学习
吴恩达机器学习——神经
网络学习
笔记
术语神经网络NeuralNetworks输入层inputlayer隐藏层hiddenlayer输出层ourputlayera(j)i第j层第i个激活项(具体的一个神经元输入或输出的值)θ(j)权重矩阵(控制从第j层到第j+1层映射)例子
左Ying
·
2022-12-01 13:12
机器学习
Make GNN Great Again:图神经网络上的预训练和自监督学习
通过设计基于GNN的模型,我们可以对结构化的数据(如社交网络图、分子图等)与对应的标签(点级别、边级别、图级别)进行有监督的端到端训练,使神经
网络学习
结构化数据与标签的联系。
数据派THU
·
2022-12-01 12:50
大数据
编程语言
机器学习
人工智能
深度学习
经典卷积神经
网络学习
笔记
第四章、卷积神经网络4.1卷积神经网络(上)为什么使用卷积神经网络一般的深度全连接神经网络,在较高分辨率的图像情况下,特征向量维度很大,导致每一个全连接层计算的权值数量是非常多的,如果数据不够,很容易训练出过拟合的情况,即使有庞大数据做支撑,那也会对硬件和内存造成很大的负担。而卷积神经网络就会改善这一问题。卷积层操作重要操作:卷积操作:利用卷积核/过滤器将原图像矩阵卷积为新的卷积矩阵padding
introversi0n
·
2022-12-01 09:52
30天入门人工智能
cnn
学习
深度学习
《机器学习》 第5章 神经网络总结
在机器学习中谈论神经网络时指的时"神经
网络学习
",或者说,是机器学习与神经网络这两个学科领域的交叉部分。详细内容请见人工神经网络维基百科
woxinpengpai
·
2022-11-30 20:45
机器学习
#今日论文推荐# 300+篇文献,一文详解基于Transformer的多模态学习最新进展
#今日论文推荐#300+篇文献,一文详解基于Transformer的多模态学习最新进展Transformer是一种很有前途的神经
网络学习
器,在各种机器学习任务中取得了巨大的成功。
wwwsxn
·
2022-11-30 19:48
深度学习
深度学习
机器学习
人工智能
Transformer:网络架构
传统one-hot编码标签的
网络学习
过程中,鼓励模型预测为目标类别的概率趋近1,非目标类别的概率趋
不存在的c
·
2022-11-30 19:10
transformer
深度学习
人工智能
(数据科学学习手札34)多层感知机原理详解&Python与R实现
而我们在机器学习中广泛提及的神经
网络学习
就是机器学习与神经网络的交叉部分,本篇就将介绍基本的神经元模型、感知机模型的知识以及更进一步的多层感知机的具体应用(注意,本篇介
weixin_30735745
·
2022-11-30 13:54
人工智能
ui
数据结构与算法
Python深度学习(10):VAE生成手写数字
VAE是向自编码器中添加了一些统计信息,迫使
网络学习
连续的、高度结构化的潜在空间。具体:(1)将输入图像转换为潜在空间的z_mean和z_log_variance两个参数。
Brielleqqqqqqjie
·
2022-11-30 13:36
Python深度学习
卷积神经
网络学习
笔记与经典卷积模型复现
卷积神经网络一.全连接神经网络的局限性二.卷积神经网络背景1962年Hubel和Wiesel通过对猫视觉皮层细胞的研究,提出了感受野(receptivefield)的概念。视觉皮层的神经元就是局部接受信息的,只受某些特定区域刺激的响应,而不是对全局图像进行感知。1984年日本学者Fukushima基于感受野概念提出神经认知机(neocognitron)。CNN可看作是神经认知机的推广形式。三.卷积
littlecar666
·
2022-11-30 13:33
深度学习之卷积神经网络
深度学习
神经网络
机器学习
tensorflow
逆势而上的技术:图神经
网络学习
来了!
要问这几年一直在逆势而上的技术有哪些?你一定不会忽略它——图神经网络。相比传统神经网络,图神经网络的优势非常明显:1、非顺序排序的特征学习:GNN的输出不以节点的输入顺序为转移的。2、两个节点之间依赖关系的学习:传统的神经网络中,这种依赖关系只能通过节点的特征来体现。3、推理能力:GNN能够从非结构化数据(例如:场景图片、故事片段等)中生成推理图。因此,图神经网络在生物学、地图、金融、搜索、推荐、
PaperWeekly
·
2022-11-30 11:12
神经网络
百度
人工智能
编程语言
大数据
Pytorch搭建神经网络结构实现数据和图片的分类和回归任务(网络搭建部分)
举个例子,当网络知道很多狗的种类和样子,那么
网络学习
到狗的特征之后,会将这些特征当做知识。然后再遇到狗的图片的
一名不想学习的学渣
·
2022-11-30 10:23
神经网络入门
pytorch
深度学习
神经网络
算法
python
深度学习 训练集与验证集损失分析
网络正在学习(理想状态)训练集损失下降,验证集损失不变——>网络过拟合(尝试drpout,L2正则化等手段)训练集损失不变,验证集损失下降——>数据集有问题(检测数据集)训练集损失不变,验证集损失不变——>
网络学习
遇到瓶颈
一名CV界的小学生
·
2022-11-30 07:08
深度学习
深度学习
神经网络
开闭原则详细介绍
目录介绍00.问题思考分析01.前沿简单介绍02.如何理解开闭原则03.举一个原始的例子04.修改后的代码05.修改代码违背原则么06.如何做到开闭原则
07.
如何运用开闭原则08.总结一下内容00.问题思考分析
·
2022-11-30 06:43
android
DataWhale-西瓜书+南瓜书-第5章神经
网络学习
总结-Task04-202110
5.1神经元模型激活函数:5.2感知机与多层网络感知机由两层神经元组成。感知机只拥有一层功能神经元,其学习能力非常有限。要解决非线性可分问题,需要多层神经网络。5.3误差逆传播算法bp网络是指使用Bp算法训练的多层前馈神经网络。5.4全局最小与局部最小5.6深度学习
JZT2015
·
2022-11-30 02:16
神经网络
人工智能
深度学习
神经
网络学习
4【误差传递与权重更新】
1.误差反馈1.1误差反馈校正权重矩阵可以理解,输出和误差都是多个节点共同作用的结果,那么该如何更新链接权重?思考一下,得到误差后,该怎么分配?平均分的话是否会有失公平?毕竟我们在之前的学习中了解到,前一层每个节点的贡献都是不一样的。考虑极端情况,当某权重为0时,它对下一个节点的贡献为0;这时如果误差仍然平均分配显然是不那么合适的。但我们很容易想到这个标准:较大链接权重的连接分配更多的误差。将同样
照妖镜!
·
2022-11-29 21:40
神经网络
python
【头歌】神经
网络学习
之前馈神经网络
第1关:单层感知器网络importnumpyasnpclassPerception(object):def__init__(self,lr=0.1,epochs=1000):"""初始化:paramlr:学习:paramn_iter:"""self.lr=lrself.epochs=epochsdeffit(self,X,y):"""训练:paramX:训练数据的输入:paramy:真实期望"""
MQiyirs
·
2022-11-29 21:40
头歌
神经网络
学习
python
PyTorch学习笔记——PyTorch模块和基础实战
——CUDA并行计算的方法2.3并行计算——扩展二、Pytorch模块和基础实践2.1神经
网络学习
机制2.2深度学习在实现上的特殊性2.3PyTorch深度学习模块2.3.1基本配置2.3.2数据读入2.3.3
但愿此生,从未邂逅
·
2022-11-29 16:51
笔记
人工智能
pytorch
学习
深度学习
卷积神经
网络学习
:使用pytorch反向传播
1.pytorch自动求导机制在Pytorch中,Tensor是其最重要的数据类型。每个Tensor都有一个requires_grad参数,代表这个Tensor是否会被跟踪自动微分。这里我们先介绍一个简单的前向计算的例子:importtorch#requires_grad代表此Tensor会被跟踪自动微分x=torch.tensor([[1,2],[3,4]],dtype=torch.double
Abel_____
·
2022-11-29 14:11
pytorch
深度学习
神经网络
卷积神经
网络学习
:CNN
CNN十分擅长图像处理工作。你可能会问,为什么我们之前学过的全连接神经网络不能用来处理图像呢?答案是:可以,但没必要。在图片处理工作中,我们把组成图片的每个像素点的信息当做输入层(inputlayer),对于黑白像素,可以用0和1来表示,对于彩色像素,可以用RGB值来表示。对于全连接神经网络,我们要将所有的像素点都输入神经网络,然后构建一个庞大的神经网络模型。如上图所示,第一层的神经元可能只能识别
Abel_____
·
2022-11-29 14:11
神经网络
cnn
深度学习
使用KNN根据深度自编码器降维特征识别MNIST数据集手写体数字(pytorch+scikit learn)
目标:实现无监督的数据降维,并根据降维信息实现KNN分类内容:1.自编码器降维自编码器是为使神经
网络学习
数据原始特征,将高维数据特征用低维数据特征表示,是一种无监督的表征学习方法。
上进的小菜鸟
·
2022-11-29 09:36
深度学习
机器学习
pytorch
Autoencoder自编码器
KNN(K近邻)
降维
分类
pytorch
Knowledge Distillation with Conditional Adversarial Networks论文初读
目录摘要引言相关工作网络加速知识蒸馏GAN知识蒸馏的损失函数残差结构知识蒸馏用对抗
网络学习
知识实验实验设置GAN学习的优势GAN方法的分析分布可视化结论摘要提出了使用CAN(conditionaladversarialnetworks
待墨痕干
·
2022-11-29 08:17
知识蒸馏
Training Shallow and Thin Networks for Acceleration via Knowledge Distillation with Conditional Adve
Abstract二、相关介绍三、算法步骤3.1带有残余连接的神经网络3.2Knowledgedistillation3.3对抗网络的学习损失studentupdate总结一.Abstract1.提出使用条件对抗
网络学习
损失函数
l-mmf
·
2022-11-29 08:14
知识蒸馏论文阅读
python
人工智能
【头歌】神经
网络学习
之机器学习基础
第1关:机器学习类型1、下列说法错误的的是A、监督学习不需要一定量级的数据作为训练数据。B、监督学习可以根据输出类型分为回归和分类两种类型。C、强化学习不需要训练数据。D、非监督学习的结果具有不确定性。【答案】AC2、下列关于回归和分类问题的说法错误的是:A、回归问题的输出y为离散的类别标记或者数值。B、分类问题的主要手段为概率计算。C、支持向量机解决的是回归问题。D、回归问题以距离计算为主。【答
MQiyirs
·
2022-11-29 07:24
头歌
神经网络
学习
深度学习之路(3)神经网络结构和参数优化
博文提要前面讲了神经
网络学习
过程的重要环节——梯度下降法,重点讲了该方法用的反向传播原理,它大大减小了梯度求算的时间复杂度。我们在了解机器学习算
NO_1967
·
2022-11-29 05:12
深度学习之路
YOLOv3
网络学习
笔记
YOLOv3
网络学习
笔记v3是anchorbased算法,预先在图片上生成很多先验框,然后通过神经网络去判断放的框内有没有我们想要的特征物体,如果有,就用神经网络对先验框的中心和长和宽进行调整,最终输出物体的长和宽
~柠檬味~
·
2022-11-28 22:58
计算机视觉
笔记
神经网络
人工智能
深度学习
神经网络
计算机视觉
学习
《西瓜书》-5.神经网络
5.神经网络5.1.神经元模型在机器学习中,神经网络一般指的是“神经
网络学习
”,是机器学习与神经网络两个学科的交叉部分。
ruoqi23
·
2022-11-28 14:26
笔记
机器学习
神经网络
人工智能
神经
网络学习
笔记7——目标检测,语义分割和实例分割中的FCN
系列文章目录RCNN系列参考视频FCN参考视频文章目录系列文章目录目标检测(ObjectDetection)语义分割(Semanticsegmentation)实例分割(Instancedivision)RCNN系列算法前言一、开山之作:RCNN1、候选区域生成2、CNN特征提取3、SVM分类器4、位置精修5、总体二、端到端:FastRCNN1、候选区域与特征提取2、RoI全连接、分类器与边界框回
RanceGru
·
2022-11-28 09:28
深度学习
目标检测
神经网络
计算机视觉
图像处理
深度学习导论(1)深度学习概述
人工智能、机器学习、神经网络、深度学习的相互关系浅层神经
网络学习
发展神经元模型深度学习的发展过程为什么从2012年至今深度学习那么火?
炎武丶航
·
2022-11-28 07:48
深度学习
深度学习
pytorch
机器学习
神经网络
基于keras采用LSTM实现多标签文本分类(一)
在采用神经
网络学习
时,最后一层的激活函数应采用sigmoid激活函数,相当于对这条语句做了多个二分类。
。。。。。。400
·
2022-11-27 22:36
keras
lstm
分类
速通8-DNN神经
网络学习
笔记
一个模型先看效果再了解原理。不懂原理也可以得到效果。深度学习原理不是非常清楚,解释性不够强,但是效果比较好。1980高峰,起始1995年,SVM/GBDT,深度学习进入低谷2014-2015,爆发。数据量暴增,计算机性能更好。二分类LR,大部分线性不可分,处理方式:多项式来搞增加维度SVM核方法非线性变换线性变换(例如向量乘以一个矩阵),在空间中表现出来是对一个点进行平移。无法解决线性不可分问题。
神洛华
·
2022-11-27 10:24
人工智能读书笔记
神经网络
dnn
AlexNet
网络学习
及仿真
AlexNet
网络学习
及仿真文章目录AlexNet
网络学习
及仿真前言AlexNet相关知识1前言(Introduction)2数据集(TheDataset)3网络架构(TheArchitecture)3.1ReLU
madao10086+
·
2022-11-27 09:51
深度学习
python
深度学习
alexnet模型
【图神经
网络学习
笔记系列】01-Graph Attention Networks 学习笔记
GraphAttentionNetworks学习笔记这是一个excitingfield前提引入:1.图神经网络GNN介绍:https://www.bilibili.com/video/BV1Tf4y1i7Go8分钟小视频形态:就是《数据结构》、《离散数学》等所说的那个“图”的概念:节点、邻居、关系(有向、无向)、度、出度、入度然后,我们把邻接矩阵A,度矩阵D,特征矩阵X再有个印象就OK了。操作-1
Zach_菠萝侠
·
2022-11-27 08:23
图神经网络学习笔记
深度学习
人工智能
U-Net实战 -- 隧道裂缝的识别
U-Net
网络学习
算法,识别墙面裂缝准备工作:Win10GitminicondaPytorch步骤1.下载裂缝数据集Github原地址下载2.转换mat为jpg#!
z15d23
·
2022-11-27 02:03
教程
裂缝检测
深度学习
图像识别
网络
【学习笔记】TensorFlow2.0搭建神经
网络学习
笔记
1常用函数(1)tf.Variable()标记训练网络中的参数,如W,将变量标记为”可训练“,神经网络训练中,常用该函数标记待训练参数w=tf.Variable(tf.random.normal([2,2],mean=0,stddev=1))#标记w为待训练参数,初始化生成两行两列的正态分布的随机数,均值为0,标准差为1(2)tf.matmul,矩阵乘(3)tf.data.Dataset.from
徐呵呵297
·
2022-11-27 00:42
方法总结
tensorflow
学习
神经网络
上一页
41
42
43
44
45
46
47
48
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他