E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231n深度学习笔记
深度学习笔记
之卷积神经网络(二)图像卷积操作与卷积神经网络
深度学习笔记
之卷积神经网络——图像卷积操作与卷积神经网络引言回顾:图像卷积操作补充:卷积核不是卷积函数卷积神经网络卷积如何实现特征描述/提取卷积神经网络中的卷积核的反向传播过程场景构建与前馈计算卷积层关于卷积核的反向传播过程卷积层关于输入的反向传播过程引言上一节介绍了卷积的基本思想以及图像卷积操作
静静的喝酒
·
2023-07-16 15:49
深度学习
深度学习
卷积神经网络
卷积提取特征思想
卷积神经网络反向传播过程
链式求导法则
深度学习笔记
之稀疏自编码器
深度学习笔记
之稀疏自编码器引言引子:题目描述正确答案:ABCD\mathcalA\mathcalB\mathcalC\mathcalDABCD题目解析介绍:自编码器欠完备自编码器正则自编码器从先验角度解释稀疏自编码器稀疏自编码器的构建引言本节以一道算法八股题为引
静静的喝酒
·
2023-07-16 15:49
深度学习
算法八股查漏补缺
深度学习
笔记
自编码器
稀疏自编码器
特征降维
深度学习笔记
之残差网络(ResNet)
深度学习笔记
之残差网络[ResNet]引言引子:深度神经网络的性能问题核心问题:深层神经网络训练难残差网络的执行过程残差网络结构为什么能够解决核心问题残差网络的其他优秀性质引言本节将介绍残差网络(ResidualNetwork
静静的喝酒
·
2023-07-16 15:19
深度学习
深度学习
神经网络
残差网络
梯度优化问题
Boosting
深度学习笔记
之Transformer(八)Transformer模型架构基本介绍
机器学习笔记之Transformer——Transformer模型架构基本介绍引言回顾:简单理解:Seq2seq\text{Seq2seq}Seq2seq模型架构与自编码器自注意力机制Transformer\text{Transformer}Transformer架构关于架构的简单认识多头注意力机制包含掩码的多头注意力机制基于位置信息的前馈神经网络残差网络与层标准化操作编码器的输出与信息传递关于预
静静的喝酒
·
2023-07-16 14:15
深度学习
深度学习
transformer
多头注意力机制
LayerNorm
【重磅】斯坦福李飞飞最新《注意力与Transformer》总结,84页ppt下载!
【导读】李飞飞老师的
CS231N
课程《卷积神经网络视觉识别》被奉为经典,众多想学习深度卷积神经网络的同学,可不能错过!最近大火的《注意力与Transformer》,该课程也进行了系统的概述总结。
小白学视觉
·
2023-07-16 12:47
神经网络
人工智能
深度学习
js
编程语言
【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!
【导读】李飞飞老师的
CS231N
课程《卷积神经网络视觉识别》被奉为经典,最新2021季3月30号开始了!众多想学习深度卷积神经网络的同学,可不能错过!
风度78
·
2023-07-16 12:47
神经网络
人工智能
python
ai
编程语言
2020-3-5
深度学习笔记
12 - 深度学习应用 4(其他应用-推荐系统 / 知识表示、推理和回答)
第十二章应用中文官网英文原版2020-2-29
深度学习笔记
12-深度学习应用1(大规模深度学习)2020-3-1
深度学习笔记
12-深度学习应用2(计算机视觉,语音识别)2020-3-2
深度学习笔记
12-
没人不认识我
·
2023-07-16 12:31
深度学习
IT
【
深度学习笔记
】浅层神经网络
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是吴恩达AndrewNg教授。感兴趣的网友可以观看网易云课堂的视频进行深入学习,视频的链接如下:https://mooc.study.163.com/course/2001281002也欢迎对神经网络与深度学习感兴趣的网友一起交流~目录1神经网络的结构2激活函数3随机初始
洋洋Young
·
2023-07-15 02:27
【深度学习笔记】
深度学习
笔记
神经网络
【
深度学习笔记
】深层神经网络
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是吴恩达AndrewNg教授。感兴趣的网友可以观看网易云课堂的视频进行深入学习,视频的链接如下:神经网络和深度学习-网易云课堂也欢迎对神经网络与深度学习感兴趣的网友一起交流~目录1深层神经网络2为什么使用深层表示3参数与超参数1深层神经网络从技术层面上说,Logistic
洋洋Young
·
2023-07-15 02:27
【深度学习笔记】
深度学习
笔记
神经网络
【
深度学习笔记
】训练 / 验证 / 测试集
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是吴恩达AndrewNg教授。感兴趣的网友可以观看网易云课堂的视频进行深入学习,视频的链接如下:神经网络和深度学习-网易云课堂也欢迎对神经网络与深度学习感兴趣的网友一起交流~在训练神经网络时,我们需要做出很多决策,例如神经网络分多少层、每层含有多少隐藏单元、学习率是多少、
洋洋Young
·
2023-07-15 02:17
【深度学习笔记】
深度学习
笔记
人工智能
深度学习笔记
之循环神经网络(六)长短期记忆神经网络(LSTM)
深度学习笔记
之循环神经网络——长短期记忆神经网络[LSTM]引言回顾:RNN\text{RNN}RNN的反向传播过程RNN\text{RNN}RNN反向传播的梯度消失问题长短期记忆神经网络遗忘门结构输入门结构遗忘门与输入门的特征融合操作输出门结构个人感悟引言上一节介绍了循环神经网络
静静的喝酒
·
2023-06-19 18:55
机器学习
深度学习
深度学习
循环神经网络
Tanh激活函数
LSTM
深度学习笔记
之循环神经网络(八)LSTM的轻量级变体——门控循环单元(GRU)
深度学习笔记
之LSTM轻量级变体——门控循环单元[GRU]引言回顾:LSTM\text{LSTM}LSTM的前馈计算过程LSTM\text{LSTM}LSTM的问题GRU\text{GRU}GRU的前馈计算过程
静静的喝酒
·
2023-06-19 18:55
深度学习
机器学习
深度学习
rnn
门控循环单元
深度学习笔记
之Transformer(三)自注意力机制
深度学习笔记
之Transformer——自注意力机制引言回顾:缩放点积注意力机制自注意力机制自注意力机制与RNN,CNN\text{RNN,CNN}RNN,CNN的对比简单介绍:卷积神经网络处理序列信息的原理从计算复杂度的角度观察位置编码引言上一节对注意力分数
静静的喝酒
·
2023-06-19 18:52
深度学习
深度学习
transformer
自注意力机制
位置编码
深度学习笔记
1——CNN识别黑白手写数字
文章目录摘要手写数字数据集(MNIST)卷积神经网络(ConvolutionNeuralNetwork,CNN)模型架构搭建Softmax函数和CrossEntropy损失函数Adam优化器构造数据迭代器训练、验证、测试模型训练结果可视化摘要本文将介绍CNN的开山之作——LeNet-5卷积神经网络;并且实现导入MNIST手写数字识别数据集,对LeNet-5模型进行训练、验证和测试,最后对训练过程的
自宅警备喵
·
2023-06-18 18:36
DeepLearning
深度学习
cnn
手写数字识别
mnist
lenet5
深度学习笔记
之Transformer(二)关于注意力分数的总结
深度学习笔记
之Transformer——关于注意力分数的总结引言回顾:Nadaraya-Watson\text{Nadaraya-Watson}Nadaraya-Watson核回归再回首:Seq2seq
静静的喝酒
·
2023-06-18 08:16
深度学习
深度学习
transformer
注意力分数总结
加性注意力机制
缩放点积注意力机制
深度学习笔记
第四门课 卷积神经网络 第二周 深度卷积网络:实例探究
本文是吴恩达老师的深度学习课程[1]笔记部分。作者:黄海广[2]主要编写人员:黄海广、林兴木(第四所有底稿,第五课第一二周,第三周前三节)、祝彦森:(第三课所有底稿)、贺志尧(第五课第三周底稿)、王翔、胡瀚文、余笑、郑浩、李怀松、朱越鹏、陈伟贺、曹越、路皓翔、邱牧宸、唐天泽、张浩、陈志豪、游忍、泽霖、沈伟臣、贾红顺、时超、陈哲、赵一帆、胡潇杨、段希、于冲、张鑫倩参与编辑人员:黄海广、陈康凯、石晴路
湾区人工智能
·
2023-06-17 07:23
深度学习笔记
之循环神经网络(十)基于循环神经网络模型的简单示例
深度学习笔记
之循环神经网络——基于循环神经网络模型的简单示例引言文本表征:One-hot\text{One-hot}One-hot向量简单示例:文本序列的预测任务数据预处理过程生成文本数据遍历数据集,构建字典抓取数据
静静的喝酒
·
2023-06-14 15:28
深度学习
机器学习
深度学习
rnn
循环神经网络代码实例
One-hot向量
深度学习笔记
之卷积神经网络(一)卷积函数与图像卷积操作
深度学习笔记
之卷积神经网络——卷积函数引言什么是卷积图像卷积操作引言从本节开始,将介绍卷积神经网络。本节将介绍卷积函数。
静静的喝酒
·
2023-06-14 15:58
深度学习
深度学习
卷积函数
图像卷积操作
深度学习笔记
之Transformer(一)注意力机制基本介绍
深度学习笔记
之Transformer——注意力机制基本介绍引言回顾:Seq2seq\text{Seq2seq}Seq2seq模型中的注意力机制注意力机制的简单描述注意力机制的机器学习范例:Nadaraya-Watson
静静的喝酒
·
2023-06-14 15:56
深度学习
深度学习
注意力机制简介
Nadaraya-Watson
径向基核函数
CS231N
作业 A2Q4:ConvolutionalNetworks
完成以下六个任务:1.CNN的前向传播2.CNN的反向传播3.“三明治”层——conv-relu-pool/conv-relu4.三层CNN:conv-relu-maxpool-affine-relu-affine-softmax5.空间BN6.groupnormalizationBN——LN——spatialBN的Backward的区别:axis=0——axis=1——axis=2,3,4分别形
588
·
2023-06-14 07:49
CS231N
python
学习
机器学习
人工智能
神经网络
CS231N
作业 A2Q5 pytorch
用pytorch可真是太方便了。。。IntroductiontoPyTorchYou’vewrittenalotofcodeinthisassignmenttoprovideawholehostofneuralnetworkfunctionality.Dropout,BatchNorm,and2Dconvolutionsaresomeoftheworkhorsesofdeeplearninginc
588
·
2023-06-14 06:31
CS231N
pytorch
深度学习
python
深度学习笔记
之Seq2seq(二)基于Seq2seq注意力机制的动机
深度学习笔记
之Seq2seq——基于Seq2seq注意力机制的动机引言回顾:基于机器翻译任务的Seq2seq\text{Seq2seq}Seq2seq网络结构注意力机制的动机循环神经网络作为Encoder
静静的喝酒
·
2023-06-12 19:04
深度学习
深度学习
人工智能
Seq2seq
Attention机制的动机
深度学习笔记
(续)——数值稳定性、模型初始化与激活函数
深度学习笔记
[续]——数值稳定性、模型初始化与激活函数引言回顾:没有激活函数参与,输入输出分布的变化情况Xavier\text{Xavier}Xavier方法存在激活函数的情况假设激活函数是线性函数激活函数的底层逻辑总结引言继续上一节介绍激活函数在神经网络前馈
静静的喝酒
·
2023-06-12 19:34
深度学习
深度学习
激活函数逻辑
权重初始化
分布的数值稳定性
深度学习笔记
之卷积神经网络(三)卷积示例与池化操作
深度学习笔记
之卷积神经网络——卷积示例与池化操作引言卷积神经网络:卷积层卷积层的计算过程池化层描述池化层的作用——降低模型复杂度,防止过拟合池化层执行过程池化层代码示例池化层的作用——平移不变性卷积加池化作为一种无限强的先验池化层的反向传播过程引言上一节介绍了卷积的另一特点
静静的喝酒
·
2023-06-12 19:33
深度学习
机器学习
pytorch
深度学习
卷积神经网络
池化层
无限强先验分布
池化层的反向传播过程
深度学习笔记
之Seq2seq(三)注意力机制的执行过程
深度学习笔记
之Seq2seq——注意力机制的执行过程引言回顾:经典Seq2seq\text{Seq2seq}Seq2seq模型中Context\text{Context}Context向量的缺陷注意力机制的动机
静静的喝酒
·
2023-06-12 19:30
深度学习
深度学习
人工智能
Seq2seq
注意力机制
深度学习笔记
--本地部署Mini-GPT4
目录1--前言2--配置环境依赖3--下载权重4--生成Vicuna权重5--测试6--可能出现的问题1--前言本机环境:System:Ubuntu18.04GPU:TeslaV100(32G)CUDA:10.0(11.3bothok)项目地址:https://github.com/Vision-CAIR/MiniGPT-42--配置环境依赖gitclonehttps://github.com/V
憨豆的小泰迪
·
2023-06-12 10:18
深度学习笔记
深度学习
numpy入门教程(二)
基本参考于standford大学
cs231n
课程笔记
cs231n
-pythonnumpytutorial略有删减与补充,欢迎交流指正这一部分主要介绍numpy的常用操作方法NumpyNumpy是Python
_龙雀
·
2023-06-11 07:23
深度学习笔记
(八)——语义分割标注转换
核心思想:“将颜色转换成对应的标号”形式一:Json格式的标注转换成调色板mask形式二:RGB类型mask(24位三通道)转成调色板mask(8位单通道),调色板的格式为.png形式三:对于二分类的语义分割,一般采用灰度图(8位单通道)Json格式的标注转换成调色板mask首先读取json文件,获取获取图片width和height,使用构造三个东西:调色板mask,colormap(一维列表),
千禧皓月
·
2023-06-11 03:35
深度学习
深度学习
python
人工智能
深度学习笔记
(九)——pytorch复杂操作详解
torchvision.transforms数据预处理:ToTensor()https://blog.csdn.net/qq_43799400/article/details/127785104Pytorch中torch.nn.Conv2d和torch.nn.functional.conv2d的区别https://blog.csdn.net/Z2572862506/article/details/
千禧皓月
·
2023-06-11 03:05
深度学习
pytorch
深度学习
人工智能
State of GPT (ChatGPT 原理及现状介绍)
StateofGPT演讲信息:演讲人:AndrejKarpathy(现在OpenAI任职),之前是特斯拉视觉研发负责人,斯坦福深度学习入门课程
CS231N
讲师演讲主题:受到微软BUILD2023邀请,介绍
kebijuelun
·
2023-06-08 20:06
paper_reading
gpt
chatgpt
人工智能
深度学习笔记
——神经网络(ANN)搭建过程+python代码
目录1.多维数组的运算(1)多维数组(2)矩阵乘法(3)神经网络的内积2.3层神经网络的实现(1)第一层加权和(2)输入层到第1层的信号传递(3)第1层到第2层的信号传递(4)完整代码1.多维数组的运算(1)多维数组多维数组的维数可以通过np.ndim()函数获得。此外,数组的形状可以通过实例变量shape获得。二维数组也称为矩阵,数组的横向排列称为行(row),纵向排列称为列(column)代码
长弓同学
·
2023-06-08 15:35
python
深度学习
神经网络
深度学习笔记
之循环神经网络(三)循环神经网络思想
深度学习笔记
之循环神经网络——循环神经网络思想引言回顾:潜变量自回归模型循环神经网络思想困惑度引言上一节介绍了基于统计算法的语言模型。本节将介绍基于神经网络的序列模型——循环神经网络。
静静的喝酒
·
2023-06-07 23:30
机器学习
深度学习
深度学习
神经网络
递归神经网络
深度学习笔记
之Seq2Seq(一)基本介绍
深度学习笔记
之Seq2seq——基本介绍引言回顾:经典循环神经网络结构关于循环神经网络的更多引用Seq2seq\text{Seq2seq}Seq2seq网络结构Seq2seq\text{Seq2seq}
静静的喝酒
·
2023-06-07 23:23
深度学习
深度学习
循环神经网络
Seq2seq
斯坦福大学卷积神经网络----Module 1 Lesson 3 优化
原文地址:http://
cs231n
.github.io/optimization-1/标题:Optimization:StochasticGradientDescent随手翻译,不当之处请指正介绍前面的章节中我们介绍了图像分类任务的两个关键部分
LZX_Not_Afraid
·
2023-06-07 01:12
斯坦福大学神经网络
斯坦福大学
函数
神经网络
优化
跟着李沐大神动手
深度学习笔记
——权重衰退
权重衰退使用均方范数作为硬性限制如下所示,其中l是我们要优化的损失函数,w和b是两个参数。w为权重,b为偏移,但这个优化函数并不常用,多使用下面的柔性限制。image-20210902210126877.png使用均方范数作为柔性限制image-20210902211206725.png以上可以通过拉格朗日乘子来证明,超参数控制了正则项的重要程度。image-20210902211415694.p
a_Janm
·
2023-04-19 06:12
cs231n
学习之Normalization(5)
前言本文旨在学习和记录,如需转载,请附出处https://www.jianshu.com/p/59aaaaab746aNormalizationNormalization主要是对网络特征的一种处理方法,期望特征在训练中保持较好的分布。一般都是在激活函数前进行Normalization.对于Normalization,现在主要有以下几种方法:image.png输入一、BatchNormalizati
Latet
·
2023-04-16 21:43
神经网络权重初始化为什么不能为零
参考资料:https://www.zhihu.com/question/36068411http://
cs231n
.github.io/neural-networks-2/
好吃红薯
·
2023-04-15 23:29
2018-02-16
CS231n
学习笔记二——K最近邻与线性分类器(上)图像分类主要的困难和挑战(1)视角变化(2)物体大小变化(3)形变(4)遮挡(5)光照影响(6)背景干扰(7)同类物体内的差异图像分类流程输入,学习,
Ailarise
·
2023-04-15 20:28
Pytorch
深度学习笔记
(三)线性模型
目录1.机械学习的过程2.线性模型推荐课程:2.线性模型_哔哩哔哩_bilibili1.机械学习的过程机械学习的过程:1.准备数据集DataSet——>2.选择模型Model——>3.训练Training——>4.推理Infering监督学习:用已知标签的训练样本训练模型,用来预测未来输入样本的标签,如用于逻辑回归分类器。注:经过训练,输入新的数据能推测出输出。注:数据集策略,将数据集一分为二,一
向岸看
·
2023-04-14 19:01
深度学习
pytorch
笔记
Pytorch
深度学习笔记
(一)前瞻概述
目录1.人类智能Humanintelligence2.机器学习Machinelearning3.学习系统LearningSystem4.神经网络neuralnetwork课程推荐:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili1.人类智能Humanintelligence人类智能Humanintelligence:把视觉上接收到的信息转化为抽象概念的过程。如:识别“猫”的图像转
向岸看
·
2023-04-14 19:00
深度学习
pytorch
人工智能
Pytorch
深度学习笔记
(四)梯度向下模型
课程推荐:03.梯度下降算法_哔哩哔哩_bilibili优化问题:求误差值函数最小的权重w(1)梯度向下模型思想在绝大多数的情况下,损失函数是很复杂的(比如逻辑回归),根本无法得到参数估计值的表达式。因此需要一种对大多数函数都适用的方法。这就引出了“梯度算法”。首先,梯度下降(GradientDescent,GD),不是一个机器学习算法,而是一种基于搜索的最优化方法。梯度下降法通过导数告诉我们此时
向岸看
·
2023-04-14 19:18
深度学习
pytorch
笔记
cs231n
作业:Assignment1-SVM
加载数据集#LoadtherawCIFAR-10data.cifar10_dir='
cs231n
/datasets/cifar-10-batches-py'X_train,y_train,X_test,
Diane小山
·
2023-04-14 17:31
Pytorch
深度学习笔记
(二)Pytorch的安装
Pytorch分两个版本:GPU版本和CPU版本。推荐安装教程:1.Pytorch零失败安装使用|Anaconda安装|最新版本torch安装|PyCharm配置torch|保姆级教程【PyTorch修炼】【AI蜗牛车】_哔哩哔哩_bilibili推荐博客:PyTorch安装最全流程_pycharm导入torch包_李坦(BNU远程教育学)的博客-CSDN博客1.anaconda安装https:/
向岸看
·
2023-04-13 23:48
深度学习
pytorch
笔记
【Datawhale动手学
深度学习笔记
】多层感知机代码实践
多层感知机激活函数激活函数(activationfunction)通过计算加权和并加上偏置来确定神经元是否应该被激活,它们将输入信号转换为输出的可微运算。大多数激活函数都是非线性的。由于激活函数是深度学习的基础,下面简要介绍一些常见的激活函数。#引入包%matplotlibinlineimporttorchfromd2limporttorchasd2lReLU函数x=torch.arange(-8
JeffDingAI
·
2023-04-11 22:39
动手学深度学习
深度学习
python
人工智能
【Datawhale动手学
深度学习笔记
】线性神经网络
线性神经网络线性回归回归(regression)是能为一个或多个自变量与因变量之间关系建模的一类方法。在自然科学和社会科学领域,回归经常用来表示输入和输出之间的关系。线性回归的基本元素线性回归(linearregression)可以追溯到19世纪初,它在回归的各种标准工具中最简单而且最流行。线性回归基于几个简单的假设:首先,假设自变量x\mathbf{x}x和因变量yyy之间的关系是线性的,即yy
JeffDingAI
·
2023-04-11 22:09
深度学习
神经网络
机器学习
【Python学习笔记】
cs231n
Python Numpy教程
【Python学习笔记】
cs231n
PythonNumpy教程回顾经典教程
cs231n
,完成assignments觉得很困难,感觉自己python基础语法掌握的不是很熟,就顺藤摸瓜找了
cs231n
他们的官方
百里香酚兰
·
2023-04-11 16:43
python
numpy
学习
深度学习笔记
总结(1) 神经网络和深度学习(Neural Networks and Deep Learning)
针对深度学习基础部分,有必要恶补一些吴恩达的深度学习课程,其实晚上有很多总结和笔记,本系列文章是针对黄海广大佬整理的《深度学习课程笔记(V5.47)》的总结和自己的理解,以便加深印象和复习。1第一周深度学习引言1.1深度学习为什么会兴起数据规模数据规模越来越大,远超过传统机器学习算法的学习能力。计算量算法的创新发展和提出了多样的神经网络,具有强大的计算机能力image计算机硬件的发展比如GPU、T
致Great
·
2023-04-11 02:47
34.Oracle
深度学习笔记
——12C的AWR初步解读
34.Oracle
深度学习笔记
——12C的AWR初步解读关于AWR,蛤蟆也经常看。因为经常看别人给出的建议,很难有深刻体会。对此,计划花费几个晚上时间好好体会一把并记录下来。此处以单实例为例。
badman250
·
2023-04-10 23:26
Oracle
cs231n
assignment2 FC 解决python setup.py build_ext --inplace
首先需要安装pytorch,根据官网提示运行即可1.FC的第一步报错,如下图:根据提示,需要在
cs231n
下运行命令pythonsetup.pybuild_ext--inplace2.
cs231n
目录中打开终端运行后
除了学习无所事事
·
2023-04-09 14:39
大数据软件
python
三维卷积与二维多通道卷积
参考博客:
深度学习笔记
----三维卷积及其应用(3DCNN,PointNet,3DU-Net)_YOULANSHENGMENG的博客-CSDN博客AComprehensiveIntroductiontoDifferentTypesofConvolutionsinDeepLearning
SL1029_
·
2023-04-09 04:17
深度学习基本理论知识
深度学习
计算机视觉
cnn
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他