E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习实验
吴恩达
机器学习课后习题ex2
ex2:Logistic_regressionimportnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltimportscipy.optimizeasopt#优化算法fromsklearn.metricsimportclassification_reportfromsklearnimportlinear_modelScipy优化算法:sci
东流-beyond the label
·
2022-11-24 12:48
计算机视觉
吴恩达机器学习
课后习题
吴恩达
机器学习课后习题ex2(续)
ex2:Regularizedlogisticregressionimportnumpyasnpimportmatplotlib.pyplotaspltimportpandasaspdfromsklearnimportlinear_modelimportscipy.optimizeasoptfromsklearn.metricsimportclassification_reportdefraw_d
东流-beyond the label
·
2022-11-24 12:48
计算机视觉
吴恩达机器学习
课后习题答案
吴恩达
机器学习 ex2 逻辑回归及过拟合 python实现
本文的目录~1LogisticRegression1.1visualizingthedata1.2implementation1.2.1sigmoidfunction1.2.2Costfunctionandgradient1.2.3Learningparametersusingfminunc*scipy的一些内容介绍fmin_tnc()使用scipy1.2.4绘制决策边界1.2.5Evaluati
洗千帆,还少年
·
2022-11-24 12:48
机器学习学习篇
python
机器学习
深度学习
(
吴恩达
)机器学习课后练习二代码解析(ex2)
作业二:ex2答案解析一、逻辑回归第一部分:ex2.m文件代码解读:clear;closeall;clc;data=load('ex2data1.txt');%读取数据X=data(:,[1,2]);y=data(:,3);%data是一个矩阵,X为第一到第二列所有的行的值组成一个矩阵plotData(X,y);%调用函数(筛选的数据、画图的规则)holdon;%两个轴的名称xlabel('Exa
奔跑的小仙女
·
2022-11-24 12:18
深度学习
matlab
吴恩达
机器学习
课后答案
吴恩达
机器学习ex2
文章目录逻辑回归-线性可分基础知识实验要求数据可视化构造数据集构造损失函数梯度下降函数准确率绘制决策边界逻辑回归-线性不可分知识点案例介绍数据可视化特征映射构造数据集正则化损失函数梯度下降函数准确率数据可视化逻辑回归-线性可分基础知识线性可分指的是多变量的情况下,可以用直线将两种类别进行划分这样我们可以对该模型的函数做出如下假设,由于该分类需要将结果分为0和1,如果还是与上次实验一样使用h=the
每个人都是孙笑川
·
2022-11-24 12:17
吴恩达
机器学习
学习笔记
机器学习
python
jupyter
吴恩达
机器学习ex2 python实现
这个项目包含了
吴恩达
机器学习ex2的python实现,主要知识点为逻辑回归、正则化。1.逻辑回归构建一个逻辑回归模型来预测,某个学生是否被大学录取。
qq_26402041
·
2022-11-24 12:46
机器学习
python
机器学习
逻辑回归
吴恩达
《机器学习》ex2作业第一部分Python实现——逻辑回归 参考
ProgrammingExercise2:LogisticRegression逻辑回归一、所用数据集:34.62365962451697,78.0246928153624,030.28671076822607,43.89499752400101,035.84740876993872,72.90219802708364,060.18259938620976,86.30855209546826,179
小牛不怕码代码
·
2022-11-24 12:45
机器学习
机器学习
python
逻辑回归
吴恩达
机器学习ex2任务1+任务2代码
importpandasaspdimportnumpyasnpimportmatplotlib.pyplotaspltimportscipy.optimizeasopt#数据导入path=r'D:\旧盘\研究生部分\
吴恩达
机器学习
Maturisa
·
2022-11-24 12:09
吴恩达机器学习作业
python
深度学习课程自学笔记整理(二)——一些自己总结记录的结论和小tips等
注:本人已经学完了
吴恩达
老师机器学习深度学习的全部课程,整理出来的知识点是比较笼统的、自己总结的一些结论和经验,发在这里主要是为了方便自己复习翻阅,已经学完大部分课程或者对深度学习有了一定基础的uu可以阅读下
yan_nLiiiiii
·
2022-11-24 11:45
机器学习深度学习
深度学习
人工智能
机器学习
吴恩达
machine-learning-specialization2022第1周的optional lab
1.使用python和numpy实现一个线性回归要求使用梯度下降法,可视化losslossloss随着迭代次数的变化曲线2.说明2.1拟合函数fw,b(x(i))=wx(i)+bf_{w,b}(x^{(i)})=wx^{(i)}+bfw,b(x(i))=wx(i)+b2.2均方误差损失函数J(w,b)=12m∑i=0m−1(fw,b(x(i))−y(i))2J(w,b)=\frac{1}{2m}\
吴天德少侠
·
2022-11-24 09:10
深度学习
python
python
机器学习
深度学习
国内官网下载pytorch(GPU版)
国内官网下载GPU版pytorch用官网conda下载坑换清华镜像源的坑使用官网pip3下载成功看完了
吴恩达
的深度学习,然后去B站看李沐的卷积神经网络的代码实现,由于之前学习阶段搭建的环境有点混乱,想着自己能科学上网就打算直接卸载
简生_
·
2022-11-24 09:15
pytorch的笔记
pytorch
深度学习
机器学习 | Week4-Neural Networks Representation神经网络:表达
Week4-NeuralNetworksRepresentation神经网络:表达一、Non-linearHypothesis非线性模型(经过考虑,事实上hypothesis这里更像一个模型而非假设,事实上
吴恩达
在
Lightfly203
·
2022-11-24 05:39
吴恩达机器学习笔记
人工智能
机器学习
吴恩达
机器学习系列课程笔记——第八章:神经网络:表述(Neural Networks: Representation)
8.1非线性假设https://www.bilibili.com/video/BV164411b7dx?p=43我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。下面是一个例子:当我们使用x1、x2的多次项式进行预测时,我们可以应用的很好。之前我们已经看到过,使用非线性的多项式项,能够帮助我们建立更好的分类模型。但假设我们有非常多的特征,例如大于100
Lishier99
·
2022-11-24 05:39
机器学习
机器学习
神经网络
人工智能
吴恩达
机器学习笔记(六)Neural NetWorks:Representation
神经网络NeuralNetworks:Representation模型表达I:ModelrepresentationI单个神经元树突:inputwires轴突:outputwires神经元:逻辑单元parameter:weight权重x0:biasunit\biasneuron(偏置单元\偏置神经元)Sigmoid(logistic)activationfunction:non-linearity
哇哈哈哈哈呀哇哈哈哈
·
2022-11-24 05:09
机器学习
神经网络
人工智能
吴恩达
机器学习笔记-神经网络:表述(Neural Networks: Representation)
非线性假设我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。例如大于100个变量,我们希望用这100个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便我们只采用两两特征的组合,我们也会有接近5000个组合而成的特征。这对于一般的逻辑回归来说需要计算的特征太多了。假设我们希望训练一个模型来识别视觉对象(例如识别一张图片上是否是一辆汽
_4444yl
·
2022-11-24 05:09
大数据与人工智能
《
吴恩达
深度学习》学习笔记003_浅层神经网络(Shallow neural networks)
http://www.ai-start.com/dl2017/html/lesson1-week3.html浅层神经网络(Shallowneuralnetworks)神经网络概述(NeuralNetworkOverview)公式3.1建立联系。图3.1.1:公式3.1:KaTeXparseerror:Expectedgroupafter'\right'atposition52:…d{array}\
Stark0x01
·
2022-11-24 05:38
【
吴恩达
深度学习笔记】1.3 浅层神经网络Shallow neural networks
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)3.1神经网络概述(NeuralNetworkOverview)感觉这块没啥好记的3.2神经网络的表示(NeuralNetworkRepresentation)神经网络包括输入层(inputlayer):包含输入特征x1,x2,...x_1,x_2,...x1,x2,...隐藏层(hiddenlayer):训练
贪钱算法还我头发
·
2022-11-24 05:08
AI
#
Deep
Learning
深度学习
第4周学习笔记-Neural Networks: Representation神经网络表述-Coursera机器学习-
吴恩达
文章目录NeuralNetworks:RepresentationMotivationsNon-linearHypotheses非线性假设(函数)NeuronsandtheBrain神经元和大脑NeuralNetworksModelRepresentationI模型表示IModelRepresentationIIApplicationsExamplesandIntuitionsI例子和直观感觉IE
brayo
·
2022-11-24 05:07
机器学习
吴恩达-Coursera-ML
课程笔记
机器学习
课程笔记
吴恩达-Coursera
神经网络
吴恩达
机器学习编程作业与笔记(3)第4周:Neural Networks: Representation神经网络:表示
lrCostFunction.m-Logisticregressioncostfunctionfunction[J,grad]=lrCostFunction(theta,X,y,lambda)%LRCOSTFUNCTIONComputecostandgradientforlogisticregressionwith%regularization%J=LRCOSTFUNCTION(theta,X,y
STL_CC
·
2022-11-24 05:37
数据科学与人工智能笔记
机器学习
神经网络
人工智能
深度学习
吴恩达
Ex3_机器学习_
吴恩达
课程作业(Python):多分类和神经网络(Multi-class Classification & Neural Networks)
Ex3_机器学习_
吴恩达
课程作业(Python):多分类和神经网络(Multi-classClassification&NeuralNetworks)文章目录Ex3_机器学习_
吴恩达
课程作业(Python
Zzay_naw
·
2022-11-24 05:37
数据分析
笔记
机器学习
python
神经网络
机器学习
机器学习-
吴恩达
逻辑回归(笔记)
文章目录什么是逻辑(Logistic)回归Sigmoid函数公式的另一种写法:决策边界(DecisionBoundary)多个特征的决策边界线性决策边界非线性决策边界逻辑回归的代价函数Logisticloss函数逻辑回归的代价函数梯度下降实现什么是逻辑(Logistic)回归逻辑回归是一种用于解决二分类(要么是0要么是1)问题的机器学习方法。比如:一个患者的肿瘤是否为良性的,结果只有是或不是两种可
稀奇_
·
2022-11-24 05:17
机器学习
机器学习
逻辑回归
python
吴恩达
机器学习笔记17-逻辑回归的代价函数
在这段视频中,我们要介绍如何拟合逻辑回归模型的参数?。具体来说,我要定义用来拟合参数的优化目标或者叫代价函数,这便是监督学习问题中的逻辑回归模型的拟合问题。对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。理论上来说,我们也可以对逻辑回归模型沿用这个定义,但是问题在于,当我们将带入到这样定义了的代价函数中时,我们得到的代价函数将是一个非凸函数(non-convexfunction)。这意
weixin_33754065
·
2022-11-24 05:13
人工智能
数据结构与算法
吴恩达
机器学习笔记---逻辑回归模型
前言之前学习的单变量和多变量线性回归都是解决监督学习中的回归问题,现在开始学习如何解决监督学习中的分类问题,分类问题即输出都是离散值,我们主要通过逻辑回归模型来解决分类问题1.分类问题(Classification)2.假说表示(HypoththesisRepresentation)3.判定边界(DecisionBoundary)逻辑回归模型(一)分类问题(Classification) 分类问
ML0209
·
2022-11-24 05:39
机器学习
机器学习
吴恩达
机器学习笔记---逻辑回归模型参数优化
前言利用梯度下降对逻辑回归模型的代价函数求取最小解,实现模型参数的优化1.代价函数(CostFunction)2.梯度下降(GradientDescent)3.高级优化(AdvancedOptimization)4.多类别分类(MulticlassClassification)逻辑回归模型参数优化(一)代价函数(CostFunction) 在线性回归模型中,我们选取所有样本误差的平方和的均值作为
ML0209
·
2022-11-24 05:39
机器学习
逻辑回归
机器学习
【基础】
吴恩达
机器学习笔记 - 线性回归 & 代价函数 & 梯度下降
一、基本概念1.1机器学习的定义一个年代近一点的定义,由来自卡内基梅隆大学的TomMitchell提出,一个好的学习问题定义如下:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。比如以下棋的机器学习算法为例:经验E就是程序上万次的自我练习的经验,任务T是下棋,性能度量值P是它在与一些新的对手比赛时,赢得比赛的概率。1.
zenRRan
·
2022-11-24 05:36
吴恩达
机器学习笔记--逻辑回归
分类问题:是否垃圾邮件,肿瘤良性恶性......线性回归的问题:不适用于分类问题。因为线性回归一般用最小二乘来得出最优的回归曲线,而一个极端值,就能让曲线的偏离很大。逻辑回归就是在线性回归z=的基础上,再做了一步结果再0,1之间。决策边界g(z)=0.5,也就是z=0,当z>=0的时候,预测y值为1,否则为0.改变z=为高阶多项式,就可以使决策边界由直线是变成曲线。逻辑回归的代价函数是一个凸函数,
mumuok
·
2022-11-24 05:36
吴恩达
深度学习笔记——DAY4
目录一、神经网络的梯度下降二、随机初始化三、深层神经网络四、矩阵的维数五、参数VS超参数一、神经网络的梯度下降正向传播的方程:反向传播方程:二、随机初始化如果你要初始化成0,由于所有的隐含单元都是对称的,无论你运行梯度下降多久,他们一直计算同样的函数。这没有任何帮助,因为你想要两个不同的隐含单元计算不同的函数,这个问题的解决方法就是随机初始化参数。初始化如下:这里的0.01是为了使得产生的随机数数
qq_45948088
·
2022-11-24 00:18
深度学习
神经网络
cnn
吴恩达
深度学习——DAY3
目录一、神经网络的表示二、神经网络的计算与输出三、激活函数四、修正线性单元的函数(ReLu)五、不选用线性函数一、神经网络的表示输入特征?1、?2、?3,它们被竖直地堆叠起来,这叫做神经网络的输入层。它包含了神经网络的输入;然后这里有另外一层我们称之为隐藏层,最后一层只由一个结点构成,而这个只有一个结点的层被称为输出层,它负责产生预测值。隐藏层:在一个神经网络中,当你使用监督学习训练它的时候,训练
qq_45948088
·
2022-11-24 00:17
深度学习
神经网络
吴恩达
深度学习笔记——DAY2
目录一、梯度下降法二、向量化(Vectorization)三、Python中的广播(BroadcastinginPython)一、梯度下降法梯度下降法在测试集上,通过最小化代价函数(成本函数〉J(w,b)来训练的参数w和b,找到全局最优解,也就是代价函数(成本函数)J(w,b)这个凸函数的最小值点,这个函数含有两个参数w和b。二、向量化(Vectorization)向量化是非常基础的去除代码中fo
qq_45948088
·
2022-11-24 00:47
深度学习
人工智能
神经网络
一、深度学习与神经网络
前言我之前的博客写过
吴恩达
老师的《机器学习》的教程及笔记,之前我一直都喜欢记在本子上,经常本子写满了之后就再去翻阅资料的时候找不到,
吴恩达
深度学习的视频我之前也看过也做了一些笔记,目前这段时间也比较有空就将一些学习过程的笔记记录下来方便自己以后查阅及学习
JockerWong
·
2022-11-23 23:12
深度学习
深度学习
神经网络
Keras
MNIST
吴恩达
机器学习笔记
机器学习week1Introduction1.SupervisedLearning监督学习给定一个数据集,并且知道其一些正确输出,能够明确知道是不是正确或者错误回归问题:预测一个连续的值的输出分类问题:根据输入给出一个离散的结果输出2.UnsupervisedLearning无监督学习只给出一个数据集,并没有给出其关系,需要我们自行寻找其结构ModelandCostFunctionModelrep
lqvir
·
2022-11-23 17:03
机器学习
线性代数
概率论
Coursera
吴恩达
Machine Learning(机器学习)课程 |第一周测验答案(仅供参考)
文章目录一、Introduction二、LinearRegressionwithOneVariable三、LinearAlgebra注:每个人的题目和选项并不完全一样,但大部分题目的大致意思相同。一、Introduction1.AcomputerprogramissaidtolearnfromexperienceEwithrespecttosometaskTandsomeperformanceme
-借我杀死庸碌的情怀-
·
2022-11-23 17:32
机器学习
机器学习
coursera
监督学习
无监督学习
吴恩达
机器学习--学习笔记
1.Introduction1.1Welcome如今机器学习被大规模应用于:数据挖掘(网站点击,医学记录,生物学,工程)一些无法通过编程实现的功能(自动驾驶,手写识别,NLP,CV)self-customizingprograms(各种网站的推荐系统)辅助理解人脑这是一个快速发展的领域,我看好1.2Whatismachinelearning常用的机器学习包括监督学习算法和无监督学习算法。此外还有增
Delay.Chen
·
2022-11-23 17:28
学习笔记
人工智能
吴恩达
机器学习讲义_悉尼科大徐亦达教授:1000+页机器学习讲义,32 份主题推介...
新智元推荐来源:专知(ID:Quan_Zhuanzhi)【新智元导读】悉尼科大徐亦达教授机器学习讲义,总共涵盖32个主题,1000+页讲义,包括Softmax算法、传统GAN,W-GAN数学,贝叶斯GAN,蒙托卡罗树搜索,alphaGo学习算法等。悉尼科大徐亦达教授近日在GitHub更新了他2019年以来的机器学习新材料,超过1000页的讲义,总共涵盖32个主题。具体而言,主题涉及Softmax的
weixin_39988197
·
2022-11-23 17:57
吴恩达机器学习讲义
机器学习课件
吴恩达
机器学习编程作业ex4 Neural Networks Learning
一、程序及函数1.引导脚本ex4.m%%MachineLearningOnlineClass-Exercise4NeuralNetworkLearning%Instructions%------------------------------------------------------------------%Thisfilecontainscodethathelpsyougetstarted
Polaris_T
·
2022-11-23 17:53
机器学习
机器学习
吴恩达
神经网络
练习题
bp算法
【机器学习-
吴恩达
】Week3 分类问题——逻辑回归&正则化
文章目录TerminologyLogisticRegressionClassificationandRepresentationClassificationlinearregressiontoaclassificationproblemLogisticRegression-aclassificationalgorithmHypothesisRepresentationLogisticRegress
Filbert的榛子
·
2022-11-23 17:52
Machine
Learning
机器学习
吴恩达
Coursera, 机器学习专项课程, Machine Learning:Advanced Learning Algorithms第二周测验...
Practicequiz:NeuralNetworkTraining第1个问题:Hereissomecodethatyousawinthelecture:model.compile(loss=BinaryCrossentropy())Forwhichtypeoftaskwouldyouusethebinarycrossentropylossfunction?Aclassificationtas
ZhemgLee
·
2022-11-23 17:49
机器学习
深度学习
人工智能
python
神经网络
吴恩达
Coursera, 机器学习专项课程, Machine Learning:Advanced Learning Algorithms第四周测验...
Decisiontrees第1个问题:Basedonthedecisiontreeshowninthelecture,ifananimalhasfloppyears,aroundfaceshapeandhaswhiskers,doesthemodelpredictthatit'sacatornotacat?【正确】catNotacat【解释】Correct.Ifyoufollowthefloppy
ZhemgLee
·
2022-11-23 17:49
机器学习
人工智能
吴恩达
Coursera, 机器学习专项课程, Machine Learning:Advanced Learning Algorithms第三周测验...
Practicequiz:Adviceforapplyingmachinelearning第1个问题:Inthecontextofmachinelearning,whatisadiagnostic?【正确】Atestthatyouruntogaininsightintowhatis/isn’tworkingwithalearningalgorithm.Anapplicationofmachinel
ZhemgLee
·
2022-11-23 17:19
机器学习
人工智能
python
算法
深度学习
【机器学习】
吴恩达
机器学习个人笔记
文章目录机器学习(MachineLearning)监督学习(supervisedlearning)无监督学习(unsupervisedlearning)模型表示(ModelRepresentation)假设函数(hypothesisfunction)代价函数(costfunction)梯度下降(gradientdescent)矩阵与向量(matricesandvector)多特征值(Multipl
RemiliaScarlets
·
2022-11-23 17:18
学习笔记
机器学习
人工智能
2022
吴恩达
机器学习:Advanced Learning Algorithm 3.1
3.1TensorFlow中的代码推理例:烤咖啡豆烤咖啡豆时间过短或者温度过低会烤不熟,时间过长或者温度太高会烤糊,中间三角区域才是烤的较好的咖啡豆使用TensorFlow实现咖啡豆好坏的预测例:手写体识别x是图片的像素强度值列表只有关键计算步骤的代码
m0_54237635
·
2022-11-23 17:44
tensorflow
深度学习
python
吴恩达
机器学习2022 第一课
一共有三个部分:SupervisedMachineLearning:RegressionandClassification,AdvancedLearningAlgorithms,UnsupervisedLearning,Recommenders,Reinforcement逻辑回归的代价函数7.1Costfunctionforlogisticregression_哔哩哔哩_bilibiliIntro
linyuxi_loretta
·
2022-11-23 17:43
机器学习
机器学习
算法
聚类
2022
吴恩达
机器学习:Advanced Learning Algorithm2.3
2.3神经网络推理:做出预测(前向传播)例:手写数字识别像素强度值:255表示白色像素,0表示黑色像素=[x1,x2……x64]第一层计算:第二层计算:输出层计算:总结前向传播:传播神经元的激活值从左至右沿着向前的方向进行计算反向传播:用于学习神经网络架构的一个典型选择:越靠近输出层,隐藏层中的神经元越来越少
m0_54237635
·
2022-11-23 17:31
神经网络
深度学习
【
吴恩达
深度学习编程作业】4.4特殊应用——人脸识别InvalidArgumentError: Default MaxPoolingOp only supports NHWC on device ty
主要原因还是CPU支持的是NHWC,而
吴恩达
老师格式是NCHW。再则是因为K.set_image_data_format('channels_last'),这段代码改变了输入数据的形式。
weixin_44177999
·
2022-11-23 15:20
深度学习
tensorflow
python
Pytorch中的squeeze()和unsqueeze()函数
在numpy库中,经常会出现“秩为1的一维数组”(comefrom
吴恩达
的深度学习,目前还没有搞清楚numpy中如此设计的意图)。
weixin_30636089
·
2022-11-23 15:40
python
人工智能
吴恩达
-机器学习-k-means聚类算法
目录
吴恩达
-机器学习2022版k-means聚类算法实现整理1.核心函数四个:1.find_closest_centroids:寻找最近的质心2.compute_centroids:迭代重新计算质心3.
StrawBerryTreea
·
2022-11-23 13:37
机器学习
算法
聚类
k-means
人工智能
吴恩达
《深度学习专项》笔记+代码实战(六):改进梯度下降算法(mini-batch, Momentum, Adam)
学习提示一直以来,我们都用梯度下降法作为神经网络的优化算法。但是,这个优化算法还有很多的改进空间。这周,我们将学习一些更高级的优化技术,希望能够从各个方面改进普通的梯度下降算法。我们要学习的改进技术有三大项:分批梯度下降、高级更新方法、学习率衰减。这三项是平行的,可以同时使用。分批梯度下降是从数据集的角度改进梯度下降。我们没必要等遍历完了整个数据集后再进行参数更新,而是可以遍历完一小批数据后就进行
大局观选手周弈帆
·
2022-11-23 13:46
吴恩达深度学习
算法
深度学习
人工智能
吴恩达
深度学习之二《改善深层神经网络:超参数调试、正则化以及优化》学习笔记
一、深度学习的实用层面1.1训练/开发/测试集机器学习时代,数据集很小,可能100、1000、10000条,这种级别。可以按70%、30%划分训练集和测试集,训练后直接用测试集评估。或者按60%、20%、20%划分训练集(train)、验证集(dev)、测试集(test),训练集上训练、验证集上验证调参,测试集上评估,这种划分对应于在80%训练集上做4折交叉验证。大数据时代,数据量可能是百万级这样
Umikaze_
·
2022-11-23 12:55
深度学习
神经网络
机器学习
吴恩达
深度学习:卷积步长
此公众号会发表计算机考研(初复试信息)、夏令营等资料,方便考研人对信息的获取,节约自身查找资料的时间,回复408,可获得数据结构、操作系统、计算机网络、计算机组成原理全科资料卷积步长(StridedConvolutions)卷积中的步幅是另一个构建卷积神经网络的基本操作,让我向你展示一个例子。如果你想用3×3的过滤器卷积这个7×7的图像,和之前不同的是,我们把步幅设置成了2。你还和之前一样取左上方
青竹aaa
·
2022-11-23 12:47
深度学习
卷积
【笔记】动手学深度学习-权重衰退
权重衰退相关理解权重衰减等价于范数正则化(regularization)下图是通过看
吴恩达
老师机器学习做的笔记:总的来说正则化就是为了避免过拟合而在loss函数后面加上一项正则项作为惩罚项从而降低过拟合
echo_gou
·
2022-11-23 12:42
#
动手学深度学习
上一页
33
34
35
36
37
38
39
40
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他