E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习
吴恩达深度学习
笔记(30)-正则化的解释
正则化(Regularization)深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但你可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少你的网络误差。如果你怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方法可能是正则化,另一个解决高方差的方法就是准备更多数据,这也是非常
极客Array
·
2024-09-16 00:23
吴恩达深度学习
笔记(24)-为什么要使用深度神经网络?
为什么使用深层表示?(Whydeeprepresentations?)我们都知道深度神经网络能解决好多问题,其实并不需要很大的神经网络,但是得有深度,得有比较多的隐藏层,这是为什么呢?我们一起来看几个例子来帮助理解,为什么深度神经网络会很好用。首先,深度网络在计算什么?如果你在建一个人脸识别或是人脸检测系统,深度神经网络所做的事就是,当你输入一张脸部的照片,然后你可以把深度神经网络的第一层,当成一
极客Array
·
2024-09-01 16:18
吴恩达深度学习
-L1 神经网络和深度学习总结
作业地址:吴恩达《深度学习》作业线上版-知乎(zhihu.com)写的很好的笔记:吴恩达《深度学习》笔记汇总-知乎(zhihu.com)我的「
吴恩达深度学习
笔记」汇总帖(附18个代码实战项目)-知乎(zhihu.com
向来痴_
·
2024-02-20 07:26
深度学习
人工智能
神经网络与深度学习 Neural Networks and Deep Learning 课程笔记 第一周
NeuralNetworksandDeepLearning课程笔记第一周文章目录神经网络与深度学习NeuralNetworksandDeepLearning课程笔记第一周深度学习简介什么是神经网络使用神经网络进行监督学习为什么神经网络会兴起本文是
吴恩达深度学习
系列课程的学习笔记
林间得鹿
·
2024-02-08 09:21
吴恩达深度学习系列课程笔记
深度学习
神经网络
笔记
学习笔记1《
吴恩达深度学习
》Deep Learning
P11.1.1欢迎Welcome深度学习改变了传统互联网业务,例如网络搜索和广告,但是深度学习同时也使得许多新产品和企业以很多方式帮助人们,从获得更好的健康关注,深度学习做得非常好的一个方面就是读取X光图像,到生活中的个性化教育,到精准化农业,甚至到驾驶汽车以及其他一些方面。如果你想要学习深度学习的这些工具,并应用它们来做这些令人窒息的操作,就学习这门课程。在接下来的十年中,我认为我们所有人都有机
木懋懋
·
2024-02-03 16:17
深度学习
吴恩达深度学习
-学习笔记p1-p6
哔哩哔哩网站视频-[双语字幕]
吴恩达深度学习
deeplearning.ai网站:up主:mHarvey,视频:[双语字幕]
吴恩达深度学习
deeplearning.ai一.p11.1欢迎二.p21.2什么是神经网络
丢了橘子的夏天
·
2024-02-03 16:47
深度学习
学习
笔记
吴恩达深度学习
笔记(15)-浅层神经网络之神经网络概述
神经网络概述(NeuralNetworkOverview)从今天开始你将学习如何实现一个神经网络。这里只是一个概述,详细的在后面会讲解,看不懂也没关系,先有个概念,就是前向计算然后后向计算,理解了这个就可以了,有一些公式和表达在后面会详细的讲解。在我们深入学习具体技术之前,我希望快速的带你预览一下后续几天你将会学到的东西。现在我们开始快速浏览一下如何实现神经网络。之前我们讨论了逻辑回归,我们了解了
极客Array
·
2024-02-03 08:27
【
吴恩达深度学习
】— 参数、超参数、正则化
32.jpg1.参数VS超参数1.1什么是超参数(Hyperparameters)?比如算法中的learningrate(学习率)、iterations(梯度下降法循环的数量)、L(隐藏层数目)、(隐藏层单元数目)、choiceofactivationfunction(激活函数的选择)都需要你来设置,这些数字实际上控制了最后的参数W和b的值,所以它们被称作超参数。实际上深度学习有很多不同的超参数,
Sunflow007
·
2024-02-02 13:58
交并比(Intersection over union)
来源:Coursera
吴恩达深度学习
课程如何判断目标检测算法运作良好呢?接下来,你将了解到并交比(intersectionoverunion)函数,可以用来评价目标检测算法。
双木的木
·
2024-01-27 20:33
吴恩达深度学习笔记
深度学习知识点储备
笔记
算法
机器学习
python
深度学习
计算机视觉
吴恩达深度学习
笔记(82)-深度卷积神经网络的发展史
为什么要探索发展史(实例分析)?我们首先来看看一些卷积神经网络的实例分析,为什么要看这些实例分析呢?上周我们讲了基本构建,比如卷积层、池化层以及全连接层这些组件。事实上,过去几年计算机视觉研究中的大量研究都集中在如何把这些基本构件组合起来,形成有效的卷积神经网络。最直观的方式之一就是去看一些案例,就像很多人通过看别人的代码来学习编程一样,通过研究别人构建有效组件的案例是个不错的办法。实际上在计算机
极客Array
·
2024-01-25 12:33
吴恩达深度学习
课程作业--C1W2
1.3-Reshapingarraysv=v.reshape((v.shape[0]*v.shape[1],v.shape[2]))#v.shape[0]=a;v.shape[1]=b;v.shape[2]=c
HELLOTREE1
·
2024-01-18 10:09
吴恩达深度学习
学习笔记-7建立神经网络
1.训练神经网络训练神经网络时,需要做许多决策。例如,有多少层网络每层含有多少个隐藏单元学习率各层采用哪些激活函数…这些决策无法一次决定好,通常在项目启动时,我们会先有一个初步想法,然后编码,并尝试运行这些代码,再根据结果完善自己的想法,改变策略。2.train/dev/testsets通常把数据分为训练集,验证集,测试集。我们用训练集数据训练模型,用验证集做holdoutcrossvalidat
猪猪2000
·
2024-01-16 02:03
吴恩达深度学习学习笔记
神经网络
深度学习
人工智能
机器学习
【
吴恩达深度学习
】Keras tutorial - the Happy House
Kerastutorial-theHappyHouseWelcometothefirstassignmentofweek2.Inthisassignment,youwill:LearntouseKeras,ahigh-levelneuralnetworksAPI(programmingframework),writteninPythonandcapableofrunningontopofsever
深海里的鱼(・ω<)★
·
2024-01-16 02:03
人工智能
机器学习
深度学习
keras
深度学习
tensorflow
吴恩达深度学习
第二课-第一周笔记及课后编程题
笔记训练_开发_测试集小数据时代训练集/测试集的分配比例大致遵循70%/30%或训练集/开发集(或crossvalidationset)/测试集的分配比例大致遵循60%/20%/20%大数据时代只要开发集能够确定哪一个算法/模型有更好的表现,测试集能够无偏评估模型的性能,就称赋予了开发集、测试集足够的数据量了;训练集将被赋予更大比重的数据量。如:训练集/开发集/测试集的比率为98%/2%/2%注:
Giraffeee_
·
2024-01-16 02:01
吴恩达深度学习
深度学习
人工智能
机器学习
吴恩达深度学习
--神经网络的优化(1)
1.训练集,验证集,测试集选择最佳的Train/Dev/Testsets非常重要。除此之外,构建神经网络时,需要设置的参数很多:神经网络层数,神经元个数,学习率的大小。激活函数的选择等等。实际上很难第一次就确定好这些参数,大致过程是:先确定初始参数,构建神经网络模型,然后通过代码实现该模型,之后进行试验确定模型的性能。根据性能再不断调整参数,重复上述过程,直到让神经网络模型最优。由上述可知,深度学
Kangrant
·
2024-01-16 02:30
吴恩达深度学习
计划1
1.吴恩达DL2021(强推|双字)2021版
吴恩达深度学习
课程Deeplearning.ai_哔哩哔哩_bilibiliPart1神经网络与深度学习(6+19+12+8)共45Part2训练、开发、测试集
JLcucumber
·
2024-01-12 11:54
吴恩达深度学习
笔记(50)-超参数训练的实践
超参数训练的实践:PandasVSCaviar(Hyperparameterstuninginpractice:Pandasvs.Caviar)到现在为止,你已经听了许多关于如何搜索最优超参数的内容,在结束我们关于超参数搜索的讨论之前,我想最后和你分享一些建议和技巧,关于如何组织你的超参数搜索过程。如今的深度学习已经应用到许多不同的领域,某个应用领域的超参数设定,有可能通用于另一领域,不同的应用领
极客Array
·
2024-01-09 05:56
2019年上半年收集到的人工智能迁移学习干货文章
迁移学习之最大分类器差异的无监督域适应
吴恩达深度学习
笔记(67)-迁移学习(Transferlearning)深度学习不
城市中迷途小书童
·
2024-01-04 20:11
吴恩达深度学习
intuition
这里是看吴恩达课程的一些记录和联想(因为以前听过,因此不会很细致,只做个人记录)课程链接首先提到trainingset,validationset(devset),testset的分割问题。老师提到,最常用的划分方法传统方法是三七分(也就是training70%,validation+test30%,一般而言validation20%test10%),同时,这也是应对数据集不太大的时候的方法。也可
Karen_Yu_
·
2024-01-04 16:11
机器学习
吴恩达深度学习
笔记(2)-什么是神经网络(Neural Network)
什么是神经网络?(WhatisaNeuralNetwork)我们常常用深度学习这个术语来指训练神经网络的过程。有时它指的是特别大规模的神经网络训练。那么神经网络究竟是什么呢?在这个视频中,会讲解一些直观的基础知识。首先,让我们从一个房价预测的例子开始讲起。假设你有一个数据集,它包含了六栋房子的信息。所以,你知道房屋的面积是多少平方英尺或者平方米,并且知道房屋价格。这时,你想要拟合一个根据房屋面积预
极客Array
·
2023-12-27 20:02
吴恩达深度学习
笔记(28)-网络训练验证测试数据集的组成介绍
从今天开始我们进入新的一个大方向了,改善深层神经网络:超参数调试、正则化以及优化,首先进入深度学习的一个新层面,先认识下在深度学习中的数据集的分类。之前可能大家已经了解了神经网络的组成的几个部分,那么我们将继续学习如何有效运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。训练,验证,测试集(Train/Dev/Testsets)在
极客Array
·
2023-12-21 06:18
吴恩达深度学习
-序列模型 3.10触发字监测 + 课程总结
今天学习的是触发字检测,这个说起来可能有点学术,但是简单来说就是。hey,siri!然后你的手机就会亮起来,这就是触发字检测。首先,关于触发字检测还处于发展阶段,并没有一个以绝对优势取胜的算法。如果我们想建立一个算法,那么我们首先要知道数据集如何进行标记,如果从简单的结果来想,我们可以在每次完成一次触发字之后的那个时间设置为1,其他时间设置为0。但这样做是有一些问题的,因为大部分时间是不会触发的,
prophet__
·
2023-12-20 12:21
深度学习记录--矩阵维数
如何识别矩阵的维数如下图矩阵的行列数容易在前向和后向传播过程中弄错,故写这篇文章来提醒易错点顺便起到日后查表改错的作用本文仅作本人查询参考(摘自
吴恩达深度学习
笔记)
蹲家宅宅
·
2023-12-17 11:02
深度学习记录
深度学习
矩阵
人工智能
吴恩达深度学习
笔记(36)-神经网络的梯度消失/梯度爆炸
梯度消失/梯度爆炸(Vanishing/Explodinggradients)训练神经网络,尤其是深度神经所面临的一个问题就是梯度消失或梯度爆炸,也就是你训练神经网络的时候,导数或坡度有时会变得非常大,或者非常小,甚至于以指数方式变小,这加大了训练的难度。这节课,你将会了解梯度消失或梯度爆炸的真正含义,以及如何更明智地选择随机初始化权重,从而避免这个问题。假设你正在训练这样一个极深的神经网络,为了
极客Array
·
2023-12-05 23:01
吴恩达深度学习
笔记(45)-Adam 优化算法(Adam optimization)
Adam优化算法(Adamoptimizationalgorithm)在深度学习的历史上,包括许多知名研究者在内,提出了优化算法,并很好地解决了一些问题,但随后这些优化算法被指出并不能一般化,并不适用于多种神经网络,时间久了,深度学习圈子里的人开始多少有些质疑全新的优化算法,很多人都觉得动量(Momentum)梯度下降法很好用,很难再想出更好的优化算法。所以RMSprop以及Adam优化算法,就是
极客Array
·
2023-11-30 04:58
吴恩达深度学习
(六)
超参数调整第一课:调整过程调整神经网络的过程包含了对许多不同超参数的设置,那么怎么样为这些参数找到比较合适的设定值呢?准则和系统化进行超参数设置的技巧将帮助你更加快速有效的获得合适的超参数。在深度神经网络训练中,面对大量的超参数,包括学习速率α、动量超参数β1、Adam优化算法中的超参数β2和ε、网络层数以及每层网络中隐藏单元的数量、学习率衰减情况下不可能只有单一的学习率、mini-batch的大
带刺的小花_ea97
·
2023-11-29 02:12
2023-11-21时间记录
听英语课程深度学习阅读书籍,也可以练练字今天干了什么2023-11-21时间记录8:30(下床)10:00(开始学习)学习输出8:30(下床)洗漱煮蛋,9:45出门10:00(开始学习)10:00-11:30英语听力
吴恩达深度学习
多喝开水少熬夜
·
2023-11-25 14:37
学习计划与实际
学习
吴恩达深度学习
Course1-Week(3)
吴恩达深度学习
Course1-Week(3)文章目录
吴恩达深度学习
Course1-Week(3)一、什么是神经网络NeuralNetwork?
木心
·
2023-11-23 19:35
DeepLearning
神经网络
深度学习
机器学习
吴恩达深度学习
Course1-Week(1)(2)
吴恩达深度学习
Course1-Week(1)(2)文章目录
吴恩达深度学习
Course1-Week(1)(2)一、影响神经网络的性能的因素二、逻辑回归(logisticregression)中的一些符号(
木心
·
2023-11-23 19:05
DeepLearning
深度学习
神经网络
机器学习
吴恩达深度学习
Course2-Week(1)
吴恩达深度学习
Course2-Week(1)文章目录一、Train/Dev/Test二、为什么双边导数的定义精度更高?
木心
·
2023-11-23 19:05
DeepLearning
深度学习
机器学习
吴恩达深度学习
笔记5-Course2-Week1【深度学习的实用层面】
改善深层神经网络:超参数调试、正则化以及优化深度学习的实用层面一、训练、验证、测试集样本数据分成以下三个部分:训练集(trainset):用于对模型进行训练。验证集(hold-outcrossvalidation/developmentset):对不同模型进行评估。测试集(testset):对选取的模型进行无偏评估。node:验证集要和训练集最好来自于同一个分布,可以使得机器学习算法变快。如果不需
Wang_Jiankun
·
2023-11-23 19:28
吴恩达深度学习
吴恩达深度学习笔记
深度学习
神经网络
吴恩达
吴恩达深度学习
笔记8-Course3-Week1【机器学习策略(ML Strategy)1】
结构化机器学习项目机器学习策略(MLStrategy)1一、机器学习策略介绍(IntroductiontoMLStrategy)1、机器学习策略就是超参数调优的策略,怎么调?怎们评估调优的效果?调哪些超参的效果更好?超参数调优的次序?下图是一些经常调优的超参:2、正交化(Orthogonalization)正交化或正交性是一种系统设计属性,可确保修改算法的某一部分不会对系统的其他部分产生或传播副作
Wang_Jiankun
·
2023-11-23 19:58
吴恩达深度学习
吴恩达深度学习笔记
吴恩达
深度学习
吴恩达深度学习
课后编程作业IndexError: only integers, slices (`:`), ellipsis (`...`), numpy.newaxis (`None`) and i
吴恩达深度学习
课后编程作业出现的错误IndexError:onlyintegers,slices(":“),ellipsis(”…"),numpy.newaxis(“None”)andintegerorbooleanarraysarevalidindices
坤坤不爱吃鱼
·
2023-11-23 05:33
机器学习及深度学习
python
机器学习
深度学习
神经网络
(五)比赛中的CV算法(下5)检测网络调优(2)CV中的注意力机制
若想要理解上述注意力机制的来源,请学习和NLP和RNN相关的知识:
吴恩达深度学习
-序列模型,这是因为在计算机视觉
HNU跃鹿战队
·
2023-11-15 00:06
深度学习
计算机视觉
卷积神经网络
目标检测
机器学习
吴恩达深度学习
--logistic回归中的梯度下降法
如果要对一个例子进行梯度下降,需要用公式算出dz,然后算出dw1、dw2、db,然后进行更新w1、w2、b我们关心得J(w,b)是一个平均函数,这个损失函数L。a^i是训练样本的预测值以上是对于单个例子的逻辑回归。我们可以初始化J=0,dw1dw2db都为0回顾我们正在做的细节,dw1、dw2、db作为累加器
862180935588
·
2023-11-03 04:14
循环神经网络
为了学习编码器-译码器架构,可能需要涉及transformer,循环神经网络,序列到序列的知识,这里将循环神经网络作为起点进行学习,参考学习的是
吴恩达深度学习
课程。本文主要涉及单隐层循环
Alex·Fall
·
2023-10-30 05:02
深度学习
rnn
神经网络
深度学习
人工智能
吴恩达深度学习
笔记(一)——第一课第二周
深度学习概论什么是神经网络上图的单神经元就完成了下图中函数的计算。下图的函数又被称为ReLU(修正线性单元)函数复杂的神经网络也是由这些简单的单神经元构成。实现后,要得到结果,只需要输入即可。x那一列是输入,y是输出,中间是隐藏单元,由神经网络自己定义用神经网络进行监督学习领域所用的神经网络房产预测等领域标准架构StandardedNN计算机视觉卷积神经网络CNN音频,文字翻译(一维序列问题)循环
Laurie-xzh
·
2023-10-29 16:57
吴恩达深度学习笔记
深度学习
神经网络
机器学习
吴恩达深度学习
-序列模型 2.7 负采样
这节课学习的同样是一个监督学习嵌入向量的模型,上节课的skip-gram使用的softmax分类器求和带来的计算量太大了,这节课使用的算法可以避免这个问题。这节课名字叫做负采样,那么正采样呢?我们还是像上节课一样,在一句话里随机选出一个context,然后在一定的词距范围内选择一个词。这两个词组成的一个pair就叫做正样本,然后再在词典当中随机选择一个词,把它们设置成不相关,这就叫做负样本,这些随
prophet__
·
2023-10-28 10:32
循环神经网络(Recurrent Neural Network Model)
来源:Coursera
吴恩达深度学习
课程上篇文章介绍了RNN的数学符号(Notation),现在我们讨论一下怎样才能建立一个神经网络来学习X到Y的映射。如下图所示。
双木的木
·
2023-10-23 23:35
吴恩达深度学习笔记
深度学习知识点储备
笔记
神经网络
python
机器学习
人工智能
深度学习
吴恩达深度学习
编程作业报错解决方法汇总
概述及资源分享大二结束后的暑假,学习
吴恩达深度学习
([双语字幕]
吴恩达深度学习
deeplearning.ai_哔哩哔哩_bilibili)的课程,在做编程作业的时候总是遇到一些报错,尤其是导入所需要的库的时候会报一些
就喜欢你看不惯我又干不掉我的样子Hhhh
·
2023-10-22 04:02
人工智能
深度学习
吴恩达深度学习
--m个样本的梯度下降
我们关心得J(w,b)是一个平均函数,这个损失函数L。a^i是训练样本的预测值以上是对于单个例子的逻辑回归。我们可以初始化J=0,dw1dw2db都为0回顾我们正在做的细节,dw1、dw2、db作为累加器
862180935588
·
2023-10-19 22:46
收集一些有用的网址
1.
吴恩达深度学习
课后作业汇总2.机器学习基石课后练习汇总3.sublimetext主题生成器持续更新
Sundw_RUC
·
2023-10-19 10:07
deep learning日常小Bug汇总
1.在做
吴恩达深度学习
课第一课第三周作业时,发现梯度不变,后来找到原因是因为1和1.0。。
AI算法札记
·
2023-10-19 10:29
Debug
deep
learning
吴恩达深度学习
--向量化的更多例子
需要记住的经验之谈:当你在编写神经网络或逻辑回归时,都要尽可能避免使用显示的for循环,有时候无法完全避免for循环,但如果能使用内置函数或其他方法来计算想要的答案,通常会比直接用for循环跟快例子1:你想要计算向量U,它是矩阵A和向量V的乘积:根据矩阵乘法的定义:非向量化的实现方法是;这是一个两层的for循环,分别对i和j进行循环向量化的实现方式是:消除了两层for循环,运行速度要快的多例子2:
862180935588
·
2023-10-17 11:12
如何理解深度学习中迁移学习、预训练、微调的概念
说明本文为观看
吴恩达深度学习
课程视频所做的学习笔记吴恩达deeplearning.aiPart3结构化机器学习项目第二周机器学习(ML)策略(2)2.7迁移学习正文假设已经训练好一个图像识别神经网络,如果让这个图像识别神经网络适应或者说迁移不同任务中学到的知识
全幼儿园最聪明
·
2023-10-15 04:13
计算机视觉
深度学习
迁移学习
机器学习
吴恩达深度学习
笔记(31)-为什么正则化可以防止过拟合
为什么正则化有利于预防过拟合呢?(Whyregularizationreducesoverfitting?)为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?我们通过两个例子来直观体会一下。左图是高偏差,右图是高方差,中间是JustRight,这几张图我们在前面课程中看到过。现在我们来看下这个庞大的深度拟合神经网络。我知道这张图不够大,深度也不够,但你可以想象这是一个过拟合的神经网络。这是
极客Array
·
2023-10-14 20:17
深度学习自学2.0
pytorch4.搭建模型:霹雳叭啦/Bubbliiing/深度学习麋了鹿进阶:1.opencv数字图像处理夯实图像处理基础2.动手学深度学习李沐/css斯坦福李飞飞计算机视觉3.大量阅读论文+自己搭建改进模型入门
吴恩达深度学习
吴恩达深度学习
霹雳吧啦
咬树羊
·
2023-10-14 17:19
深度学习
python
人工智能
吴恩达深度学习
第二门课第一周总结
吴恩达深度学习
第二门课第一周总结一、梯度消失/爆炸及解决办法二、正则化方法先上目录:从目录可以看到第一周主要解决了两个问题:过拟合,预防梯度消失/梯度爆炸。现在分别来讨论并进行代码实现。
半个女码农
·
2023-10-12 00:37
深度学习
神经网络
吴恩达深度学习
正则化
吴恩达深度学习
第一门课学习总结
吴恩达老师深度学习第一门课的核心就是理解前向传播,计算cost,反向传播三个步骤(其实只要静下心来把教程里的公式在草稿纸上推一遍,也不会很难),吴恩达老师主要是通过逻辑回归来讲解这些概念首先是如何处理输入样本,对于一张彩色图片,具有RGB三个通道,在计算机上就是通过三个矩阵来存储通道里的像素值,如上图中dpi的彩图,其像素个数就有,我们需要用一个特征向量x来表示这张图片,特征向量的维度就是图片的像
半个女码农
·
2023-10-12 00:37
神经网络
深度学习
神经网络概念
前向传播
反向传播
LSTM在text embedding中的作用(Cross modal retrieval)
如图
吴恩达深度学习
课程中LSTM结构图: 相比于原始的RN
__main__
·
2023-10-09 01:00
深度学习
pytorch
cross
modal
retrieval
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他