E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习课程编程作业
运行
吴恩达
课后测试显示No module named ‘ipympl‘
查询其他方法无效condainstallipympl一直加载,转不出pipinstallipympl能下载安装但是打开book运行依旧报错清华源conda报错解决方法pip能下载,所以使用pip。而一开始下载了也不能用是因为路径有问题,下错地方了。直接打开prompt,我的默认路径并不是Ancona的包的路径所以我们将它改过去1、输入x:x为你的盘符,先定位到安装的盘2、cd包的所在位置,定位到文
包饭厅咸鱼
·
2022-12-20 14:58
动手学习深度学习
python
jupyter book执行lab报错No module named ‘ipympl‘
吴恩达
机器学习_代价函数lab执行报错执行C1_W1_Lab04_Cost_function_Soln.ipynb中代码时报错Nomodulenamed‘ipympl’,解决方法如下:1.关闭jupyternotebook
外星男神欧买噶i
·
2022-12-20 14:53
jupyter
python
matplotlib
week 7
编程作业
tensorflow 错误汇总
折腾了一早上,终于可以在jupyternotebook中运行了。感觉错误都被我遇见了一、多个python解释器的问题我有两个python一个是3.7,一个是3.9在pycharm中使用的是d盘的3.9在jupyternotebook中使用的是c盘的3.7默认安装我是安装在了d盘中所以导致我安装了tensorflow但在jupyternotebook中确不能用。需要进入我c盘的pip.exe输入cm
爱吃肉c
·
2022-12-20 13:35
深度学习吴恩达
tensorflow
python
深度学习
吴恩达
·2022机器学习专项课程|House Price Prediction
HousePricePredictionImportimportcopy,mathimportnumpyasnpimportmatplotlib.pyplotaspltLoadDatasetdefload_house_data():data=np.loadtxt("./data/houses.txt",delimiter=',',skiprows=1)X=data[:,:4]y=data[:,4]
ZhuYuxi333
·
2022-12-20 12:41
机器学习
人工智能
python
【
吴恩达
·2022机器学习专项课程】Logistic Regression -Gradient Descent
GradientDescentRecallthegradientdescentalgorithmutilizesthegradientcalculation:repeatuntilconvergence: { wj=wj−α∂J(w,b)∂wj forj:=0..n-1 b=b−α∂J(w,b)∂b}\begin{align*}&\text{repeatuntilc
ZhuYuxi333
·
2022-12-20 12:10
机器学习
python
numpy
吴恩达
《机器学习》笔记——第一章《介绍》
吴恩达
在视频中提了两个定义:ArthurSamuel(19
肥胖边缘疯狂蹦迪
·
2022-12-20 12:07
机器学习
机器学习
人工智能
带你少走弯路:强烈推荐的TensorFlow快速入门资料和翻译(可下载)
知识更新非常快,需要一直学习才能跟上时代进步,举个例子:
吴恩达
老师在深度学习课上讲的TensorFlow使用,这个肯定是他近几年才学的,因为谷歌开源了TensorFlow也就很短的时间。
风度78
·
2022-12-20 09:52
机器学习----线性回归
以前在学习的时候感觉这部分很通畅,没遇到什么大问题,但是昨天复习的时候竟然被几个简单概念给卡主了,最后还是开了
吴恩达
教授的视频才恍然大悟的,哎正不知道该说什么了。在正式分析之前,先简单讲几个概念,后
Sunshine_in_Moon
·
2022-12-19 17:12
0SError: ‘./deeplearning. mplstyle‘ not found in the style library
将
吴恩达
老师的deeplearning.mplstyle引入当前自己运行的文件所处的统一文件夹下即可。
weixin_48843412
·
2022-12-19 12:49
吴恩达
python
module tensorflow keras layers has no attribute normalization
原因在运行
吴恩达
C2-W1-Lab02的code时报错,说在文件中找不到该文件。
weixin_48843412
·
2022-12-19 12:41
吴恩达
tensorflow
python
一文详解层次聚类(Python代码)
推荐文章有人把
吴恩达
老师的机器学习和深度学习做成了
Python数据挖掘
·
2022-12-19 10:22
python
聚类
python
机器学习
Machine Learning - Coursera
吴恩达
机器学习教程 Week1 学习笔记
机器学习的定义ArthurSamuel传统定义ArthurSamuel:“thefieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.”Thisisanolder,informaldefinition.让计算机无需明确编程,就有学习能力。TomMitchell现代定义TomMitchell:“
zhang35
·
2022-12-19 10:39
机器学习
机器学习
人工智能
吴恩达
机器学习:week2
title:‘
吴恩达
机器学习:week2’date:2019-11-2015:31:00mathjax:truecategories:机器学习tags:机器学习文章目录@[toc]单变量线性回归(LinearRegressionwithOneVariable
胖虎艾春辉
·
2022-12-19 10:05
机器学习
学生
吴恩达机器学习:week2
吴恩达
Machine Learning_Week 1 学习笔记
MachineLearning_Week11引言1.1机器学习的定义1.2监督学习1.2无监督学习2单变量线性回归2.1ModelRepresentation2.2CostFunction2.3GradientDescent2.4GradientDescentForLinearRegression1引言1.1机器学习的定义机器学习程序指的是该程序被认为能从经验E中学习,进而解决任务T,并达到性能度
来来
·
2022-12-19 10:35
机器学习
吴恩达
机器学习:week1
title:
吴恩达
机器学习:week1date:2019-11-0317:41:46categories:机器学习tags:机器学习第1周文章目录第1周1.1欢迎1.2机器学习是什么?
胖虎艾春辉
·
2022-12-19 10:35
自然语言处理
python
机器学习
吴恩达机器学习:week1
【学习笔记】Machine Learning.
吴恩达
(Week1)
假期到了,趁此良机给自己充充电,选择了Coursera网站上的MachineLearning课程学习,本系列文章为个人学习笔记,主要记录一些自己觉得比较新鲜知识及思考,没有申请加入课程,也没有买下课程,所以只有免费的视频笔记。欢迎大家讨论交流。课程地址:Coursera|OnlineCourses&CredentialsFromTopEducators.JoinforFree|CourseraLe
无星之夜的咏叹调
·
2022-12-19 10:03
学习
机器学习
【深度之眼】
吴恩达
《机器学习》作业——week1无监督学习
无监督学习与监督学习不同,无监督学习是指对没有标签的数据进行学习,或者说对没有正确答案的数据进行学习,一个例子如下所示。我们希望我们的机器学习算法能够自动的将图中的数据分为左下和右上这两类。类似这种探寻数据内在结构,通过算法对无标签数据进行划分族群的算法称为聚类分析。比如我们在网上看新闻的时候我们会发现类似的新闻会被归为一类,例如体育,娱乐,经济,政治等等。我们知道成数十万以上的新闻是不可能有标签
曹文杰1519030112
·
2022-12-19 10:01
吴恩达机器学习笔记
算法
机器学习
人工智能
Coursera机器学习
吴恩达
-Week1
机器学习定义ArthurSamuel(1959).MachineLearning:Fieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.使机器在没有明确编程上的研究领域具备学习的能力.TomMitchell(1998)Well-posedLearningProblem:Acomputerpro
ox180x
·
2022-12-19 10:00
机器学习
人工智能
[
吴恩达
机器学习课程笔记] week three 无监督学习
无监督学习定义在聚类问题中,我们给出一个训练集{x1,…,xm},期望将数据分成一些有凝聚力的“簇”。这里的xi通常属于实数;但是数据集并没有标签y给出,所以这就是一个无监督学习问题。K-means算法最常用的基于欧式距离的聚类算法,其认为两个目标的距离越近,相似度越大。K的数量选择最好的办法:手动选择。牧师-村民模型K-means有一个著名的解释:牧师—村民模型:有四个牧师去郊区布道,一开始牧师
mossfan
·
2022-12-19 10:29
机器学习
机器学习
学习
聚类
吴恩达
Coursera课程——第一部分:监督学习Week1
本人ML小白一枚,知识的学习和笔记的整理也借鉴了多位大佬的知识,一起加油~~一、机器学习1、定义Tom认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。监督学习:教会计算机完成某项任务。非监督学习:让计算机自己学习完成某项任务。案例:医疗、自动驾驶、读手语、音乐生成、自然语言处理的案例。2、监督学习给算法一个数据集,其中包含了正确
jqqjrr123
·
2022-12-19 10:57
学习
人工智能
吴恩达
机器学习笔记week1——初识机器学习
吴恩达
机器学习笔记week1——初识机器学习1-1.欢迎参加《机器学习》课程1-2.什么是机器学习?
Saulty
·
2022-12-19 10:55
机器学习
吴恩达
深度学习 2.3 改善深层神经网络-超参数调试和Batch Norm
1.知识点超参数的选择有一些超参数,在一个范围内进行均匀随机取值,比如神经网络层数、神经元个数。有一些超参数,需要在更小的范围内随机取值,比如,学习率需要在0.001至0.01间进行均匀随机取值。神经网络中激活值的归一化BatchNorm由激活输入z计算期望、方差。用期望和方差标准化z,。平移,。在神经网络中使用BatchNormBatchNorm梯度下降:也是模型参数,需要和w、b一样用梯度更新
垚焱焱
·
2022-12-19 09:58
深度学习
吴恩达
深度学习笔记 course2 week3 超参数调试,Batch Norm,和程序框架
1.TuningProcess对超参数的一个调试处理一般而言,在调试超参数的过程中,我们通常将学习率learning_rate看作是最重要的一个超参数,其次是动量梯度下降因子β(一般为0.9),隐藏层单元个数,mini-batchsize,再然后是layers,learningratedecacy.当然,这并不是绝对的.在adam算法中,β1,β2,ε通常取值为0.9,0.999,10-8调试超参
weixin_30872733
·
2022-12-19 09:57
人工智能
吴恩达
深度学习第二课第三周作业及学习心得体会 ——softmax、batchnorm
写在前面本周课程用了两周完成,因为课程让用tensorflow实现,编码时还是更希望自己手写代码实现,而在实现过程中,低估了batchnorm反向计算的难度,导致算法出现各种bug,开始是维度上的bug导致代码无法运行,等代码可以运行时,训练神经网络的时候成本又总会发散,于是静下心来把整个运算的前向和反向过程认真推导了好几遍,期间参考网上一些资料,但感觉都没有把问题真正说清楚,连续三天的推导后,才
袁野_0073
·
2022-12-19 09:57
深度学习
吴恩达
softmax
batchnorm
吴恩达
week6 ~批量梯度下降 指数加权平均 动量梯度下降 学习率衰减 Adam
文章目录前言一、小批量梯度下降mini-batch1、batchgradientdescent2、stochasticgradientdescent3、mini-batchgradientdescent二、指数加权平均1.什么是指数加权平均2、理解指数加权平均3、与普通求平均值的区别4、指数加权平均的偏差修正三、gradientdescentwithmomentum四、RMSprop五、适应性矩估
爱吃肉c
·
2022-12-19 09:56
深度学习吴恩达
人工智能
深度学习
吴恩达
深度学习课程
翻译
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)第一周:深度学习引言(IntroductiontoDeepLearning)1.1欢迎(Welcome)11.2什么是神经网络?(WhatisaNeuralNetwork)1.3神经网络的监督学习(SupervisedLearningwithNeuralNetworks)1.4为什么神经网络会流行?(Whyis
青竹aaa
·
2022-12-19 09:55
深度学习
人工智能
深度学习
深度学习-
吴恩达
-笔记-7-超参数调试、Batch正则化和程序框架
测试时的BatchNormSoftmax回归(Softmaxregression)训练一个Softmax分类器深度学习框架TensorFlow【此为本人学习
吴恩达
的
深度学习课程
的笔记记录,有错误请指出!
Leon.ENV
·
2022-12-19 09:24
深度学习
深度学习
神经网络
吴恩达
深度学习笔记7-Course2-Week3【超参数调试、Batch 正则化和程序框架】
超参数调试、Batch正则化和程序框架一、超参数调试(hyperparametertuning)推荐的超参数重要性排序:1、学习率(learningrate):α2、隐藏神经单元(hiddenunits);mini-batch的大小(mini-batchsize);β(momentum)3、神经网络层数(layers);学习率衰减率(learningratedecay)4、Adam优化算法的其它超
Wang_Jiankun
·
2022-12-19 09:53
吴恩达深度学习
吴恩达深度学习笔记
深度学习
神经网络
吴恩达
吴恩达
《深度学习专项》笔记(七):调参、批归一化、多分类任务、编程框架
学习提示这周的知识点也十分分散,主要包含四项内容:调参、批归一化、多分类任务、编程框架。通过在之前的编程项目里调整学习率,我们能够体会到超参数对模型效果的重要影响。实际上,选择超参数不是一个撞运气的过程。我们应该有一套系统的方法来快速找到合适的超参数。两周前,我们学习了输入归一化。类似地,如果对网络的每一层都使用归一化,也能提升网络的整体表现。这样一种常用的归一化方法叫做批归一化。之前,我们一直都
大局观选手周弈帆
·
2022-12-19 09:23
吴恩达深度学习
深度学习
分类
算法
week 7
吴恩达
调参 ,batch norm,softmax
文章目录前言7.1调整参数的过程Turingprogress7.2、scale7.3如果在实践中探寻超参数7.4batchnormalization批量归一化7.5将BN算法拟合到神经网络中7.6为什么BN有效?7.7测试时的BN7.87.9softmaxregression7.10深度学习的框架前言7.1调整参数的过程Turingprogress对于维度小,数据少的数据,我们可以采取普通的网格搜
爱吃肉c
·
2022-12-19 09:52
深度学习吴恩达
batch
python
深度学习
机器学习——
吴恩达
机器学习——
吴恩达
inductionSupervisedlearningUnsupervisedlearningmodelexamplehowtoworkdefinecostfunctiongradientdescentforminimizingthecostfunctionGradientdescentforlinearregressionMatrixandVector
静妮子i
·
2022-12-18 15:43
吴恩达系列课程
机器学习
吴恩达
课程总结(一)
文章目录1.第一章简介1.1机器学习(MachineLearning)1.2有监督学习(SupervisedLearning)1.3无监督学习(UnsupervisedLearning)2.第二章线性回归(LinearRegression)2.1假设函数(hypothesis)2.2代价函数(costfunction)2.3简化(Simplified)2.4重新加入θ0{\theta_0}θ0分析
zqwlearning
·
2022-12-18 15:40
机器学习
机器学习
机器学习(
吴恩达
)
我们在上一章已经定义了可视化函数J,我们所要找的目标就是让可视化函数J达到最小值,那么我们要用什么样的方法呢这里我们采用梯度下降法,这是一种常见的算法,他不仅仅可以用在线性回归上,还可以用在其他函数上。1.赋予初始值(一般是0,0)2.不停改变使J变小,搜寻下降速度最快的方向3.直到我们找到最小值的局部收敛点,当然不一样的初始值他的局部收敛点也不一样。这里的被成为一个学习率的数字,它用来控制梯度下
Mr529302
·
2022-12-18 15:09
人工智能
算法
[Machinie Learning]
吴恩达
机器学习课程笔记——Week5
MachineLearningbyAndrewNg
吴恩达
机器学习课程学习笔记——Week5本人学习笔记汇总合订本✓课程网址standfordmachinelearning参考资源课程笔记python版作业学习提纲
Carsick Car
·
2022-12-18 14:36
Machine
Learning
人工智能
python
机器学习(
吴恩达
)
定义:计算机程序从经验E中学习,解决某一任务T,进行某一性能度量P,通过P测定在T上的表现因经验E而提高,以跳棋游戏为例,经验E就是程序与自己下几万次跳棋,任务T就是玩跳棋,性能度量P就是与新对手玩跳棋时赢的概率。目前有各种不同类型的学习算法,主流的是监督学习和无监督学习。监督学习就是个我们会教计算机做某件事情,无监督学习就是我们让计算机自己学习。监督学习:我们给算法一个数据集,其中包含了正确答案
Mr529302
·
2022-12-18 14:35
人工智能
算法
深度学习精炼图笔记
吴恩达
在推特上展示了一份由TessFerrandez完成的深度学习专项课程信息图,这套信息图优美地记录了
深度学习课程
的知识与亮点。
可基大萌萌哒的马鹿
·
2022-12-18 09:39
pytorch
深度学习
人工智能
22张深度学习精炼图笔记总结
吴恩达
在推特上展示了一份由TessFerrandez完成的深度学习专项课程信息图,这套信息图优美地记录了
深度学习课程
的知识与亮点。
Evan-yzh
·
2022-12-18 09:09
神经网络
算法
python
计算机视觉
机器学习
python深度学习之深层神经网络基础与图像分类
前言本文参考
吴恩达
老师的机器学习课程作业,结合自己的理解所作笔记文章目录前言1、热身:创建并初始化二层神经网络2、进阶:L层神经网络第一部分——正向传播(1)初始化参数initialize_parameters_deep
英雄各有见
·
2022-12-18 08:53
python深度学习
python机器学习
深度学习
python
神经网络
吴恩达
第一门课 神经网络和深度学习 第一周:深度学习引用
前言
吴恩达
第一门课神经网络和深度学习第一周:深度学习引用一、Welcome在第一门课程中,你将会学习如何建立神经网络(包含一个深度神经网络),以及如何在数据上面训练他们。
老干妈拌士力架
·
2022-12-18 07:44
深度学习
深度学习
神经网络
机器学习
吴恩达
深度学习第一门课第二周:神经网络的编程基础
逻辑回归中的梯度下降十、m个样本的梯度下降十一、向量化十二、向量化的更多例子十三、向量化逻辑回归十四、向量化逻辑回归的梯度输出十五、Python中的广播十六、关于python_numpy向量的说明第二周作业前言
吴恩达
深度学习第一门课第二周
老干妈拌士力架
·
2022-12-18 07:44
深度学习
深度学习
神经网络
机器学习
第二门课第一周:深度学习的实践层面
、正则化五、为什么正则化有利于预防过拟合六、dropout正则化七、理解dropout八、其他正则化方法九、归一化输入十、梯度消失/梯度爆炸十一、神经网络的权重初始化十二、梯度的数值逼近十三、梯度检验
编程作业
一
老干妈拌士力架
·
2022-12-18 07:44
深度学习
深度学习
人工智能
机器学习
吴恩达
深度学习第四课第一周 卷积神经网络
文章目录前言一、计算机视觉(引言)二、边缘检测示例(过滤器)三、更多边缘检测内容(由亮到暗还是由暗到亮?)四、Padding(Valid、Same、p)五、卷积步长(s)六、三维卷积(通道)七、单层卷积网络八、简单卷积网络示例(Conv,POOL,FC)九、池化层(maxpooling、averagepooling)十、卷积神经网络示例十一、为什么使用卷积?第一周作业情景引入资料下载完整代码前言<
老干妈拌士力架
·
2022-12-18 07:13
深度学习
深度学习
cnn
计算机视觉
机器学习入门
机器学习入门——
吴恩达
网课笔记文章目录机器学习入门——
吴恩达
网课笔记序一、监督学习与无监督学习二、基础概念1.假设函数2.代价函数3.梯度下降算法序本系列是我尝试在CSDN记录自己学习经历的第一步,希望能坚持下去
BeHumblePlease
·
2022-12-17 23:47
机器学习
python
机器学习
2022
吴恩达
机器学习课程——第二课(神经网络)
注:参考B站视频教程视频链接:【(强推|双字)2022
吴恩达
机器学习Deeplearning.ai课程】文章目录第一周一、神经元二、神经网络三、代码实现&Tensorflow四、前向传播五、强人工智能六
now_try_
·
2022-12-17 16:18
深度学习入门
神经网络
人工智能
吴恩达
机器学习3——逻辑回归、正则化
机器学习第三周一、逻辑回归1.分类问题1.1分类的概念1.2使用线性回归来解决分类模型1.3逻辑回归模型1.4分类边界2.逻辑回归模型logisticregression2.1代价函数2.2梯度下降2.3高级优化方法3.多类别分类:一对多二、正则化1.过拟合问题2.修改代价函数实现正则化3.正则化线性回归4.正则化逻辑回归一、逻辑回归1.分类问题在监督学习的分类中,我们了解到有回归问题和分类问题。
old sweet ᝰ
·
2022-12-17 15:19
机器学习
机器学习简介
此篇文章旨在介绍机器学习的实际应用,所以对算法的原理介绍可能会不是很清楚,想了解清楚的可以看看B站
吴恩达
(稍简
Wolves_YY
·
2022-12-17 13:34
机器学习
matlab
人工智能
机器学习
吴恩达
第三周 编程题 浅神经网络
文章目录一、完整代码1、更新隐藏节点数二、代码解释1、是关于planar_utils.py中的函数2、plt.scatter参数一、完整代码#-*-coding:utf-8-*-"""本文博客地址:https://blog.csdn.net/u013733326/article/details/79702148@author:Oscar"""importnumpyasnpimportmatplot
爱吃肉c
·
2022-12-17 13:20
深度学习吴恩达
神经网络
python
sklearn
吴恩达
第3周第四周一些测试题目
文章目录一、第三周1、关于初始化权重和b为0的问题二、第四周1、层间for循环2、w和b初始化一、第三周参考此博客,有中文和英文题目和答案1、关于初始化权重和b为0的问题Logistic回归的权重w应该随机初始化,而不是全零,因为如果初始化为全零,那么逻辑回归将无法学习到有用的决策边界,因为它将无法“破坏对称性”,是正确的吗?A.TrueB.False答案:B因为:Logistic回归没有隐藏层。
爱吃肉c
·
2022-12-17 13:50
深度学习吴恩达
python
算法
深度学习
机器学习
吴恩达
编程作业
题5—正则化线性回归和偏差/方差
1、正则化线性回归1.1可视化数据集我们将从可视化数据集开始,其中包含水位变化的历史记录x和流出水坝的水量y。将实现线性回归,并使用它来拟合数据的直线并绘制学习曲线。将实现多项式回归,以找到更好的数据拟合。复制ex5data1数据集到D:\MachineLearning\ex5目录下。直接调用plot函数进行数据集的绘制。1.2正则化线性回归成本函数和梯度注意,你不应该正则化θ0项。在当前目录下建
身影王座
·
2022-12-17 13:49
#
机器学习吴恩达(基础)
深度学习
人工智能
算法
机器学习
Octave
【深度学习】
吴恩达
-学习笔记 偏差与方差、正则化、梯度检测、mini-batch
目录深度学习偏差与方差L2范数正则化(权重衰减),减少方差Dropoutregularrization(随机失活正则化)数据扩增可以作为一种正则化方法使用提前终止训练数据归一化:梯度消失/梯度爆炸梯度检测Batchvsmini-batch深度学习偏差与方差对于大量数据,训练集,验证集,测试集的划分为8:1:1或99.5:0.25:0.25、99.5:0.4:0.1如果不需要无偏评估算法性能,没有测
—Xi—
·
2022-12-17 13:48
深度学习
算法
机器学习
人工智能
上一页
25
26
27
28
29
30
31
32
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他