E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week2
5号|30天主题拍摄大作战
week2
情绪
文|欧阳欣欢喜的葱花DAY1主题:喜悦作品:欢喜的葱花作品说明:老妈在楼顶种的葱开花了,一如她堆着皱纹绽开笑颜的面庞。动中取静DAY2主题:静作品:动中取静作品说明:动中取静,只恐在顷刻间不复存在。被遗弃的鸭子DAY3主题:孤独作品:被遗弃的鸭子作品说明:你把童年遗留在过去,把我遗弃在废墟。春天的野花DAY4主题:生机作品:春天的野花作品说明:我眼里再没有比野花野草更富生机的植物了。粉红猪小弟DA
欧阳欣
·
2020-07-11 00:48
吴恩达机器学习
Week_7 ex6课后编程作业代码答案
EX6gaussianKerneldataset3ParamsprocessEmailemailFeaturesgaussianKernelfunctionsim=gaussianKernel(x1,x2,sigma)%RBFKERNELreturnsaradialbasisfunctionkernelbetweenx1andx2%sim=gaussianKernel(x1,x2)returnsa
来来
·
2020-07-10 10:27
吴恩达机器学习
Week_9 ex8课后编程作业代码答案
EX8estimateGaussianselectThresholdcofiCostFuncestimateGaussianfunction[musigma2]=estimateGaussian(X)%ESTIMATEGAUSSIANThisfunctionestimatestheparametersofa%GaussiandistributionusingthedatainX%[musigma2
来来
·
2020-07-10 10:27
吴恩达机器学习
总结(P1-P11)
Machinelearning绪论前十一课,介绍机器学习的基本概念,相关应用场景,以及第一个机器学习算法,所涉及的数学知识基本都是高中知识。几个重要的概念机器学习分类强人工智能弱人工智能机器学习的方式监督式学习回归分类非监督式学习聚类相关机器学习的条件:大量的计算能力+大量的数据俩个重要的函数成本函数(代价函数)用来反映AI输出和真实输出的差异。显而易见的成本函数的结果值越趋向0,拟合效果越好假设
南乡人
·
2020-07-09 23:10
机器学习
吴恩达 机器学习课程 coursera 第四次编程作业(Neural Network Back Propagation) python实现
本文是
吴恩达机器学习
课程的第四次编程作业:NeuralNetworkBackPropagation,用python实现。ex4.py为主程序入口。
-TOXNO-
·
2020-07-09 23:59
机器学习
Coursera
吴恩达机器学习
week9的ex8编程作业代码
Machine-learning-ex8这是Coursera上Week9的ml-ex8的编程作业代码。经过测验,全部通过。具体文件可以进入我的github包括以下3个文件:%estimateGaussian.m%selectThreshold.m%cofiCostFunc.mestimateGaussian.mfunction[musigma2]=estimateGaussian(X)%ESTIM
loserChen.
·
2020-07-09 23:38
机器学习
吴恩达机器学习作业
吴恩达机器学习
(Machine Learning)课程总结笔记---Week9
文章目录0概述1.课程大纲2.课程内容2.1异常检测2.1.1什么是异常检测2.1.2高斯分布2.1.3高斯分布算法2.1.4评估系统2.1.5异常检测和监督学习对比2.1.6特征选择2.1.7多元高斯分布2.1.7.1多元高斯分布模型2.1.7.2多元高斯分布的变化2.1.7.2.1改变$\Sigma$2.1.7.2.1改变$\mu$2.1.7.3算法流程2.1.7.4多元高斯分布模型与一般高斯
csdn_SUSAN
·
2020-07-09 10:06
吴恩达--机器学习
计算机导论课后总结
week2
计算机导论课后总结
week2
信息信息的定义信息的分类信息量信息熵信息信息的定义1.信息,指音讯、消息、通讯系统传输和处理的对象,泛指人类社会传播的一切内容。
checkchecking
·
2020-07-09 08:29
导论作业
吴恩达机器学习
笔记week9
本周主要讲异常检测和协同过滤算法。异常检测Motivation 异常检测主要的motivation是我们可能有很多正常的样本,异常样本很少,然而异常样本才是业务中感兴趣的正样本,这个时候我们无法使用分类。一方面是因为正样本太少了,另一方面,其实我们也不知道异常样本到底都有那些类,在这种情况下,我们就会使用异常检测这种方式进行。主要思路 主要思路就是负样本有一个分布,一般假设成高斯的,然后估计出
asasasaababab
·
2020-07-09 07:52
学习笔记
吴恩达机器学习
课程笔记+代码实现(10)神经网络:表述(Neural Networks: Representation)
7.神经网络:表述(NeuralNetworks:Representation)文章目录7.神经网络:表述(NeuralNetworks:Representation)7.1非线性假设7.2模型表示17.3模型表示27.4特征和直观理解17.5样本和直观理解II7.6多类分类本章编程作业及代码实现部分见:多类分类和神经网络神经网络中的反向传播7.1非线性假设无论是线性回归还是逻辑回归都有这样一个缺
geekxiaoz
·
2020-07-09 06:35
吴恩达机器学习
课程笔记+代码实现(7)逻辑回归(Logistic Regression)
5.逻辑回归(LogisticRegression)文章目录5.逻辑回归(LogisticRegression)5.1分类问题5.2假说表示5.3判定边界5.4代价函数5.5多类别分类:一对多本章编程作业及代码实现部分见:Python实现逻辑回归和正则化(ProgrammingExercise2)5.1分类问题在分类问题中,你要预测的变量yyy是离散的值,我们将学习一种叫做逻辑回归(Logisti
geekxiaoz
·
2020-07-09 06:34
吴恩达机器学习
(十四)推荐系统(基于梯度下降的协同过滤算法)
目录0.前言1.基于内容的推荐算法(Content-basedrecommendations)2.计算电影特征3.基于梯度下降的协同过滤算法(Collaborativefiltering)4.低秩矩阵分解(Lowrankmatrixfactorization)5.应用到推荐学习完吴恩达老师机器学习课程的推荐系统,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小
zhq9695
·
2020-07-09 05:18
机器学习
西瓜书+实战+
吴恩达机器学习
(八)监督学习之朴素贝叶斯 Naive Bayes
文章目录0.前言1.朴素贝叶斯算法2.半朴素贝叶斯算法2.1.ODE2.2.SPODE2.3.TAN2.4.AODE如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言贝叶斯算法根据概率,选择概率最大的一类。1.朴素贝叶斯算法朴素贝叶斯(naiveBayes)采用了属性条件独立性假设:对已知类别,假设所有属性相互独立。P(c∣x)=P(c)P(x∣c)P(x)=P(c)
zhq9695
·
2020-07-09 05:46
机器学习
【机器学习】LR(逻辑分类&softmax分类)—— python3 实现方案
包含sigmoid和softmax模型,优化算法为批量梯度下降法使用数据是
吴恩达机器学习
第二第三节的作业。
zhenghaitian
·
2020-07-09 05:01
机器学习
吴恩达机器学习
——逻辑回归和分类算法
高效使用软件如下所示,是一个函数,这是一个求theta和x的积的和的公式,这个问题我们可以轻松地通过矩阵的方式解决。将theta和x以如下形式表示,theta和x的矩阵的积就是这个函数的结果。求解theta的值进行逻辑分解:Theta(i)=theta(i)–aββ=然后进行进一步分解:这个部分可以看做是两个矩阵的积:和矩阵的积依次这样慢慢划分,就能够实现这个theta的求解。分类算法Y={0,1
xclhs
·
2020-07-09 02:26
学习
机器学习
吴恩达机器学习
视频--神经网络反向传播算法公式推导
反向传播算法基础知识我们在计算神经网络预测结果时采用了正向传播方法,从第一层开始正向一层一层进行计算算,直到最后一层的hθ(x)h_\theta(x)hθ(x)。在不作正则化处理的情况下,逻辑回归中的代价函数如下所示:J(θ)=−1m[∑j=1my(i)loghθ(xi)+(1−y(i))log(1−hθ(x(i)))]J(\theta)=-\frac{1}{m}[\sum_{j=1}^my^{(
xuan_liu123
·
2020-07-09 02:04
ML&DL
机器学习中过拟合的解决办法
如图所示(图片来源:coursera
吴恩达机器学习
公开课)从图中可以看出,图一是欠拟合,模型不能很好地拟合数据;图二是最佳的情况;图三就是过拟合,采用了很复杂的模型。最后导致曲线波动很大,最后最可
小沫_jie
·
2020-07-08 11:44
面试
机器学习实战记录-Logistic回归
准备:梯度下降算法;(来自
吴恩达机器学习
)1.cost函数的引出定义的引出:确定模型计算出的值与测试样本值之间的差距;更适合大量的数据集;m代表样本点数,除以m是为了求平均误差(让参数m有了意义),除以
卡农配清风
·
2020-07-08 04:11
week2
FamilyrelationshipInmyresearch,Iwanttostudytheassociationbetweenfamilyrelationshipandthequalityofromanticrelationship.So,thedataofthishomeworkdoesn’tincludetheadolescentswhodon’tencounteraromanticrela
SH_0a4d
·
2020-07-08 04:11
2020考研复试备考第2周总结
上星期完成的任务阅读了attentionisallyouneed这篇论文
吴恩达机器学习
课程看了一半左右,
untilyouydc
·
2020-07-08 01:44
备考
吴恩达机器学习
笔记(1)
前情介绍课程视频来源:http://open.163.com/special/opencourse/machinelearning.html参考笔记黄海广博士的个人笔记:http://www.ai-start.com/本笔记为个人学习笔记,作为初学者,实在是才疏学浅,也肯定存在问题,欢迎大家沟通交流。一、监督学习我们给计算机提供一组正确的数据集,也就是这个问题的标准答案(标准输入对应的标准输出),
Cynthia_code
·
2020-07-08 00:59
吴恩达机器学习
---编程练习7
博主只是初学机器学习的新人一枚,这篇博客旨在分享一下
吴恩达机器学习
课程编程练习7的答案,同时也是相当于自己对这一章的内容做一个回顾,让自己理解的更加的透彻,理性讨论,不喜勿喷本练习的主题是K-meansClusteringandPrincipalComponentAnalysis
DO-VIS
·
2020-07-07 23:05
吴恩达机器学习
笔记整理(Week6-Week11)
1.Week61.1应用机器学习的建议(AdviceforApplyingMachineLearning)1.1.1决定下一步做什么到目前为止,我们已经介绍了许多不同的学习算法,然而,在懂机器学习的人当中依然存在着很大的差距,一部分人确实掌握了怎样高效有力地运用这些学习算法。而另一些人可能没有完全理解怎样运用这些算法。因此总是把时间浪费在毫无意义的尝试上。本章是确保你在设计机器学习的系统时,你能够
Paul-Huang
·
2020-07-07 09:42
机器学习
吴恩达机器学习
笔记整理(Week1-Week5)
吴恩达机器学习
笔记整理1.Week11.1什么是机器学习(WhatisMachineLearning)1.2机器学习算法分类1.3单变量线性回归(LinearRegressionwithOneVariable
Paul-Huang
·
2020-07-07 09:41
机器学习
吴恩达机器学习
逻辑回归python实现[对应ex2-ex2data1.txt数据集]
研一学生,初学机器学习,重心放在应用,弱化公式推导,能力有限,文中难免会有错误,恳请指正!QQ:245770710此文是对网易云课堂上吴恩达老师的机器学习课程逻辑回归一章对应的课后作业的python实现。1.先对数据集进行观察,使用matplotlib将数据集绘制出散点图。拿到一份数据想从中分析出一些内容,首先要了解拿到的数据,因此我们先把数据以散点图的形式绘制出来,观察其中的规律以确定用什么模型
gy245770710
·
2020-07-07 08:22
机器学习笔记
game theory课程
week2
problem set
Question1MixedStrategyNashEquilibrium1\2LeftRightLeft4,25,1Right6,03,3FindamixedstrategyNashequilibriumwhereplayer1randomizesoverthepurestrategyLeftandRightwithprobabilitypforLeft.Whatisp?YourAnswerSc
水纸谷幽
·
2020-07-07 02:31
博弈论
Neural Networks and Deep Learning(
week2
)Logistic Regression with a Neural Network mindset(实现一个图像识别算法.
NeuralNetworksandDeepLearning(
week2
)LogisticRegressionwithaNeuralNetworkmindset(实现一个图像识别算法)LogisticRegressionwithaNeuralNetworkmindsetYouwilllearnto
Douzi1024
·
2020-07-07 01:53
LeetCode
Week2
: Maximum Subarray、Merge k Sorted Lists
这周主要实现了LeetCodeAlgorithms中的Divide-And-Conquer的题目,这里选择二道题来分析,分别是MaximumSubarray(easy)、MergekSortedLists(Hard)。一、MaximumSubarray题目描述:Findthecontiguoussubarraywithinanarray(containingatleastonenumber)whi
qy05
·
2020-07-06 17:48
LeetCode
Ruby之第一周 Part C Course Structure
Week2
学习的视频比较少,但是有一个更具挑战性的作业(会同时用到Ruby和ML)。
爱跑步的coder
·
2020-07-06 17:33
吴恩达机器学习
Coursera-Week5
CostFunctionandBackPropagationCostFunction这一节主要讲了基本的符号表示,主要如下:L:表示总共有几层神经网络,假设有四层那么L=4sl:注意下标l(小写L),表示第l层的unit数,这个数不包含biasunitK:表示输出层有几个输出unit,即表示K分类问题,注意K=1或者K>=3。(因为K=2就成了一个二分类问题了,那么我们只需要使用一个输出就可以用二
geekpy
·
2020-07-06 10:20
吴恩达机器学习
中文版笔记:异常检测(Anomaly Detection)
在接下来的一系列视频中,我将向大家介绍异常检测(Anomalydetection)问题。这是机器学习算法的一个常见应用。这种算法的一个有趣之处在于:它虽然主要用于非监督学习问题,但从某些角度看,它又类似于一些监督学习问题。问题的动机参考文档:15-1-ProblemMotivation(8min).mkv在接下来的一系列视频中,我将向大家介绍异常检测(Anomalydetection)问题。这是机
weixin_34224941
·
2020-07-06 00:38
吴恩达机器学习
笔记32-小结神经网络的实现步骤
小结一下使用神经网络时的步骤:网络结构:第一件要做的事是选择网络结构,即决定选择多少层以及决定每层分别有多少个单元。第一层的单元数即我们训练集的特征数量。最后一层的单元数是我们训练集的结果的类的数量。如果隐藏层数大于1,确保每个隐藏层的单元个数相同,通常情况下隐藏层单元的个数越多越好。我们真正要决定的是隐藏层的层数和每个中间层的单元数。训练神经网络:1.参数的随机初始化2.利用正向传播方法计算所有
weixin_34082177
·
2020-07-06 00:56
HGAME 2019 WEB
week2
1.easy_php题目的标题给出了提示,查看robots.txt。再查看http://118.24.25.25:9999/easyphp/img/index.php,得到源码。由题目可知$img=$_GET['img'],我们需要传入一个名为img的变量,其中$img=str_replace('../','',$img),会将$img中的../替换为空,这种替换方式可以用双写../即....//
GAPPPPP
·
2020-07-05 13:43
Deeplearning.ai 结构化机器学习项目
Week2
6-10
Deeplearning.ai结构化机器学习项目Week26-10目录如何解决数据不匹配迁移学习多任务学习端对端的深度学习如何解决数据不匹配1.复习内容在第四节中我们已经学习了一些偏差分析的策略。如果人类水平(Humanerror)和训练水平(Trainingerror)的相差很大,我们认为可能是训练不到位或者是神经网络规模不够大。我们可以通过给神经网络"喂"更多的数据或者用一个更大的神经网络来改
scanf_yourname
·
2020-07-05 11:44
notes
深度学习
DeepLearning.AI 改善深层神经网络:超参数调试、正则化以及优化
Week2
1-5
DeepLearning.AI改善深层神经网络:超参数调试、正则化以及优化Week21-5目录Mini-batch梯度下降指数加权平均以及偏差修正Mini-batch梯度下降Batch梯度下降vsMini-batch梯度下降什么是Batch梯度下降?Batch梯度下降就是我们最一般的梯度下降方法,这种方法讲每一组数据作为输入矩阵的一个列向量,将所有的列向量线性组合成一个矩阵,作为神经网络的输入。什
scanf_yourname
·
2020-07-05 11:44
notes
深度学习
HGAME 2019
WEEK2
写一下
week2
的writeup吧怎么说呢,week1和
week2
简直是俩个级别啊。。。ak了re,crypto,misc有一道二维码太毒瘤了。。。
皮三宝
·
2020-07-05 09:00
ctf
吴恩达机器学习
课程个人总结4.0(神经网络及反向传播)
神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activationfunction)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。以上来自百
想成为大佬的菜鸟
·
2020-07-05 07:41
机器学习
minimize函数的使用(scipy.optimize)
2.minimize函数的寻找参数我接触到fminunc函数是在看
吴恩达机器学习
的视频时,对于在ma
stay hungry*
·
2020-07-05 06:15
Scipy
2017下
Week2
经历•工作在慢慢学习的过程中,带我的师傅跟我说了句话让我陷入思考,他说“今年进集团的新人这么多,你要多主动学习才能让领导看见你”。想想自己可能还不是很深谙职场的规则吧,做好自己分内的事很重要,在此基础上要让领导看见你的努力和成果,不是功利,但要把握好这个度吧。说起来师傅只比我大两岁啊,怎么差那么多啊!要努力学习!•周五上班路上看到新世相“48小时与陌生人交换朋友圈”的活动,就尝试发了自己的朋友圈封
Doublelili
·
2020-07-05 00:35
【20200228程序设计思维与实践
Week2
实验】A-化学
题意:化学很神奇,以下是烷烃基。假设如上图,这个烷烃基有6个原子和5个化学键,6个原子分别标号1~6,然后用一对数字a,b表示原子a和原子b间有一个化学键。这样通过5行a,b可以描述一个烷烃基你的任务是甄别烷烃基的类别。原子没有编号方法,比如1223344556和1323244556是同一种,本质上就是一条链,编号其实是没有关系的,可以在纸上画画就懂了题目来源:Gym-270437A思路:烷烃分子
AlizeCamlost
·
2020-07-04 23:32
吴恩达机器学习
(十一)——系统设计
一、构建垃圾邮件分类器举一个垃圾邮件分类的例子:假如你想建立一个垃圾邮件分类器,假设我们已经有一些加过标签的训练集。包括标注的垃圾邮件表示为y=1和非垃圾邮件表示为y=0。我们如何以监督学习的方法来构造一个分类器来区分垃圾邮件和非垃圾邮件呢?为了应用监督学习,我们首先必须确定的是如何用邮件的特征,构造向量x给出训练集中的特征x和标签y,我们就能够训练出某种分类器,比如用逻辑回归的方法。这里有一种选
大鹏小站
·
2020-07-04 21:50
机器学习
Week2
bash特性及文件相关
1.文件类命令及其常用的使用方法文本查看类命令catheadtailmoreless分屏查看命令morelessmoreFILE翻至最后一页自动退出lessFILE-f翻至最后一页不退出若有追加内容则立即显示首尾查看命令headtailhead命令:查看文件前n行headFILEhead[option]FILEhead-20/etc/rc.d/init.d/functionstail命令:查看文件
阿铮OnMyWay
·
2020-07-04 19:16
吴恩达机器学习
笔记 | Chapter 1 绪论:初识机器学习
MachineLearning|Chapter1绪论:初识机器学习Lesson1什么是机器学习提供了机器学习的两个定义。亚瑟·塞缪尔将其描述为:“研究领域使计算机无需明确编程即可学习。”这是一个较旧的非正式定义。TomMitchell提供了一个更现代的定义:“说计算机程序从经验E中学习某些任务T和绩效测量P,如果它在T中的任务中的表现,由P测量,随经验E而提高。“示例:玩跳棋。E=玩许多跳棋游戏的
林璀·学术狂人
·
2020-07-04 16:47
Machine
Learning
Wu
Enda
机器学习基础01-线性代数
文章目录数学基础内容与学习路线week1:线性代数
week2
:微积分week3:概率论+统计week4:概率论+信息论week5:优化方法学习数学基础的建议标量、向量与矩阵向量的表示向量的一般属性向量运算矩阵定义矩阵运算特殊矩阵线性相关性与矩阵的秩线性组合与线性表示线性相关与线性无关矩阵的秩矩阵的范数与迹思考问题向量的范数常用的向量范数矩阵的范数范数有什么用
exeron
·
2020-07-04 15:08
基础知识
线性代数
吴恩达机器学习
作业(五):支持向量机
目录1)数据预处理2)Scikit-learn支持向量机3)决策边界比较4)非线性SVM5)最优超参数6)垃圾邮件过滤器在本练习中,我们将使用支持向量机(SVM)来构建垃圾邮件分类器。我们将从一些简单的2D数据集开始使用SVM来查看它们的工作原理。然后,我们将对一组原始电子邮件进行一些预处理工作,并使用SVM在处理的电子邮件上构建分类器,以确定它们是否为垃圾邮件。我们要做的第一件事是看一个简单的二
10点43
·
2020-07-04 12:39
机器学习
re学习笔记(32)HGAME2020-re-Level-Week2- babypy
字节码反汇编器|官方文档题目描述描述CPythonusesastack-basedvirtualmachine.dc26c1359ec66题目地址http://q432pxpwq.bkt.clouddn.com/
week2
我也不知道起什么名字呐
·
2020-07-04 07:24
ctf小白成长ing
#
reverse
吴恩达机器学习
笔记-神经网络
本文将会介绍一种叫“神经网络”(NeuralNetwork)的机器学习算法。非线性假设我们之前已经学习过线性回归和逻辑回归算法了,为什么还要研究神经网络?我们先看一个例子。下面是一个监督学习分类问题的训练集:如果利用逻辑回归算法来解决这个问题,首先需要构造一个包含很多非线性项的逻辑回归函数。如下所示:这里g仍是sigmod函数,我们能让函数,包含很多像这样的多项式项。事实上,当多项式项数足够多时,
Carey_Wu
·
2020-07-04 00:48
Coursera
吴恩达机器学习
课程 总结笔记及作业代码——第3周逻辑回归
LogisticRegression上一次的课程主要解决回归分析问题,这一次的课程主要为分类问题,分类问题也可看做将回归问题的连续性离散化。1.1Classification先来谈谈二分类问题。课程中先给出了几个例子。邮件是垃圾邮件还是非垃圾邮件;网上交易是的欺骗性(YorN);肿瘤是恶性的还是良性的。对于这些问题,我们可以通过输出值yϵ{0,1}来表示。通过上次的课程,我们可以想到利用假设函数y
启人zhr
·
2020-07-02 17:18
人工智能
机器学习吴恩达课程学习笔记
吴恩达机器学习
第二周学习笔记及编程作业答案
吴恩达机器学习
第二周学习笔记及编程作业答案一、理论基础1、机器学习定义:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升机器学习都可以分为两大类
欢欢吖
·
2020-07-02 13:00
【斩笔·小雪】罗敷(上)
【
Week2
】孔雀东南飞,五里一徘徊。罗敷姓秦,正偷偷读着《孔雀东南飞》,这是一个令人悲伤的爱情故事。可她读着有一点别扭,因为这个故事里也有一个叫罗敷的姑娘,恰好姓秦。
王招财
·
2020-07-02 12:32
上一页
25
26
27
28
29
30
31
32
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他