E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week2
Internet History,Technology,and Security - History Through Supercomputing(
Week2
)
时间飞逝,一周又过去了,这周我们来到了InternetHistory,TechnologyandSecurity(
Week2
)的学习,从标题就可以看出,这周主要是介绍“互联网”雏形的诞生。
樊朝伟
·
2019-12-06 10:00
COMP9313_WEEK2
WEEK2
内容概要:1)MapReduce内部工作机理;2)利用Java实现MapReduce(自学)关键词:Mapper;Reducer;Master;Combiner;Partitioner;MapReduceFramework
Eric_Hunter
·
2019-12-02 10:31
零基础fashion illustration手绘练习
week2
更新比上次稍微晚一些惹0.0这回买了一些彩铅还有一些马克比纸(?)好像一头扎进화방,简直就是天堂也下周陆续购入一些新的马克笔嘿嘿嘿想抱着睡觉感觉在画东西的时候就没有审美了需要一些跳出来看的能力,不过感觉有一点点进步了?难道是错觉-。-抓大体轮廓开始上色啦快完成啦呆呆的小人一个连衣裙的草稿细致一点的版本希望这周不要被老师说画的太少-。-不过我一直就是画的太少梦想以后可以做一个像machesa一样仙仙
美贤打怪兽
·
2019-12-02 02:02
2016-06-27 #Call me by your name
week2
Thisweek'scontentisthehardestpartofthewholebook.FromeIthinkI'mgettingusedtothewaythisauthorexpressedhimself.Theromanceandwildsextheyoungboywashavingwithhisgayfriendandgirlfriendhadbecameadailyroutinea
泥巴叔叔
·
2019-11-30 12:29
week2
试用理财工具心得
学习两周理财,感悟最深的两点是:一、投资最重要是投资自己,增加自己的收入来源。二、按照“定投+梦想资金+流动资金”的分类和比例去做各种投资。关于第二点,其实我自己还没有按照这个比例安排投资,因为定投的收益率真的降得很低。我使用过的理财APP,除了支付宝,还有陆金所和金控网贷,现在在使用随手记。陆金所的收益率比较稳定的低,随手记的投资到账后会转一部分资金到陆金所。金控网贷的收益率一般有6%,但是投资
凉十三
·
2019-11-30 00:39
COMP9313_WEEK3
WEEK3内容概要:1)
week2
回顾;2)DesignPattern1:In-mapperCombining;3)DesignPattern2:PairsvsStripes;4)Writable(定义及相关
Eric_Hunter
·
2019-11-29 09:38
吴恩达机器学习
—反向传播算法
代价函数神经网络用于二分类与多分类问题当处理二分类问题时,输出值有一个,输出结果为1或0;当输出值有多个时,输出结果为一个向量。神经网络中的代价函数神经网络的损失函数与逻辑回归相似,但是神经网络的输出单元不是一个,而是k个。表示输出是一个k维向量,当为二元分类时,则为一个值。k表示输出值的个数,因此,在损失函数中,将输出值与实际值之差累加求最小。j表示层数,i表示每一层第i个单元。神经网络中的前项
Mei_d12f
·
2019-11-29 03:00
目录:
吴恩达机器学习
课后作业
简单介绍本博客为作者自行完成的
吴恩达机器学习
课后练习题目录,均使用PyTorch进行实现,无法保证对错,仅供参考.作业题目以及源代码百度云盘连接提取码:3dvb题目的命名方式与下表中的作业名称一致.源代码统一放在
weixin_44132485
·
2019-11-27 21:29
吴恩达机器学习
吴恩达机器学习
PyTorch
2014斯坦福大学
吴恩达机器学习
课程笔记-4 Linear Regression with Multiple Variables
文章目录4多变量线性回归(LinearRegressionwithMultipleVariables)4-1多个特征(MultipleFeatures)4-2多变量的梯度下降(GradientDescentforMultipleVariables)4-3梯度下降实践1:特征缩放(GradientDescentinPracticeI:FeatureScaling)4-4梯度下降实践2:学习率(Gra
Green Lv
·
2019-11-24 15:26
机器学习
机器学习
吴恩达
2014斯坦福大学
吴恩达机器学习
课程笔记-2 Linear Regression with One Variable
文章目录2单变量线性回归(LinearRegressionwithOneVariable)2-1模型表达(ModelRepresentation)2-2代价函数(CostFunction)2-3&2-4CostFunctionintuitionI&II2-5梯度下降(GradientDescent)2-6GradientDescentintuition2-7GradientDescentforLi
Green Lv
·
2019-11-21 15:22
机器学习
机器学习
吴恩达
吴恩达机器学习
笔记-神经网络的代价函数和反向传播算法
代价函数在神经网络中,我们需要定义一些新的参数来表示代价函数。L=totalnumberoflayersinthenetwork=numberofunits(notcountingbiasunit)inlayerlK=numberofoutputunits/classes在上一章的神经网络的介绍中,我们有多个输出的节点。这里我们定义来表示第k个输出结果。神经网络的代价函数应当和之前说过的Logis
Carey_Wu
·
2019-11-08 20:15
Week2
hw1: MongoDB
TherelationshipinmongoDBLiketheMSExcel,mongoDBcanbeconsideredlikeaExcelFile.EachDatabase(db)isaseparate.xlsfile,andeachCollectionisatable.Meanwhile,eachcollectioncanrecordmanyitemswiththerekey&value.A
快要没时间了
·
2019-11-08 19:05
2017.10.28打卡
今天把
week2
的所有课过一遍。
爱跑步的coder
·
2019-11-08 13:40
2018/08/14周二课表(必修课)解析
Week2
的训练结束啦,坚持来团训的小伙伴们一定能感受到坚持带来的成长,也希望同组的互相帮助与鼓励,能给大家辛苦的训练中,带来更多乐趣。
himeteora
·
2019-11-07 05:47
我的第一篇博客
笔记的大体脉络如下:一、
吴恩达机器学习
课程笔记二、《NeuralNetworkandDeepLearning》读书笔记
Edwin_dl
·
2019-11-07 04:09
Machine Learning-week 2
Week2
|V.OctaveTutorialQuestion1SupposeIfirstexecutethefollowingOctavecommands:A=[12;34;56];B=[123;456
盟丫头萌檬懵
·
2019-11-07 02:13
G159 5.0周检视
20180617-20180623(
week2
)5.0目标1.养成专注习惯(每日吃番茄钟)2.完成家庭物品整理3.每天英语学习本周检视:这周感觉过得特别快,上周末二阶的学习回来重新调整日检视模板,开始用
susanlu
·
2019-11-06 09:28
Week2
Wed精读笔记
神句1.Allthemoneywouldhavebeenworthlessiflegionsofcraftsmenhadn’tbeenwillingtodedicatetheirskillsandoftentheirlivestomakingthisnotjustanotherbuilding,butamonumenttohumanachievement.如果不是大批匠人甘于奉献他们的技艺甚至生命
西坡师妹
·
2019-11-06 05:56
【Andrew Ng机器学习】单变量线性回归-代价函数(一)
课程:
吴恩达机器学习
之前我们已经给出了代价函数的数学定义,接下来是一些例子,直观地来理解代价函数是用来做什么的,以及我们为什么要使用它。
jenye_
·
2019-11-05 07:02
暑假结束前的flag
想这次立几个flag以激励自己:1.在Edx上一门叫Simulationneuroscience的公开课,争取上完week1和
week2
的内容2.多读论文,勤上pubmed,frontiers,nature
Sober1337
·
2019-11-03 22:44
10号翊优|30天主题拍摄大作战
week2
—我的喜怒哀乐,都与你有关
第二周的拍摄主题分别是“喜悦”“静”“孤独”“生机”“温馨”“难过”“丧”。说实话,看到这些题目,我有点蒙,不知该如何体现。但没办法,只能硬着头皮去找灵感,找场景。自从参加了这次的主题拍摄大作战,我就有点入戏太深。背上相机,带上手机,跟何先生一起出门,一路上都在反复地问他,“你觉得这个场景符合哪个主题?”“他是不是很孤独?”何先生被神经质的我逗得哭笑不得,但很快也加入我的阵营。“这个很安静。”“那
翊优
·
2019-10-31 19:54
吴恩达机器学习
——反向传播算法
吴恩达机器学习
——反向传播算法1.误差$\delta^{(3)}$,$\delta^{(2)}$的推导2.反向传播算法的计算过程前言:反向传播算法是用来求偏导数的,即σJ(θ)σθij(2)\frac{
Donreen
·
2019-10-15 19:58
机器学习入门
吴恩达
机器学习
反向传播算法
GitHub上有哪些比较好的计算机视觉/机器视觉的项目?
今日推荐文章github标星11600+:最全的
吴恩达机器学习
课程资源(完整笔记、中英文字幕视频、python作业,提供百度云镜像!)计算机视
spearhead_cai
·
2019-10-08 08:00
【Python】机器学习之单变量线性回归 利用正规方程找到合适的参数值
【Python】机器学习之单变量线性回归利用正规方程找到合适的参数值本次作业来自
吴恩达机器学习
。
秦羽纶
·
2019-10-05 01:00
【Python】机器学习之单变量线性回归 利用批量梯度下降找到合适的参数值
【Python】机器学习之单变量线性回归利用批量梯度下降找到合适的参数值本题目来自
吴恩达机器学习
视频。
秦羽纶
·
2019-10-04 17:00
吴恩达机器学习
课程ex1:Linear Regression
吴恩达机器学习
课程ex1:LinearRegressionmatlab实现#computeCost.mfunctionJ=computeCost(X,y,theta)m=length(y);J=0;h_func
苏鱼鱼的小鱼儿
·
2019-10-04 14:13
机器学习
吴恩达
coursera
【Python】机器学习之单变量线性回归练习(计算Cost Function)
注:练习来自于
吴恩达机器学习
翻译后的题目:你是一个餐厅的老板,你想在其他城市开分店,所以你得到了一些数据(数据在本文最下方),数据中包括不同的城市人口数和该城市带来的利润。
秦羽纶
·
2019-10-04 14:00
【Python】机器学习之单变量线性回归练习(计算Cost Function)
注:练习来自于
吴恩达机器学习
翻译后的题目:你是一个餐厅的老板,你想在其他城市开分店,所以你得到了一些数据(数据在本文最下方),数据中包括不同的城市人口数和该城市带来的利润。
QYG
·
2019-10-04 14:00
github标星11600+:最全的
吴恩达机器学习
课程资源(完整笔记、中英文字幕视频、python作业,提供百度云镜像!)...
吴恩达老师的机器学习课程,可以说是机器学习入门的第一课和最热门课程,我在github开源了
吴恩达机器学习
个人笔记,用python复现了课程作业,成为热门项目,star数达到11671+,曾经有相关报道文章
spearhead_cai
·
2019-10-04 08:00
week2
数组与字符串
```#include#includeintfindX(int*array,intsize,intx){/*inti=0;for(i=0;i``````#includeintgetX(int*array,intsize,int*px,intk){if(k=size)return0;else{*px=array[k];return1;}}//返回结果只有一种可以将return0作为唯一结果返回,与m
_唱跳rap篮球
·
2019-09-28 20:23
deep_learning_学习资料
TensorFlow的55个经典案例:https://blog.csdn.net/xzy_thu/article/details/76220654
吴恩达机器学习
:1、序列学习:https://mooc.study
醉画仙
·
2019-09-28 14:00
吴恩达机器学习
笔记-支持向量机(Support Vector Machines)
与逻辑回归和神经网络相比,支持向量机,或者简称SVM,在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。它也是我们所介绍的最后一个监督学习算法。为了描述支持向量机,事实上,我将会从逻辑回归开始展示我们如何一点一点修改来得到本质上的支持向量机。在逻辑回归中我们已经熟悉了这里的假设函数形式,和右边的S型激励函数。当y=1时,我们得到,如上图左下所示,当z增大时其对应的值会变得非常小。现在开始
_4444yl
·
2019-09-26 18:10
吴恩达机器学习
公开课
本文主要总结吴恩达老师机器学习公开课的知识点。课程共8次编程作业已经上传到我的GitHub上了。这是作业链接回归和分类回归问题是指用已知数据拟合一个合适的假设函数h(x),或者可以理解为曲线,来预测新输入的变量的输出结果,如给定房间的大学位置等信息,预测房价。而分类问题,顾名思义,是指用已知数据拟合一个合适的假设函数h(x),对未知数据进行分类。在分类问题中,用到的假设函数为logistic函数:
AndyFlyingZZZ
·
2019-09-26 16:06
机器学习
9月插画练习总结
8月的时候我参加了Y园糖插画打卡21天,在这21天里,不断地被自己的画打击到,也看到了一些更优秀的小伙伴的作品,于是在21天打卡结束后,我反思了一下现在的问题,以下是那3周的作品:Week1作品•
Week2
Aya小喵
·
2019-09-25 13:06
人工智能AI:Keras PyTorch MXNet 深度学习实战(不定时更新)
推荐学习
吴恩达机器学习
的视频https://study.163.com/courses-search?
wx58496ad5e0126
·
2019-09-21 16:56
AI
吴恩达机器学习
入门笔记14/15-异常检测问题/推荐系统
14异常检测问题针对给出的样本构建一个模型,在模型范围内的样本点被认为是正常的,超出阈值的样本点被认为是异常的。14.1算法实现一堆样本的每个特征量都对应一个均值和方差计算样本每个特征的均值和标准差利用高斯分布构建概率函数:\(p(x)=p(x_1;\mu_1,\sigma^2_1)p(x_2;\mu_2,\sigma^2_2)...p(x_n;\mu_n,\sigma^2_n)\)设定一个阈值\
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记12/13-聚类与降维
12聚类-无监督学习算法之一聚类试图将数据集中的无标记样本划分为若干个通常不相交的子集,每个子集称为一个簇(cluster),每个簇可能对应于一些潜在的概念聚类算法的两个基本问题:性能度量和距离计算12.1性能度量原则:同一簇样本尽可能相似,不同簇样本尽可能不同,即簇内相似度高簇间相似度低将聚类结果与某个参考模型进行比较,称为外部指标直接考察聚类结果不利用任何参考模型,称为内部指标12.1.1外部
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记16/17-大规模机器学习/机器学习中的重要思想
16大规模机器学习16.1随机梯度下降-每次只取一个样本进行梯度下降作出cost函数图像出现平缓,则需改变特征或改变学习率16.2Mini-Batch梯度下降每次选取一定数量的样本进行梯度下降,当使用向量化方法并行计算时速度比随机梯度下降更快17机器学习中的重要思想17.1流水线-OCR需要文字检测文字分割文字识别三大部分17.1.1文字检测/行人检测运用滑动窗口的算法,每次滑动固定步长,识别窗口
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记10/11-贝叶斯分类器/集成学习(西瓜书补充)
10贝叶斯分类器10.1朴素贝叶斯分类器假设所有属性相互独立\[h_{nb}(\boldsymbol{x})=\underset{c\in\mathcal{Y}}{\arg\max}P(c)\prod_{i=1}^{d}P\left(x_{i}|c\right)\tag{10.1}\]\(P(c)=\frac{|D_c|}{|D|}\),\(P(x_i|c)=\frac{|D_{c,x_i}|}{
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记8-构建大型机器学习系统的方法
选择合适的特征向量从一个很简单的算法实现,交叉验证检验误差,作出学习曲线。看算法是否具有高偏差或高方差问题,再考虑是否选择增加特征量或者增加样本==用实际证据来指导决策==发现误差后,手动分析误差类别,判断什么特征导致的误差,对误差进行优先级排序,先解决最多数量的==在交叉验证集上==,为算法设定一个单一规则的数值评价指标进行评估,例如错误率。每次修改算法数值都能改变,帮助判断算法改进后的好坏程度
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记9-支持向量机
9支持向量机-SVM相比于神经网络,不用担心陷入局部最优问题,因为是凸优化9.1支持向量机的假设函数\[h_{\theta}(x)=\left\{\begin{array}{ll}{1,}&{\text{if}\theta^{T}x\geq0}\\{0,}&{\text{other}}\end{array}\right.\tag{9.1}\]最小化上式,得到参数\(\theta\)后下次代入为SV
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记7-神经网络
7神经网络解决特征数量过多,线性回归与逻辑回归算法参数过多的情况7.1M-P神经元模型神经元接收其他n个神经元传递的输入信号,加权和作为总输入值,与神经元阈值比较,再通过激活函数处理产生神经元输出,激活函数为sigmoid函数,是设定在神经元上的函数,典型的激活函数为sigmoid函数7.2感知机最简单的神经网络,输入层仅接收外界信号,输出层为M-P神经元,可容易实现逻辑与或非运算,感知机权重学习
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记6-决策树(由西瓜书补充)
6决策树6.1结构一个根节点:样本全集若干个内部结点:对应于属性测试若干个叶结点:决策结果==属性代表了各个结点,各个结点的连接线代表属性的取值==当第一层最优划分属性选取后,在划分后的D中进行递归,一层层选取最优划分属性,最后形成决策树只有一层划分的决策树称为决策树桩6.2目的产生一颗泛化能力强,即处理未见示例能力强的决策树6.3衡量划分属性的标准随着划分的不断进行,决策树的分支结点包含的样本尽
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记5-正则化
5正则化给参数增加惩罚项,达到简化假设函数,降低过拟合的目的5.1正则化线性回归5.1.1正则化代价函数\[J(\theta)=\frac{1}{2m}\left[\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})^{2}+\lambda\sum_{j=1}^{n}\theta_{j}^{2}\right]\tag{5.1}\]右边加的项称为正则化项,\(\la
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记4-逻辑回归
4逻辑回归逻辑回归的假设函数为sigmoid函数,把较大范围变化的输出值挤压到(0,1)内,因此也被称为挤压函数\[h_\theta(x)=\frac{1}{1+e^{-\theta^Tx}}\tag{4.1}\]\(h_\theta(x)\)代表输入为x时y=1的概率4.1决策边界若规定\(h_\theta(x)\ge0.5\)时y=1,\(h_\theta(x)<0.5\)时y=0,则可得出当
jestland
·
2019-09-19 12:00
【
吴恩达机器学习
】第六章 Octave/Matlab教程
基本操作%是注释语句后面加分号表示不打印结果帮助函数是help可以输入help要询问的函数然后键入q就可以退出who当前octave在内存中存储的所有变量whos更详细的显示变量信息clear变量删除内存中的此变量基本数学运算逻辑运算变量向量和矩阵①生成矩阵的方法:size()返回矩阵的大小size(A,1)返回A矩阵的行数size(A,2)返回A矩阵的列数length()返回矩阵或向量最大维度的
zxfhahaha
·
2019-09-17 21:01
吴恩达
octave
机器学习
吴恩达机器学习
课后作业-线性回归
阅读更多最近在学习机器学习,课后作业很重要,贴上来记录一下,使用Octave实现,上干货!warmup,代价函数和特征缩放比较简单,就不赘述了,直接看梯度下降核心部分:gradientDescent.m%使用梯度下降公式,固定写死为单变量线性回归(theta是一个2元素列向量)%用(X*theta-y)点积X(:,1)的原因:(X*theta-y)是97*1维向量,按公式应该是(hθ(x(i))−
vinceall
·
2019-09-17 15:00
机器学习
吴恩达
线性回归
吴恩达机器学习
课后作业-线性回归
阅读更多最近在学习机器学习,课后作业很重要,贴上来记录一下,使用Octave实现,上干货!warmup,代价函数和特征缩放比较简单,就不赘述了,直接看梯度下降核心部分:gradientDescent.m%使用梯度下降公式,固定写死为单变量线性回归(theta是一个2元素列向量)%用(X*theta-y)点积X(:,1)的原因:(X*theta-y)是97*1维向量,按公式应该是(hθ(x(i))−
vinceall
·
2019-09-17 15:00
机器学习
吴恩达
线性回归
吴恩达机器学习
-——exercise3
Multi-classClassicationandNeuralNetworks:使用logistic回归和神经网络进行手写数字的识别分类(0-9)已给脚本:ex3.m-Octave/MATLAB第一部分练习ex3nn.m-Octave/MATLAB第二部分练习ex3data1.mat-手写数字的训练集ex3weights.mat-神经网络的初始quan'zdisplayData.m-数据可视化的
AlmostOK
·
2019-09-14 23:12
个人
学习
MachineLearning
python实现线性回归算法
前言:学习了
吴恩达机器学习
线性回归部分内容后,再结合很多优秀博客总结,搬运出来的干货。
Carl_Jone
·
2019-09-14 12:37
python
机器学习
上一页
33
34
35
36
37
38
39
40
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他