E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
week2
《剑指offer》题解——
week2
(持续更新)
《剑指offer》题解——
week2
一、剑指Offer14-I.剪绳子1.题目描述2.思路分析3.代码实现二、剑指Offer14-II.剪绳子II1.题目描述2.思路分析3.代码实现三、剑指Offer15
Java技术一点通
·
2023-01-05 17:08
剑指offer
算法
leetcode
贪心算法
算法
动态规划
数据结构
链表
吴恩达Couresa课程——第二部分:监督学习
week2
(已结束)
4.2多项式回归以多元线性回归和特征工程的思想得到一种称为多项式回归的新算法。可以拟合非线性曲线。这是线性回归时使用的预测模型:先看看按照以前的线性回归方法的效果:#createtargetdatax=np.arange(0,20,1)y=1+x**2X=x.reshape(-1,1)model_w,model_b=run_gradient_descent_feng(X,y,iterations=
jqqjrr123
·
2023-01-05 13:38
回归
python
吴恩达Couresa课程——第二部分:监督学习
week2
(未完待续,见下一篇)
如有任何公式错误或者文字说明错误,请留言指正哦~~~~问题引入描述:下面您需根据以下数据构建一个线性回归模型,并预测一栋拥有1200平方英尺、3间卧室、1层楼、40年历史的房子。一、多元线性回归模型1.1多元线性回归函数以上表格内给出了4个特征(大小、卧室数量、地板数量、房子年龄)分别记为x1、x2、x3、x4,每个特征对应一个wi。多元特征线性回归函数一般形式为写成向量形式为:w和x之间是点乘。
jqqjrr123
·
2023-01-05 13:02
吴恩达_机器学习课
python
回归
吴恩达Course1《神经网络与深度学习》
week2
:神经网络基础
1.二元分类举例说明逻辑回归logisticregression是一个用于二分类的算法。什么是二分类呢?举一个例子:输入一张图片到逻辑回归模型中,该算法输出得到1(是猫)或0(不是猫)。更具体来说,应该如何将一张图片转化为输入值呢?在计算机中,一张图片的存储方式是用三个矩阵分别存储图片中的红、绿、蓝。假设一张图片的大小为64*64px,则一张图片的总数据量为64*64*3=12288。顺序取出红、
weixin_44748589
·
2023-01-05 09:58
吴恩达深度学习课程笔记
逻辑回归
神经网络
如何深度理解梯度?『吴恩达神经网络和深度学习补充资料Part1 DeepLearning-WEEK2』
[
WEEK2
]BasicsofNeuralNetworkprogramming可能大家学完了这一周的课,虽然吴教授通过图像的方式给大家直观的讲解了何为梯度的概念,但其实大家对梯度还没有很清楚的理解。
error13
·
2023-01-05 09:48
深度学习
深度学习
机器学习
神经网络
人工智能
吴恩达【神经网络和深度学习】
Week2
——神经网络基础
文章目录1、LogisticRegressionasaNeuralNetwork1.1、BinaryClassification1.1.1、Introduction1.1.2、Notations1.2、LogisticRegression1.3、LogisticRegressionCostFunction1.4、GradientDescent1.5、Derivatives(导数)1.6、Mored
小白有颗大白梦
·
2023-01-05 09:45
DeepLearning
深度学习
神经网络
逻辑回归
python
吴恩达Course1《神经网络与深度学习》
week2
:神经网络基础 测验及作业
第二周测验1.神经元节点先计算线性函数(z=Wx+b),再计算激活。注:神经元的输出是a=g(Wx+b),其中g是激活函数(sigmoid,tanh,ReLU,…)2.逻辑回归损失函数:(^(),())=−()log^()−(1−())log(1−^())3.假设img是一个(32,32,3)数组,具有3个颜色通道:红色、绿色和蓝色的32x32像素的图像。如何将其重新转换为列向量?x=img.re
weixin_44748589
·
2023-01-02 15:59
吴恩达深度学习课程笔记
深度学习
神经网络
INT102 算法笔记
PDF版本下载文章目录week1伪代码与时间复杂度伪代码(PseudoCode)时间复杂度(Timecomplexity)
week2
评估基础查找与排序算法线性查找(LinearSearch)二分法查找(
sanmusen_wu
·
2022-12-29 10:33
笔记
《机器学习》学习笔记2:多变量线性回归
Week2
多变量线性回归基于吴恩达《机器学习》课程参考黄海广的笔记本篇博客为第二周的内容。
Mengo_x
·
2022-12-28 09:04
机器学习
Python与AI
机器学习
线性代数
sklearn
人工智能
吴恩达AI机器学习-01神经网络与深度学习
week2
中-神经网络基础
‼️博客为作者学习回顾知识点所用,并非商用,如有侵权,请联系作者删除‼️目录2.11向量化什么是向量化vectorization?loop循环向量化2.12向量化的更多例子2.13向量化Logistic回归2.14向量化Logistic回归的梯度输出2.15python中的广播2.11向量化什么是向量化vectorization?importnumpyasnpa=np.array[1,2,3,4]
SuzyBaiiyy:)
·
2022-12-24 13:41
机器学习
python
机器学习
深度学习
人工智能
week2
1、多元线性回归模型上周我们学习了单特征线性回归模型,但通常情况我们会有多个特征作为模型的输入,1、一些基本概念n:特征的总数:表示第i个样例:为第j个特征:表示第i个样例中的第j个特征。2、多个特征的线性回归模型被称为多元线性回归模型:2、向量化numpy的dot函数通过计算机硬件实现向量化。使用向量化时,使用专门的硬件一次得到w和x的所有值,并行地将每对w和x相乘,然后一次性取出16个结果,使
今天你吃了吗a
·
2022-12-19 10:09
机器学习
人工智能
吴恩达机器学习:
week2
title:‘吴恩达机器学习:
week2
’date:2019-11-2015:31:00mathjax:truecategories:机器学习tags:机器学习文章目录@[toc]单变量线性回归(LinearRegressionwithOneVariable
胖虎艾春辉
·
2022-12-19 10:05
机器学习
学生
吴恩达机器学习:week2
程序设计思维与实践
Week2
作业B "倒水问题"
数据:SampleInput:275274SampleOutput:fillBpourBAsuccessfillApourABfillApourABsuccess#include#include#includeusingnamespacestd;intAtoBb(intB,inta,intb){//A向B里面倒水后,B中的水if(aP;//记录到达的点,此处即为A.B中水的数量queueQ;sta
不太会转弯儿
·
2022-12-13 18:02
c++
[Machinie Learning] 吴恩达机器学习课程笔记——
Week2
MachineLearningbyAndrewNg吴恩达机器学习课程学习笔记——
Week2
本人学习笔记汇总合订本✓课程网址standfordmachinelearning参考资源课程笔记python版作业学习提纲
Carsick Car
·
2022-12-11 23:06
Machine
Learning
人工智能
深度学习
machine
learning
机器学习中如何评价模型的好坏
机器学习中如何评价模型的好坏
Week2
主要学习机器学习中的基础知识Targetsforthisweek:数据拆分:训练数据集&测试数据集评价分类结果:精准度、混淆矩阵、精准率、召回率、F1Score、ROC
Charles Han
·
2022-12-11 18:53
机器学习
数据分类
数据评价指标
LTspice使用笔记
week2
设置非线性电阻以及ic命令
week2
设置非线性电阻在已知非线性负阻伏安特性的情况下,可以使用BV或者BI来实现来实现可变电阻:以S型负阻为例:或者BV/BI的使用BV/BI的含义:ArbitraryBehavioralVoltageorCurrentSources
Mr.Asamu
·
2022-12-11 11:54
LTspice
电学
机器学习笔记
week2
——最大似然估计,交叉熵,分类指标F1、ROC等
文章目录1梯度更新方式1.1凸集1.2凸函数2线性回归矩阵形式2.1奇异矩阵3最大似然估计4逻辑回归4.1交叉熵损失函数5分类指标1梯度更新方式1.1凸集凸集:一个点集S被称为凸集,当且仅当该S里的任意两点A和B的连线上任意一点同样属于Stx1+(1−t)x2∈Stx_{1}+(1-t)x_{2}\inStx1+(1−t)x2∈Sforallx1,x2∈S,0≤t≤1x_{1},x_{2}\inS
shiinerise
·
2022-12-07 13:43
机器学习
最大似然估计
交叉熵
F1
SCORE
ROC
AUC
纽约大学深度学习PyTorch课程笔记(自用)
Week2
纽约大学深度学习PyTorch课程笔记Week22.Week22.1梯度下降和反向传播算法导论2.1.1梯度下降优化算法参数化模型梯度下降2.1.2在传统神经网络中随机梯度下降和反向传播算法的优势随机梯度下降的优势传统神经网络通过非线性函数进行反向传播通过加权和进行反向传播2.1.3一个神经网络和反向传播的PyTorch实现一个传统神经网络的方块图表示PyTorch实现对于一个模块进行反向传播对于
cosθ
·
2022-12-01 08:14
深度学习
pytorch
机器学习
【吴恩达机器学习】神经网络
week2
神经网络week21.1Tensorflow实现例子:手写数字识别BinaryCrossentropy是分类交叉熵1.要求Tensorflow将神经网络这三层串在一起;2.让Tensorflow编译模型,指定要使用的最后一个函数是什么;3.调用fit函数,告诉Tensorflow在步骤1中使用在步骤2中指定的最后一个成本函数对数据集XY进行了指定。epochs表示可能想要运行多少步来创建下降1.2
lucky_08
·
2022-12-01 07:31
机器学习
神经网络
深度学习
深度学习基础——
week2
!!!更好的阅读体验!!!卷积神经网络(ConvolutionalNeuralNetwork,CNN)深度学习三部曲Step1:搭建神经网络结构Step2:找到一个合适的损失函数(CostFunction)Eg:回归损失:均方误差(MSE),平均绝对值误差(MAE)分类损失:交叉熵损失,hingelossStep3:找到一个合适的优化函数,更新参数反向传播(BP),随机梯度下降(SGD),螺旋数据
-meteor-
·
2022-11-29 10:37
深度学习入门
深度学习
cnn
神经网络
Neural Networks and Deep Learning
week2
Python Basics with numpy (optional)
该实验作业的主要目的熟悉使用jupyterlab来编写python代码sigmoidnumpy一些函数的使用shape和reshape修改向量python的广播特性向量化代码以减少循环loopnumpy的帮助文件https://numpy.org/doc/stable/index.html总体进程热身写一个helloworld1.1写一个sigmoid函数当我们将该sigmoid函数进行移植时发现
肆思
·
2022-11-23 03:36
机器学习
深度学习
Neural Networks and Deep Learning
week2
Logistic Regression with a Neural Network mindset
该实验作业的主要目的通过该实验指导完成对猫图片的识别在此过程中需要a初始化参量b计算代价函数c使用连续梯度算法你可能对以下参考文献感兴趣http://www.wildml.com/2015/09/implementing-a-neural-network-from-scratch/这是一篇从头开始搭建神经网络的文章,可以更好的帮助你理解神经网络的细节,该文章有github的同步文件,你也可以去看看
肆思
·
2022-11-23 03:36
深度学习
机器学习
linux C/C++学习计划
种类型运算符及表达式选择循环结构程序设计一维二维数组存储原理及灵活使用指针的本质,指针的偏移与传递,一级指针(基本类型指针,数组指针,函数指针等),二级指针函数的使用,函数内不同变量的作用域及有效期等
Week2
bin_bujiangjiu
·
2022-11-20 22:38
C++
linux
c++
编程语言
吴恩达深度学习笔记 course4
week2
作业1
这周新使用了一个新框架,它是一个比较高级的框架,比起低级框架有更多的限制使用keras要注意的是:1.Keras框架使用的变量名和我们以前使用的numpy和TensorFlow变量不一样。它不是在前向传播的每一步上创建新变量(比如X,Z1,A1,Z2,A2,…)以便于不同层之间的计算。在Keras中,我们使用X覆盖了所有的值,没有保存每一层结果,我们只需要最新的值,唯一例外的就是X_input,我
banghu8816
·
2022-11-19 22:15
python
开发工具
人工智能
吴恩达深度学习作业(
week2
)-(1)
出发作业地址https://github.com/robbertliu/deeplearning.ai-andrewNG视频,bilibili吴恩达深度学习。推荐食用方式defbasic_sigmoid(x):"""Computesigmoidofx.Arguments:x--AscalarReturn:s--sigmoid(x)"""###STARTCODEHERE###(≈1lineof
Runesia
·
2022-11-19 22:07
神经网络学习
numpy
python
经验分享
2022 七校联合NewStarCTF 公开赛赛道
WEEK2
|CRYPTO
1.Affine先用Part1代码算出a,b,再用Part2代码逐位手工穷举出flag字符flag{Kn0wn_p1aint3xt_4ttac}2.unusual_baseflag{a1ph4bet_c0u1d_be_d1ffi3r3nt}3.robot先用脚本把非base编码的部分还原出来,base编码手工替换flag{c4Nn0t_D3crYpt_buT_r3p34t_Yes}4.ezPRNG
zerorzeror
·
2022-11-16 07:58
python
算法
安全
网络安全
week2
第一章---多变量线性回归---吴恩达机器学习笔记
week2
第一章---多变量线性回归1-1多维特征4-2向量化part-14-2向量化part-2实验4-4用于多元线性回归的梯度下降法实验1-1多维特征在原始的线性回归模型中,我们只有一个特征x,用来预测
天微亮。
·
2022-11-07 11:20
吴恩达机器学习
机器学习
线性回归
python
PrivacyIN
Week2
| 张宇鹏博导开讲经典零知识证明协议设计原理
前言隐私研究院【PrivacyIN】第一期ZK训练营课程精讲内容上线啦,本期课堂邀请到美国德州农工大学(TexasA&MUniversity)计算机科学与工程学院的助理教授张宇鹏,主要介绍经典零知识证明协议设计原理,课堂主题为《BasicPrinciplesoftheClassicZKProtocols(Groth16PlonkStark)》。此次授课采取小班授课,邀请了数十名来自国内外密码学及相
·
2022-10-14 12:07
区块链开发密码学协议
【LeetCode刷题
week2
】——链表专题
LC链表专题[声明]:ACWingY总课程总结1.题目链接2009年408真题——408元年的数据结构算法题!!!LeetCode19.删除链表的倒数第N个结点输入/输出样例输入:head=[1,2,3,4,5],n=2输出:[1,2,3,5]------------------------输入:head=[1],n=1输出:[]代码/***Definitionforsingly-linkedli
TBD1
·
2022-10-06 11:46
LeetCode专题
链表
leetcode
算法
数据结构
c++
吴恩达AI机器学习-01神经网络与深度学习
week2
上-神经网络基础
函数求导链式规则推导部分和梯度下降代码思路部分重点理解目录2.1二分分类2.2逻辑线性回归2.3参数w&b以及损失函数2.4梯度下降法2.5导数+2.6更多导数的例子2.7计算图2.8计算图的导数计算2.9Logistic回归中的梯度下降算法2.10m个样本的梯度下降2.1二分分类Logistic回归是一个用于二分分类的算法;64*64*3=12288,;.2.2逻辑线性回归giveaninput
睡觉特早头发特多
·
2022-10-04 07:01
机器学习
机器学习
深度学习
人工智能
知名独角兽公司offer面经
目录一、回眸再看,感慨万千1、互联网公司的“面试套路”2、跳槽前的技术积累二、苦修半年,成果检验1、面试week1:准备不足、当头一棒2、面试
week2
:查漏补缺、稍有起色3、面试week3:一鼓作气、
古老的屋檐下
·
2022-09-14 14:00
互联网求职
面经
BAT面试
独角兽面经
面试总结
知识点总结
哈工大机器学习
Week2
知识点总结
决策树(cont)互信息与决策树由随机变量XXX与YYY之间互信息的计算公式:I(X;Y)=H(X)−H(X∣Y)I(X;Y)=H(X)-H(X|Y)I(X;Y)=H(X)−H(X∣Y)表示随机变量Y含有X的多少信息。若H(X∣Y)H(X|Y)H(X∣Y)较小,则说明给定YYY时XXX的信息量减少。在决策树中YYY表示某一特定的属性。Y=yiY=y_iY=yi表示该属性的取值为yiy_iyi。反应
nth2000
·
2022-09-13 12:57
笔记
机器学习
[个人笔记]吴恩达深度学习lesson5
week2
自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)
这是一篇个人向的笔记。推荐学习顺序:(可选)最好掌握线性代数、微积分、概率论的一些基本知识学习吴恩达机器学习课程学习吴恩达深度学习的前4课(也可以选择性学习部分内容)即第五课第一周然后可以学习本课,即吴恩达深度学习第五课的第二周内容本课程视频本课程文字版目录2.1词汇表征(WordRepresentation)2.2使用词嵌入(UsingWordEmbeddings)2.3词嵌入的特性(Prope
YuQiao0303
·
2022-08-24 15:14
AI
个人笔记
吴恩达
深度学习
人工智能
nlp
深度学习课后
week2
编程(识别猫)
参考:https://blog.csdn.net/u013733326/article/details/796395091.编程要求具有神经网络思维的Logistic回归,搭建一个能够识别猫的简单的神经网络2.所用到的库库说明h5py读写超大数据,使用HDF5模块,是存放两类对象的容器:数据集(dataset)、组(group)matplotlib.pyplotpyplot是matplotlib子
恶熊比比
·
2022-08-24 15:10
深度学习
深度学习
python
机器学习
【机器学习-吴恩达】
Week2
多变量线性回归——梯度下降&正规方程
文章目录TerminologyMultivariateLinearRegressionHypothesisGradientdescentformultiplevariablesGradientDescentinPracticeI-FeatureScalingFeatureScalingMeanNormalizationGradientDescentinPracticeII-LearningRate
Filbert的榛子
·
2022-07-20 07:52
Machine
Learning
机器学习
吴恩达-coursera-机器学习-
week2
四、多变量线性回归(LinearRegressionwithMultipleVariables)4.1多维特征4.2多变量梯度下降4.3梯度下降法实践1-特征缩放4.4梯度下降法实践2-学习率4.5特征和多项式回归4.6正规方程4.7正规方程及不可逆性(可选)五、Octave教程(OctaveTutorial)5.1基本操作5.2移动数据5.3计算数据5.4绘图数据5.5控制语句:for,whil
weixin_30711917
·
2022-06-14 10:53
matlab
python
java
Java编写实现窗体程序显示日历
.*; publicclassTestextendsJFrame{ JButtonweek1,
week2
,week3,week4,week5,week6,week
·
2022-06-13 12:02
2022-05-26 正念训练营Day12-停下-呼吸-观察-继续
【正念训练营-三周学会调节情绪】
Week2
正念情绪调节Day12停下-呼吸-观察-继续时间:周四傍晚练习让时间慢下来的正念绝技:stop一、练习1、暂停(stop/slowdown):舒适的坐姿,安静下来
南下飞鸿踏雪泥
·
2022-05-31 17:44
Proj1a 数据结构:双端队列| CS61B-Spring-2018
LinkedListDeque主要思路见
Week2
中的双向链表。主要思路是:循环链表与哨兵节点:在双向链表中设置一个哨兵节点,它的nex
芝士蓝莓派
·
2022-03-16 15:45
CS61B
深度学习笔记(三)---再见卷积之残差网络
以下笔记来源:[1].AndrewNg的卷积神经网络
week2
[2].Keras中文手册[3].残差网络(DeepResidualLearningforImageRecognition)(https:/
Jayden yang
·
2022-02-26 09:01
深度学习笔记
深度学习笔记
《细节》-如何轻松影响他人(上)
PS:因展示限制,建议点击图片放大阅读~【Week1】Week1【
Week2
】
Week2
书八两
·
2022-02-19 13:25
SQL终于连上了db2
把week1和
week2
的练习都补完和做完了,明天可以专心搞和Python的对接了。心理还是挺爽的,又有了新的进步,满心欢喜。你说这门课不好么,其实也挺好的,至少是让你开了一下眼界,虽然
自由的赳赳
·
2022-02-18 10:54
【易效能践行90天】周检视
Week2
没有记录就没有发生。【90天三大目标】1、养成每日阅读习惯2、养成每日运动习惯3、养成七点前早起习惯【本周回顾】10/29–11/04。践行第2周,7天时间。除了周六,打卡以后回去睡觉,剩下的6天每日坚持早起,虽然还需要闹钟帮助。但相信坚持下去,会养成不需要闹钟的提醒,会被生物钟叫醒。【本周周检视:行动-反思-下一步计划】1、健康坚持每日都有运动,有站桩,散步或爬山,希望后续把跑步慢慢加入。2、个
郑婷Candy
·
2022-02-06 18:56
花|月总结——心旅途-2019年1月
【阅读】《你的生存本能正在杀死你》读了一半多《小家越住越大2》读了一半《不抱怨的世界》读完【笔记】精英日课s1《平均的终结》《巅峰表现》《端粒效应》发光之旅
week2
数张得到|自我发展心理学数张形象课笔记
泽良木花知
·
2022-02-05 06:57
机器学习笔记 -
week2
-(四、多变量线性回归 Part2)
4.6正规方程对于某些线性回归问题,正规方程方法是更好的解决方案!!!正规方程(NormalEquation):与梯度下降对比对比正规方程的python实现:importnumpyasnpdefnormalEqn(X,y):theta=np.linalg.inv(X.T@X)@X.T@y#X.T@X等价于X.T.dot(X)returntheta问题化简:训练集中共有m个样本,每个样本有n个连续型
火箭蛋头
·
2021-12-27 09:07
机器学习笔记 -
week2
-(四、多变量线性回归 Part1)
4.1多维特征房价多维特征现在我们对房价模型增加更多的特征,构成一个含有多个变量的模型,模型中的特征为增添更多特征后,我们引入一系列新的注释:代表特征的数量代表第个训练实例,是特征矩阵中的第行,是一个向量(vector),为代表特征矩阵中第行的第个特征,也就是第个训练实例的第个特征,例=1416。支持多变量的假设表示为:,为了使得公式能够简化一些,引入,则公式转化为:模型中的参数是一个维的向量()
火箭蛋头
·
2021-12-25 09:41
学习篇|儿童观察与评价
Week2
围绕儿童学习与发展形成闭环圈:观察—记录—评价—计划—行动观察与评价是一对最佳拍档,失去了任何一方,我们基于发现儿童的视角都立不住脚。儿童处于发展之中。教育者怀着发展的视角,看见儿童当前行为背后的可能性、拓宽儿童潜能的边界线。换句话说,儿童并不仅仅是当下的儿童,他们永远有下一步”。促进一个又一个下一步”的实现,才是教师对儿童进行评价的目的。每一位教育者都应该有属于自己对于「儿童」的理解——儿童是什
楚程cc
·
2021-12-14 01:26
String to Integer (
week2
)
StringtoInteger(
week2
)题目描述Implementatoiwhichconvertsastringtoaninteger.Thefunctionfirstdiscardsasmanywhitespacecharactersasnecessaryuntilthefirstnon-whitespacecharacterisfound.Then
piubiupiu
·
2021-06-27 11:50
剑指
week2
1.机器人的运动范围是数位和,裸BFS,用pair存下标classSolution{public:intbook[55][55];intget_sum(pairp){ints=0,num1=p.first,num2=p.second;while(num1){s+=(num1%10);num1/=10;}while(num2){s+=(num2%10);num2/=10;}returns;}intm
Tsukinousag
·
2021-06-26 14:01
2020-03-02
万思乐学V-learn小西妈双语工程2001期225号DEBBIE打卡
Week2
海尼曼:G易12本万思乐学:0B-1视频:粉猪6,7音频:粉猪,好饿的毛毛虫,Brownbear,brownbear,whatdoyousee
晓之以莉
·
2021-06-24 15:35
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他