E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
机器学习笔记——吴恩达
应用机器学习的建议(六)
b站学习链接:传送门学习视频第1011章学习目录索引:
吴恩达
2014课程简介知识补充线性和非线性线性和非线性是描述数学函数、模型或关系的两个基本概念。线性:线性是指一个函数、模型或关系满足线性性质。
水枂
·
2023-08-02 06:26
吴恩达2014机器学习
机器学习
人工智能
计算机视觉
吴恩达
2014课程简介
吴恩达
的机器学习课程有两个版本,本课程学习的是《斯坦福大学2014机器教程》文章目录索引作业参考路径https://gitee.com/angerial/ai-samples相关文章
吴恩达
今年的机器学习课程与老版的有什么区别
水枂
·
2023-08-02 06:26
吴恩达2014机器学习
机器学习
Pytorch入门学习——快速搭建神经网络、优化器、梯度计算
Pytorch_Study因为最近有同学问我如何Nerf入门,这里就简单给出一些我的建议:(1)基本的pytorch,机器学习,深度学习知识,本文介绍的pytorch知识掌握也差不多.机器学习、深度学习零基础的话B站
吴恩达
出门吃三碗饭
·
2023-08-01 23:03
pytorch
学习
神经网络
机器学习笔记
- 什么是keras-core?
一、keras-core简而言之,KerasCore是KerasAPI的新多后端实现,支持TensorFlow、JAX和PyTorch。可以使用如下命令简单安装pipinstallkeras-coreKeras是一个用Python编写的用于深度学习的用户友好工具。它旨在与AI领域的另一个主要参与者TensorFlow一起使用。KerasCore是Keras的新改进版本。它支持多个平台,包括Tens
坐望云起
·
2023-08-01 14:17
机器学习
机器学习
keras
keras-core
tensorflow
pytorch
机器学习笔记
之优化算法(四)线搜索方法(步长角度;非精确搜索)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索]引言回顾:精确搜索步长及其弊端非精确搜索近似求解最优步长的条件反例论述引言上一节介绍了从精确搜索的步长角度观察了线搜索方法,本节将从非精确搜索的步长角度重新观察线搜索方法
静静的喝酒
·
2023-08-01 12:48
机器学习
深度学习
机器学习
算法
非精确搜索的条件
线搜索方法
机器学习笔记
之优化算法(五)线搜索方法(步长角度;非精确搜索;Armijo Condition)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索,ArmijoCondition]引言回顾:关于f(xk+1)=ϕ(α)f(x_{k+1})=\phi(\alpha)f(xk+1)=ϕ(α)的一些特性非精确搜索近似求解最优步长的条件
静静的喝酒
·
2023-08-01 12:17
机器学习
深度学习
机器学习
算法
线搜索方法步长角度
非精确搜索
ArmijoCondition
机器学习笔记
8——抑制过拟合之Dropout、BN
过拟合:网络在训练数据上效果好,在测试数据上效果差。抑制过拟合的方法有以下几种:(1)dropout(2)正则化(3)图像增强本次主要谈论一下dropoutdropout定义:是一种在学习的过程中随机删除神经元的方法。训练时随机选取隐藏层的神经元,并将其删除。如图所示:主要作用:(1)取平均的作用(2)减少神经元之间复杂的共适应关系:因为dropout程序导致两个神经元不一定每次都在一个dropo
hello everyone!
·
2023-07-31 19:28
深度学习
机器学习
深度学习
神经网络
吴恩达
学习笔记(四)
神经网络参数的反向传播算法第七十二课:代价函数神经网络是当下最强大的学习算法之一,那么在给定训练集时,如何为神经网络拟合参数?神经网络在分类问题中的应用:两种分类问题:第一种是二元分类;这里的y只能是0或1,在这种情况下,我们会有且仅有一个输出单元。K:输出层的单元数目。第二种是多类别分类问题:即会有K个不同的类,有K个输出单元,假设输出K维向量。接下来为神经网络单元定义代价函数:这时我们有K个输
带刺的小花_ea97
·
2023-07-31 19:28
YouTube深度学习推荐模型最全总结
这里是「王喆的
机器学习笔记
」的第三十篇文章。
王喆的机器学习笔记
·
2023-07-31 04:13
1x1卷积核详解及分析
盗用
吴恩达
老师的一张图片来说明1*1卷积是怎样计算的:从上图中可以看出当通道数目为1的卷积核相当于直接在原图像的像素上进行加权求求和。
梦在黎明破晓时啊
·
2023-07-30 11:35
python
深度学习
pytorch
吴恩达
机器学习笔记
(3)
多变量线性回归:问题:根据多个属性,如房子面积,房子楼层,房子年龄等估计房子的价格多变量线性回归中的变量多变量线性回归的假设此时有多个特征,i对应不同的特征值,如房子面积,楼层,年龄等,参数为一个n+1维向量多变量线性回归中的梯度下降,对每一个参数求偏导数从而得到不同参数的梯度参数特征缩放——加速梯度下降过程收敛到最优值多变量梯度下降时,参数的取值要尽量小在多多变量梯度下降中,要让不同参数的取值范
魏清宇
·
2023-07-30 01:52
异常检测算法
anomaly-detection-resources7.
吴恩达
机器学习中文版笔记:异常检测(AnomalyDetection)
夕宝爸爸
·
2023-07-30 00:55
机器学习笔记
之优化算法(二)线搜索方法(方向角度)
机器学习笔记
之优化算法——线搜索方法[方向角度]引言回顾:线搜索方法从方向角度观察线搜索方法场景构建假设1:目标函数结果的单调性假设2:屏蔽步长αk\alpha_kαk对线搜索方法过程的影响假设3:限定向量
静静的喝酒
·
2023-07-29 11:28
机器学习
深度学习
机器学习
优化算法
线搜索方法
更新方向与负梯度方向之间关系
泰勒公式
机器学习笔记
之优化算法(一)无约束优化概述
机器学习笔记
之优化算法——无约束优化概述引言回顾:关于支持向量机的凸二次优化问题无约束优化问题概述解析解与数值解数值解的单调性关于优化问题的策略线搜索方法信赖域方法引言从本节开始,将介绍优化算法(OptimizationAlgorithm
静静的喝酒
·
2023-07-29 11:27
机器学习
深度学习
机器学习
算法
优化问题
线搜索方法
信赖域方法
Python
机器学习笔记
:XgBoost算法
转载:https://www.cnblogs.com/wj-1314/p/9402324.html前言1,Xgboost简介Xgboost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器。因为Xgboost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器。而所用到的树模型则是CART回归树模型。Xgboost是在GBDT
SeaSky_Steven
·
2023-07-29 11:26
algorithm
机器学习
算法
Xgboost
机器学习笔记
之优化算法(三)线搜索方法(步长角度;精确搜索)
机器学习笔记
之优化算法——线搜索方法[步长角度,精确搜索]引言回顾:线搜索方法——方向角度关于收敛性的假设关于单调性的假设下降方向与最速方向从步长角度观察线搜索方法关于方向向量的假设精确搜索过程引言上一节介绍了从方向角度认识线搜索方法
静静的喝酒
·
2023-07-29 11:54
机器学习
深度学习
机器学习
线搜索方法
优化问题
步长角度认识线搜索方法
精确搜索
【深度学习笔记】Softmax 回归
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是
吴恩达
AndrewNg教授。
洋洋Young
·
2023-07-29 10:15
【深度学习笔记】
深度学习
笔记
回归
【深度学习笔记】动量梯度下降法
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是
吴恩达
AndrewNg教授。
洋洋Young
·
2023-07-29 10:15
【深度学习笔记】
深度学习
笔记
人工智能
梯度下降学习
吴恩达
老师讲的视频(果然b站是个学习的网站)https://www.bilibili.com/video/av15346993?
qwrdxer
·
2023-07-27 03:56
吴恩达
深度学习L1W2——实现简单逻辑回归
文章目录一些笔记写作业导入数据取出训练集、测试集处理数据的维度标准化数据sigmoid函数初始化参数w、b前向传播、代价函数、梯度下降优化预测函数模型整合使用模型绘制代价曲线单个样本测试不同alpha的比较预测新图根据笔记中的公式进行构造函数,之后使用模型进行预测一些笔记写作业导入数据importh5pyimportnumpyasnp#训练集、测试集train_data=h5py.File('./
每个人都是孙笑川
·
2023-07-27 03:25
学习笔记
吴恩达
教程
深度学习
python
神经网络
jupyter
零基础深度学习——学习笔记1 (逻辑回归)
前言因为各种各样的原因要开始学习深度学习了,跟着
吴恩达
老师的深度学习视频,自己总结一些知识点,以及学习中遇到的一些问题,以便记录学习轨迹以及以后复习使用,为了便于自己理解,我会将一些知识点用以个人的理解用通俗的语言表达出来
黑白程序员
·
2023-07-27 03:54
深度学习
学习
笔记
白话
机器学习笔记
(一)学习回归
最小二乘法定义模型表达式:fθ(x)=θ0+θ1xf_\theta(x)=\theta_0+\theta_1xfθ(x)=θ0+θ1x(常用θ\thetaθ表示未知数、fθ(x)f_\theta(x)fθ(x)表示含有参数θ\thetaθ并且和变量xxx相关的函数)目标函数假设有nnn个训练数据,那么它们的误差之和可以这样表示,这个表达式称为目标函数。E(θ)=12∑i=1n(y(i)−fθ(x(
WangXinmingg
·
2023-07-26 22:47
学习笔记
机器学习
笔记
学习
白话
机器学习笔记
(三)评估已建立的模型
模型评估在进行回归和分类时,为了进行预测,我们定义了函数fθ(x)f_\theta(x)fθ(x),然后根据训练数据求出了函数的参数θ\thetaθ。如何预测函数fθ(x)f_\theta(x)fθ(x)的精度?看它能否很好的拟合训练数据?我们需要能够定量的表示机器学习模型的精度,这就是模型的评估。交叉验证回归问题的验证把获取的全部训练数据分成两份:一份用于测试,一份用于训练。前者来评估模型。一般
WangXinmingg
·
2023-07-26 22:47
学习笔记
机器学习
笔记
人工智能
白话
机器学习笔记
(二)学习分类
分类用图形来解释,把他想象为有大小有方向带箭头的向量。设权重向量为www,虚线为使权重向量称为法线向量的直线。直线的表达式为:w⋅x=0w\cdotx=0w⋅x=0(两个向量的内积)也可写为:w⋅x=∑i=1nwixi=w1x1+w2x2=0w\cdotx=\sum\limits_{i=1}^nw_ix_i=w_1x_1+w_2x_2=0w⋅x=i=1∑nwixi=w1x1+w2x2=0w⋅x=∣
WangXinmingg
·
2023-07-26 22:14
学习笔记
机器学习
笔记
学习
吴恩达
ChatGPT《LangChain Chat with Your Data》笔记
文章目录1.Introduction2.DocumentLoading2.1RetrievalAugmentedGeneration(RAG)2.2LoadPDFs2.3LoadYouTube2.4LoadURLs2.5LoadNotion3.DocumentSplitting3.1SplitterFlow3.2CharacterSplitter3.3TokenSplitter3.4Markdow
datamonday
·
2023-07-26 00:45
AIGC
chatgpt
langchain
笔记
python
人工智能
拥抱生成式大模型 --- 提示工程篇
感谢
吴恩达
老师的开源课程。引言随着大型语言模型(LLM)的发展,LLM大致可以分为两种类型,即基础LLM和指令微调LLM。
有莘不殁
·
2023-07-25 19:50
LLM
大模型
提示工程
吴恩达
机器学习打卡day6
本系列文档按课程视频的章节(P+第几集)进行分类,记录了学习时的一些知识点,方便自己复习。课程视频P54图1表示求导数的原理。图1 图2将图1推广到有n个参数变量的情况。图2 图3提出了一些注意事项。图3 课程视频P55图4表示了求导时的一些特殊规律。图4 课程视频P56图5给出了选择神经网络层数的一些规律,通常中间层的层数要大于等于输入层的特征变量数量。图5 **图6给出了训练神经网络的操作步骤
不学了,删库跑路
·
2023-07-24 21:15
机器学习
人工智能
深度学习
回归
分类
【深度学习笔记】随机梯度下降法
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是
吴恩达
AndrewNg教授。
洋洋Young
·
2023-07-24 16:09
【深度学习笔记】
深度学习
笔记
人工智能
凯旋门的夜晚
0x01一直在看
吴恩达
老师的斯坦福cs229课程,收获了很多东西、0x02回到了苏州,忙着看机器学习的视频,也愁着生活的经费,没有人的陪伴,我要习惯落寞。
张建凯
·
2023-07-24 03:53
零基础"机器学习"自学笔记|Note7:逻辑回归
本系列以
吴恩达
老师的【“机器学习”课程】为纲,辅以黄海广老师的【斯坦福大学2014机器学习教程个人笔记(V5.51)】,中间会穿插相关数理知识。
木舟笔记
·
2023-07-23 15:33
吴恩达
机器学习-logistic回归
logistic回归—离散变量的分类问题(0,1)分类,通常0表示“没有某样东西”,1表示“有某样东西”如有癌症,是垃圾软件等上图所示是一个(0,1)分类问题,当y的取值为{0,1,2,3}时,就变成一个多分类问题线性回归拟合而分类问题上述问题是一个肿瘤预测问题,根据肿瘤的大小判断肿瘤是良性还是恶性的,当数据显示如图时,使用线性回归似乎是合理的肿瘤大小小于0.5对应的那个值时肿瘤为良性,大于时为恶
魏清宇
·
2023-07-22 20:28
吴恩达
深度学习笔记(21)-神经网络的权重初始化为什么要随机?
随机初始化(Random+Initialization)当你训练神经网络时,权重随机初始化是很重要的。对于逻辑回归,把权重初始化为0当然也是可以的。但是对于一个神经网络,如果你把权重或者参数都初始化为0,那么梯度下降将不会起作用。让我们看看这是为什么?有两个输入特征,n^([0])=2,2个隐藏层单元n^([1])就等于2。因此与一个隐藏层相关的矩阵,或者说W^([1])是2*2的矩阵,假设把它初
极客Array
·
2023-07-22 04:51
从阿里的User Interest Center看模型线上实时serving方法
这里是「王喆的
机器学习笔记
」的第二十九篇文章。最近写书的时候在总结一些深度学习模型线上serving的主流方法。
王喆的机器学习笔记
·
2023-07-21 06:21
机器学习笔记
神经元神经网络的基本模型是神经元,神经元的基本模型就是数学中的乘、加运算:神经元神经网络两层的神经网络(一个隐藏层)更进一步地,过激活函数以提高表现力的神经元模型:常用的激活函数有:relusigmoidtanh损失函数loss计算得到的预测值与已知答案的差距:均方误差MSE自定义损失函数:根据问题的实际情况交叉熵CE(CrossEntropy)反向传播训练中,以减小loss值为优化目标,有梯度下
微雨旧时歌丶
·
2023-07-20 15:27
机器学习笔记
--xgboost核心思想
今天给大家讲xgboost,这是一个非常优秀的算法,在各大回归类的人工智能竞赛中,经常可以在榜首看到这个算法的身影。前面我们已经讲了决策树,提升树(BoostingDecisionTree)是迭代多棵决策树来共同决策,当采用平方误差作为损失函数的时候,每一棵树学习的是之前所有树之和的残差值,残差=真实值-预测值。比如A的年龄是18岁,第一棵树的预测值是13岁,与真实值相差了5岁(就是我们说的残差)
weixin_39210914
·
2023-07-19 23:10
机器学习
机器学习
机器学习笔记
(2-4)--林轩田机器学习基石课程
Non-SeparateData当我们不知道数据集是否线性可分时,我们采用贪心的算法,构建modifiedPLA.ModifiedPLA:和普通的PLA不同的是,它在选点时采用随机的方法,并且采用贪心的思想,保存当前最好的w_t.好不好的标准在于造成的错误点数是否更少。直到运行时间足够久后才停止算法。
数学系的计算机学生
·
2023-07-19 16:14
【深度学习笔记】梯度消失与梯度爆炸
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是
吴恩达
AndrewNg教授。
洋洋Young
·
2023-07-19 10:50
【深度学习笔记】
深度学习
笔记
人工智能
深度学习路线
深度学习路线机器学习视频
吴恩达
http://open.163.com/special/opencourse/machinelearning.html神经网络深度学习在线教程共六章http://neuralnetworksanddeeplearning.com
OliverH-yishuihan
·
2023-07-19 07:26
机器学习_深度学习
深度学习
人工智能
学习率的选择
总结通常可以考虑尝试些学习率慢慢进行调试:参考内容:
吴恩达
机器学
氢气氧气氮气
·
2023-07-18 18:07
机器学习
学习
吴恩达
的2022年终盘点:视觉Transformer、生成式AI、大模型闪耀全年!
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达点击进入—>CV微信技术交流群转载自:智源社区近日,
吴恩达
在圣诞节的《TheBatch》特刊上发布了一年一度的年终盘点。
Amusi(CVer)
·
2023-07-18 17:26
人工智能
transformer
深度学习
【机器学习】
吴恩达
课程2-单变量线性回归
一、单变量线性回归1.模型描述监督学习的流程&单变量线性回归函数代价函数:,其中m表示训练样本的数量公式为预测值与实际值的差,平方为最小二乘法和最佳平方/函数逼近。目标:最小化代价函数,即2.只考虑一个参数为方便分析,先取为0并改变的值3.参数都考虑将三维图平面化:等高线的中心对应最小的代价函数二、梯度下降1.算法思路指定和的初始值不断改变和的值,使不断减小得到一个最小值或局部最小值时停止2.梯度
禾风wyh
·
2023-07-18 10:22
机器学习
机器学习
线性回归
人工智能
吴恩达
机器学习2022-Jupyter
1可选实验室:多变量线性回归在这个实验室中,您将扩展数据结构和以前开发的例程,以支持多个特性。一些程序被更新使得实验室看起来很长,但是它对以前的程序做了一些小的调整使得它可以很快的回顾。2目标扩展我们的回归模型例程以支持多个特性扩展数据结构以支持多个特性重写预测,成本和梯度例程,以支持多个功能利用NumPynp.dot向量化它们的实现,以提高速度和简单性在这个实验室里,我们将利用:NumPy,一个
KAY金
·
2023-07-18 06:40
机器学习
机器学习
jupyter
人工智能
吴恩达
-面向开发人员的 ChatGPT 提示工程
探索ChatGPT,协助工作学习创作。公众号「阿杰与AI」回复AI,加入社群,一同探讨,一同成长,比他人更进一步。我们一起维护一个完全免费开源知识库。1.AI、OpenAI、MidJourney发展史2.ChatGPT们对今后社会生活的影响3.目前市面比较好的AI产品介绍4.注册方式汇总5.针对初学者的ChatGPT速成课程6.ChatGPT如何辅助工作6.1ChatGPT处理ExcelWordP
阿杰的人生路
·
2023-07-17 15:40
学习ChatGPT的基础知识
chatgpt
人工智能
吴恩达
ChatGPT网课笔记Prompt Engineering——训练ChatGPT前请先训练自己
吴恩达
ChatGPT网课笔记PromptEngineering——训练ChatGPT前请先训练自己主要是
吴恩达
的网课,还有部分github的prompt-engineering-for-developers
瞲_大河弯弯
·
2023-07-17 15:39
LLM模型
chatgpt
笔记
【
吴恩达
-AIGC/ChatGPT提示工程课程】第八章 - **聊天机器人 Chatbot.**
【
吴恩达
-AIGC/ChatGPT提示工程课程】第八章-聊天机器人Chatbot.使用一个大型语言模型的一个令人兴奋的事情是,我们可以用它来构建一个定制的聊天机器人,只需要很少的工作量。
黎跃春
·
2023-07-17 15:09
AIGC
chatgpt
机器人
【
吴恩达
】prompt engineering(原则 迭代 文本概括 推断、订餐机器人)
简介Introduction基础的LLM训练的模型,问法国的首都什么,可能会将答案预测为“法国最大的城市是什么,法国的人口是多少”许多LLMs的研究和实践的动力正在指令调整的LLMs上。指令调整的LLMs已经被训练来遵循指令。因此,如果你问它,“法国的首都是什么?”,它更有可能输出“法国的首都是巴黎”。指令调整的LLMs的训练通常是从已经训练好的基本LLMs开始,该模型已经在大量文本数据上进行了训
山顶夕景
·
2023-07-17 15:38
#
自然语言处理
#
LLM大模型
prompt
gpt
大模型
对话机器人
吴恩达
深度学习笔记整理(四)—— 超参数调试、正则化以及优化
目录改善深层神经网络:超参数调试、正则化以及优化训练,验证,测试集(Train/Dev/Testsets)偏差和方差权衡方差和偏差的问题正则化为什么只正则化参数?为什么不再加上参数呢?为什么正则化有利于预防过拟合呢?为什么压缩2范数,或者弗罗贝尼乌斯范数或者参数可以减少过拟合?dropout正则化。其他正则化方法归一化输入1.零均值2.归一化方差。为什么使用归一化处理输入?梯度消失/梯度爆炸神经网
梦想的小鱼
·
2023-07-17 08:27
机器学习
深度学习
人工智能
【深度学习笔记】偏差与方差
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是
吴恩达
AndrewNg教授。
洋洋Young
·
2023-07-17 08:27
【深度学习笔记】
笔记
【深度学习笔记】正则化与 Dropout
本专栏是网易云课堂人工智能课程《神经网络与深度学习》的学习笔记,视频由网易云课堂与deeplearning.ai联合出品,主讲人是
吴恩达
AndrewNg教授。
洋洋Young
·
2023-07-17 08:26
【深度学习笔记】
深度学习
笔记
人工智能
吴恩达
机器学习笔记
(5)—— 神经网络
又摸鱼摸了好久,终于开学了,不能再摸鱼了,这学期课都是嵌入式开发方面的,我给自己的电脑买了个新硬盘装了Linux,不再像以前在虚拟机里小打小闹了,折腾了好几天的新系统,现在有时间写新的笔记了。这次给大家带来的是神经网络,比较难,我可能写的也不是太明白,就看看吧。非线性假设其实神经网络是一个很古老的算法,不过在很长的一段时间内受计算机的机能所限,这个算法没有太大的进展。直到了现在,计算机的飞速发展,
机智的神棍酱
·
2023-07-17 06:15
上一页
13
14
15
16
17
18
19
20
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他