E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机械学习
吴恩达
机器学习笔记---正则化
前言使用正则化技术缓解过拟合现象,使模型更具泛化性1.过拟合问题(Overfit)2.代价函数(CostFunction)3.线性回归的正则化(RegularizedLinearRegression)4.逻辑回归的正则化(RegularizedLogisticRegression)正则化(Regularization)(一)过拟合问题(Overfit) 先看两张图: 两张图分别代表回归问题和分
ML0209
·
2023-10-24 20:38
机器学习
机器学习
机器学习-
吴恩达
-笔记-3-正则化
目录过拟合问题代价函数正则化线性回归正则化逻辑回归【此为本人学习
吴恩达
的机器学习课程的笔记记录,有错误请指出!】
Leon.ENV
·
2023-10-24 20:05
机器学习
机器学习
2019-07-20机器学习完成
今天终于完成了
吴恩达
的机器学习课程,所有作业都已经完成,历时半年,难掩心中的兴奋。有时候也会迷茫,下一步,要学什么呢?
Wincent__
·
2023-10-24 06:19
循环神经网络(Recurrent Neural Network Model)
来源:Coursera
吴恩达
深度学习课程上篇文章介绍了RNN的数学符号(Notation),现在我们讨论一下怎样才能建立一个神经网络来学习X到Y的映射。如下图所示。
双木的木
·
2023-10-23 23:35
吴恩达深度学习笔记
深度学习知识点储备
笔记
神经网络
python
机器学习
人工智能
深度学习
反向传播是怎么回事?详细教程2019-05-22
反向传播的详细推导一文弄懂神经网络中的反向传播法——BackPropagation最近在看深度学习的东西,一开始看的
吴恩达
的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版
loveevol
·
2023-10-23 22:14
ChatGLM-6B+LangChain与训练及模型微调教程
Ref:讲解视频【官方教程】ChatGLM+LangChain实践培训_哔哩哔哩_bilibili
吴恩达
教授讲的【LangChain+ChatGLM-6B】LLM应用开发实践LangChain_Intro_v02
人鱼线
·
2023-10-22 20:20
langchain
深度学习第二天--卷积神经网络
在这里说明一下,卷积神经网络主要应用在图像识别上面,
吴恩达
在谷歌主要做的工作就是这个。我们对一张简单的图像进行一个预处理后,会得到我们用人眼,人脑所不能体会到的一些特征
月过不了头
·
2023-10-22 13:45
吴恩达
深度学习编程作业报错解决方法汇总
概述及资源分享大二结束后的暑假,学习
吴恩达
深度学习([双语字幕]
吴恩达
深度学习deeplearning.ai_哔哩哔哩_bilibili)的课程,在做编程作业的时候总是遇到一些报错,尤其是导入所需要的库的时候会报一些
就喜欢你看不惯我又干不掉我的样子Hhhh
·
2023-10-22 04:02
人工智能
深度学习
吴恩达
《生成式 AI》重磅发布!
吴恩达
教授可能是许多人接触AI的启蒙课导师吧,在过去的十多年中,他的《MachineLearning》课程已经对数百万的学习者产生了积极影响。
机器学习社区
·
2023-10-21 18:41
机器学习
人工智能
【学习笔记】
吴恩达
机器学习 | 汇总 | 已完结!!!
非常感谢AndrewNg
吴恩达
教授的无私奉献!!!索引第一章机器学习绪论MachineLearning机器学习Supervisedlearning监督学习Unsupervisedlea
Benjamin Chen.
·
2023-10-21 05:36
【学习笔记】吴恩达机器学习
学习笔记
学习
机器学习
人工智能
神经网络
方法试用:基于强化学习提高EEG分类准确率的特征选择方法(完整代码)
一、强化学习类详解这一部分主要详细讲述代码中强化学习类的部分,关于强化学习的相关知识可从视频
吴恩达
机器学习中获取。def__init__(self,n_states,n_acti
槿花Hibiscus
·
2023-10-21 02:45
脑机接口学习
强化学习
分类
人工智能
机器学习
python
吴恩达
开新课了:面向所有人的生成式 AI 课程!我已偷偷学了起来
作者|智商掉了一地斯坦福大学的
吴恩达
教授可能是许多人接触AI的启蒙课导师吧,在过去的十多年中,他的《MachineLearning》课程已经对数百万的学习者产生了积极影响。
夕小瑶
·
2023-10-21 00:10
人工智能
吴恩达
教授关于python numpy库的技巧
FirstExampleimportnumpyasnpa=np.random.randn(5)print(a)print(a.shape)result:[1.189619880.057224651.83658954-0.6092621-1.32062653](5,)Thearrayofahavefivegaussianrandomnumbervariablesandtheshapeofarraya
倒霉蛋or幸运儿
·
2023-10-20 10:58
吴恩达
深度学习--m个样本的梯度下降
我们关心得J(w,b)是一个平均函数,这个损失函数L。a^i是训练样本的预测值以上是对于单个例子的逻辑回归。我们可以初始化J=0,dw1dw2db都为0回顾我们正在做的细节,dw1、dw2、db作为累加器
862180935588
·
2023-10-19 22:46
Introduction - Unsupervised Learning
摘要:本文是
吴恩达
(AndrewNg)老师《机器学习》课程,第一章《绪论:初识机器学习》中第4课时《无监督学习》的视频原文字幕。为本人在视频学习过程中逐字逐句记录下来以便日后查阅使用。现分享给大家。
王彩旗 edwardwangcq.com
·
2023-10-19 14:13
人工智能
#
机器学习
Machine
Learning
Introduction
Andrew
Ng
收集一些有用的网址
1.
吴恩达
深度学习课后作业汇总2.机器学习基石课后练习汇总3.sublimetext主题生成器持续更新
Sundw_RUC
·
2023-10-19 10:07
deep learning日常小Bug汇总
“千里之堤,溃于蚁穴;”一些细节可能导致整个程序的问题,将在
吴恩达
作业中个人遇到的小bug总结一下。1.在做
吴恩达
深度学习课第一课第三周作业时,发现梯度不变,后来找到原因是因为1和1.0。。
AI算法札记
·
2023-10-19 10:29
Debug
deep
learning
零基础语音识别task6 语音识别扩展阅读
终于是到了最后一个任务了,真不容易~~坚持下来了,还是学到了不少东西,交了不少好友最后的task,它对语音识别内容进行了扩展,更充分的了解到了
机械学习
算法和模型和深度学习在语音领域的应用本文参考datawhile
icdatsc
·
2023-10-19 09:32
带你少走弯路:强烈推荐的TensorFlow快速入门资料和翻译(可下载)
知识更新非常快,需要一直学习才能跟上时代进步,举个例子:
吴恩达
老师在深度学习课上讲的TensorFlow使用,这个肯定是他近几年才学的,因为谷歌开源了TensorFlow也就很短的时间。
湾区人工智能
·
2023-10-19 07:47
吴恩达
tensorflow2.0 实践系列课程(3):NLP
tensorflow2.0中的自然语言处理基本都是入门级的,而且也正如课程设计目标,主体放在tensorflow的基本使用上。围绕的NLP相关问题有:文本如何变为数字送入模型进行处理?(word-key/one-hot、embeddings)文本分类怎么做?比如情感分析?贴label做分类文本预测怎么做?比如模仿莎士比亚文笔?这里必须将文本视作序列,所以用LSTMs。0Aconversationw
Abandon_first
·
2023-10-19 07:16
tensorflow
tensorflow
深度学习
人工智能
机器学习笔记 四 :线性回归(Linear regression)及房屋数据集的回归
目录1.单变量线性回归:2.多变量线性回归 最近在学习
吴恩达
老师的机器学习课程,所以在这里记录一下,主要是完成他的课后作业。
Amyniez
·
2023-10-19 03:43
机器学习
机器学习
线性回归
python
吴恩达
机器学习作业(2):多元线性回归
目录1)数据处理2)代价函数3)Scikit-learn训练数据集4)正规方程练习1还包括一个房屋价格数据集,其中有2个变量(房子的大小,卧室的数量)和目标(房子的价格)。我们使用我们已经应用的技术来分析数据集。1)数据处理还是那个建议,大家拿到数据先看看数据长什么样子。path='ex1data2.txt'data2=pd.read_csv(path,header=None,names=['Si
自动驾驶小学生
·
2023-10-19 03:43
机器学习
机器学习
线性回归
python
吴恩达
深度学习--向量化的更多例子
需要记住的经验之谈:当你在编写神经网络或逻辑回归时,都要尽可能避免使用显示的for循环,有时候无法完全避免for循环,但如果能使用内置函数或其他方法来计算想要的答案,通常会比直接用for循环跟快例子1:你想要计算向量U,它是矩阵A和向量V的乘积:根据矩阵乘法的定义:非向量化的实现方法是;这是一个两层的for循环,分别对i和j进行循环向量化的实现方式是:消除了两层for循环,运行速度要快的多例子2:
862180935588
·
2023-10-17 11:12
如何判断你和优秀AI算法工程师之间的差异?
就连硅谷大佬
吴恩达
,都会利用碎片化的时间读AI论文,
吴恩达
老师不仅经常读AI论文,还给我们总结了读论文的方法。他认为,我们在读论文时,要带着4个问题去读:作者
边缘计算社区
·
2023-10-17 07:11
人工智能
机器学习
编程语言
数据挖掘
java
python拟合曲线_[ML]从最简单的撸起-python实现线性拟合数据
目标:实现将图中的大量红色X状标记拟合为图中所示的一条蓝色直线基本思想:
吴恩达
的coursera机器学习课程变量线性回归章节;递度下降法实现:1.引入相关库:这里用到了python的科学计算库numpy
weixin_39693950
·
2023-10-17 03:19
python拟合曲线
吴恩达
机器学习——降维
1.降维能做的:1)数据压缩:占用更少的内存和硬盘空间。加速学习算法。2)数据可视化:维度降到2或3就可以可视化数据。(从图中推测各维度代表的意义大概是什么)2.降维:从高维度映射/投影到低维度空间上。试图找到一个低维度的空间,使投影误差最小。例如从n维降到k维,就是找k个向量,使得从n维空间数据投影的投影误差最小。3.线性回归和降维的区别:线性回归是要预测y值,所以要最小化的是y轴方向上点到线的
睡不好觉的梨
·
2023-10-16 18:01
如何理解深度学习中迁移学习、预训练、微调的概念
说明本文为观看
吴恩达
深度学习课程视频所做的学习笔记
吴恩达
deeplearning.aiPart3结构化机器学习项目第二周机器学习(ML)策略(2)2.7迁移学习正文假设已经训练好一个图像识别神经网络,如果让这个图像识别神经网络适应或者说迁移不同任务中学到的知识
全幼儿园最聪明
·
2023-10-15 04:13
计算机视觉
深度学习
迁移学习
机器学习
吴恩达
深度学习笔记(31)-为什么正则化可以防止过拟合
为什么正则化有利于预防过拟合呢?(Whyregularizationreducesoverfitting?)为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?我们通过两个例子来直观体会一下。左图是高偏差,右图是高方差,中间是JustRight,这几张图我们在前面课程中看到过。现在我们来看下这个庞大的深度拟合神经网络。我知道这张图不够大,深度也不够,但你可以想象这是一个过拟合的神经网络。这是
极客Array
·
2023-10-14 20:17
深度学习自学2.0
深度学习自学学习路径别人推荐的学习的路径:快速上手:1.理论基础:
吴恩达
的机器学习和深度学习2.代码基础:Python3.框架基础:pytorch4.搭建模型:霹雳叭啦/Bubbliiing/深度学习麋了鹿进阶
咬树羊
·
2023-10-14 17:19
深度学习
python
人工智能
吴恩达
机器学习——Andrew Ng machine-learning-ex2 python实现
目录Exercise2:LogisticRegression1.LogisticRegression1.1Plotting1.2sigmoidfunction1.3Costfunctionandgradient1.4Optimize1.5Predict2.Regularizedlogisticregression2.1Plotting2.2Costfunctionandgradient2.3Opt
令狐傻笑
·
2023-10-14 05:24
机器学习
吴恩达
机器学习
python
逻辑回归
从零开始基于LLM构建智能问答系统的方案
LLM的端到端问答系统,应该包括用户输入检验、问题分流、模型响应、回答质量评估、Prompt迭代、回归测试,随着规模增大,围绕Prompt的版本管理、自动化测试和安全防护也是重要的话题,部分代码参考自
吴恩达
老师
骑猪兜风233
·
2023-10-13 14:56
LLM应用构建实践笔记
大语言模型开发者教程
人工智能
自然语言处理
语言模型
gpt-3
DALL·E
2
bard
文心一言
吴恩达
深度学习第二门课第一周总结
吴恩达
深度学习第二门课第一周总结一、梯度消失/爆炸及解决办法二、正则化方法先上目录:从目录可以看到第一周主要解决了两个问题:过拟合,预防梯度消失/梯度爆炸。现在分别来讨论并进行代码实现。
半个女码农
·
2023-10-12 00:37
深度学习
神经网络
吴恩达深度学习
正则化
吴恩达
深度学习第一门课学习总结
吴恩达
老师深度学习第一门课的核心就是理解前向传播,计算cost,反向传播三个步骤(其实只要静下心来把教程里的公式在草稿纸上推一遍,也不会很难),
吴恩达
老师主要是通过逻辑回归来讲解这些概念首先是如何处理输入样本
半个女码农
·
2023-10-12 00:37
神经网络
深度学习
神经网络概念
前向传播
反向传播
吴恩达
《Machine Learning》-machine-learning-ex1线性回归作业(一)
ex1.m%%MachineLearningOnlineClass-Exercise1:LinearRegression%Instructions%------------%%Thisfilecontainscodethathelpsyougetstartedonthe%linearexercise.Youwillneedtocompletethefollowingfunctions%inthis
丰brother
·
2023-10-11 12:30
人工智能
#
机器学习
机器学习代码实现篇——SVM
1.4带约束的最优化问题求解1.5核函数(kernel)1.6SMO算法2.SVM代码详解2.1源码分析2.2实践检验
吴恩达
老师课程中的SVM介绍比较简单直观化,但是理论推导不够,这篇博客本着手写代码实现
lavendelion
·
2023-10-11 00:17
机器学习笔记
机器学习
SVM
代码实现
(一)线性回归与特征归一化(feature scaling)
吴恩达
机器学习视频https://study.163.com/course/courseMain.htm?
xiangkej
·
2023-10-11 00:46
机器学习
吴恩达
《微调大型语言模型》笔记
微调(fine-tuning)就是利用特有数据和技巧将通用模型转换为能执行具体任务的一种方式。例如,将GPT-3这种通用模型转换为诸如ChatGPT这样的专门用于聊天的模型。或者将GPT-4转换为诸如GitHubCoplot这样的专门用于写代码的模型。这里的微调特指生成式任务上的微调。在这种方式中,需要更新整个模型的权重,而不是像其他模型一样只更新部分权重微调的训练目标与预训练时的目标相同,目的是
小小白2333
·
2023-10-10 01:24
大模型
语言模型
人工智能
自然语言处理
吴恩达
机器学习(十九)—— 异常检测
吴恩达
机器学习系列内容的学习目录→\rightarrow→
吴恩达
机器学习系列内容汇总。
大彤小忆
·
2023-10-09 16:44
机器学习
异常检测
机器学习
《deep learning》前两周课程总结
学习深度学习,当然从
吴恩达
的《deeplearning》开始,原理讲得很透彻也很易懂,适合我这种没什么基
liuchungui
·
2023-10-09 06:16
LSTM在text embedding中的作用(Cross modal retrieval)
如图
吴恩达
深度学习课程中LSTM结构图: 相比于原始的RN
__main__
·
2023-10-09 01:00
深度学习
pytorch
cross
modal
retrieval
吴恩达
深度学习<笔记>优化算法
吴恩达
深度学习优化算法一、1.Mini-batchgradientdescent二、GradientdescentwithmomentumRMSpropAdam优化算法学习率衰减一、1.Mini-batchgradientdescent
不自知的天才
·
2023-10-07 20:58
深度学习
python
人工智能
吴恩达
深度学习笔记 优化算法
一、Mini-batchgradientdescent(小批量梯度下降法)Mini-batch:把整个训练数据集分成若干个小的训练集,即为Mini-batch。为什么要分?梯度下降法必须处理整个训练数据集,才能进行下一次迭代。当训练数据集很大时,对整个训练集进行一次处理,处理速度较慢。但是如果每次迭代只使用一部分训练数据进行梯度下降法,处理速度就会变慢。而处理的这些一小部分训练子集即称为Mini-
uponwyz
·
2023-10-07 20:27
深度学习
算法
cnn
【深度学习】
吴恩达
-学习笔记 优化算法(动量梯度,RMSprop,Adam)、参数初始化、Batch Norm
目录动量梯度下降法:让梯度下降的过程中纵向波动减小RMSprop:消除梯度下降中的摆动Adam优化算法:神经网络参数初始化学习率衰减BatchNorm关于Batch_norm:Batch_norm在测试时:动量梯度下降法:让梯度下降的过程中纵向波动减小动量梯度下降法采用累积梯度来代替当前时刻的梯度。直观来讲,动量方法类似把球推下山,球在下坡时积累动力,在途中速度越来越快,如果某些参数在连续时间内梯
—Xi—
·
2023-10-07 20:55
深度学习
深度学习
python
人工智能
batch
机器学习
2.2
吴恩达
深度学习笔记之优化算法
1.Mini_batchgradientdescent小批量梯度下降法思想:batchgd是一次性处理所有数据,在数据集较大时比如500万个样本,一次迭代的时间会很长,而mini_batchgd是把数据集分为多个子数据集,每个eopch中对子集进行一次处理实现:实现mini_batch分为两步,第一步shuffle,将原集打乱,乱序步骤确保将样本被随机分成不同的小批次。第二步partition分割
Traviscxy
·
2023-10-07 20:25
深度学习
深度学习
【无标题】
【机器学习】机器学习笔记(
吴恩达
)-CSDN博客1.误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。2.梯度下降会自动采取更小的步骤,所以不需要随时间减小学习率a。
FlyingAnt_
·
2023-10-06 20:53
人工智能
机器学习
吴恩达
机器学习(八)
异常检测第一百二十三课:问题动机什么是异常检测?判断xtext,即新的飞机引擎是否能像一个正常的引擎一样工作?更正式的定义:建立模型p(x),将xtest与p(x)进行比较:欺诈检测:寻找网站中操作异常的用户工业生产领域计算机机群管理第一百二十四课:高斯分布正态分布两个参数,均值u;方差σ^2u控制钟形曲线的中心位置,σ控制钟形曲线的宽度例子:阴影面积的积分都是1!参数估计问题:参数估计问题就是给
带刺的小花_ea97
·
2023-10-06 10:31
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 1 - 神经网络和深度学习 - 第三周测验
课程1_第3周_测验题目录:目录第一题1.以下哪一项是正确的?A.【 】a[2](12)a^{[2](12)}a[2](12)是第12层,第2个训练数据的激活向量。B.【 】X是一个矩阵,其中每个列都是一个训练示例。C.【 】a4[2]a^{[2]}_4a4[2]是第2层,第4个训练数据的激活输出。D.【 】a4[2]a^{[2]}_4a4[2]是第2层,第4个神经元的激活输出。E.【 】a[2]
coldstarry
·
2023-10-05 09:54
吴恩达作业-深度学习
深度学习
python
sheng的学习笔记-【中英】【
吴恩达
课后测验】Course 1 - 神经网络和深度学习 - 第四周测验
课程1_第4周_测验题目录:目录第一题1.在我们的前向传播和后向传播实现中使用的“缓存”是什么?A.【 】它用于在训练期间缓存成本函数的中间值。B.【 】我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。C.【 】它用于跟踪我们正在搜索的超参数,以加快计算速度。D.【 】我们用它将反向传播过程中计算的变量传递到相应的正向传播步骤。它包含用于计算正向传播
coldstarry
·
2023-10-04 21:56
吴恩达作业-深度学习
深度学习
python
ubuntu之路——day10.4 什么是人的表现
结合
吴恩达
老师前面的讲解,可以得出一个结论:在机器学习的早期阶段,传统的机器学习算法在没有赶超人类能力的时候,很难比较这些经典算法的好坏。也许在不同的数据场景下,不同的ML算法有着不同的表现。
初仔仔
·
2023-10-04 20:31
人工智能
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 2 - 改善深层神经网络 - 第二周测验
课程2_第2周_测验题目录:目录第一题1.当输入从第8个mini-batch的第7个的例子的时候,你会用哪种符号表示第3层的激活?A.【 】a[3]{8}(7)a^{[3]\{8\}(7)}a[3]{8}(7)B.【 】a[8]{7}(3)a^{[8]\{7\}(3)}a[8]{7}(3)C.【 】a[8]{3}(7)a^{[8]\{3\}(7)}a[8]{3}(7)D.【 】a[3]{7}(8)
coldstarry
·
2023-10-04 19:46
吴恩达作业-深度学习
神经网络
深度学习
python
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他