E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达-深度学习笔记
深度学习笔记
之微积分及绘图
深度学习笔记
之微积分及绘图学习资料来源:微积分%matplotlibinlinefrommatplotlib_inlineimportbackend_inlinefrommxnetimportnp,npxfromd2limportmxnetasd2lnpx.set_np
白芷加茯苓
·
2023-10-03 20:02
Python学习记录
机器学习
深度学习
笔记
WED笔记
神经网络与
深度学习笔记
要点在numpy中矩阵乘法与点乘:1.1矩阵乘法np.dot(a,b)=a@b其中矩阵a的列和b的行数相等看一下下面的这两个随机数组“a”和“b”:a=np.random.randn
挥手致何意
·
2023-10-03 04:58
神经网络与深度学习
深度学习笔记
之线性代数
深度学习笔记
之线性代数一、向量在数学表示法中,向量通常记为粗体小写的符号(例如,x,y,z)当向量表示数据集中的样本时,它们的值具有一定的现实意义。
白芷加茯苓
·
2023-10-02 20:02
Python学习记录
机器学习
深度学习
笔记
线性代数
深度学习笔记
_3、全连接神经网络解决MNIST数据
1、导入包importnumpyasnpimporttorch#导入pytorch内置的mnist数据fromtorchvision.datasetsimportmnist#importtorchvision#导入预处理模块importtorchvision.transformsastransformsfromtorch.utils.dataimportDataLoader#导入nn及优化器imp
Element_南笙
·
2023-10-02 20:53
深度学习
深度学习
笔记
神经网络
吴恩达
机器学习——无监督学习
1.k-means的步骤:先随机选择K个簇中心,1)划分样本:每个样本分配到距离最近的簇。2)更新簇中心位置:计算分配之后每个簇的中心位置,更新簇中心位置。迭代上述过程,直到簇中心位置不变。2.代价函数迭代完成后,每个样本距离所属簇中心的距离的均方和。稍微说明了下,上述迭代过程就是最小化代价函数的过程(分别从样本相对于簇中心的距离,和簇的位置,两个维度的最小化)3.随机初始化建议的做法,随机选择K
睡不好觉的梨
·
2023-10-01 15:44
深度学习笔记
:一些理解上的问题
1、特征映射什么意思指在卷积神经网络(ConvolutionalNeuralNetwork,CNN)中的卷积层中,通过对输入数据进行卷积操作得到的输出数据。特征映射可以看作是输入数据在卷积神经网络中的“抽象”,它可以提取输入数据中的不同特征,例如边缘、纹理、形状等信息。随着网络深度的增加,特征映射也变得越来越抽象,可以提取更高级别的特征,例如物体的部分、整体、类别等信息。这些特征映射最终会通过池化
愿你酷得像风
·
2023-10-01 05:21
深度学习
深度学习
深度学习笔记
(四)—— 前馈神经网络的 PyTorch 实现
1AUTOGRADAUTOMATICDIFFERENTIATIONCentraltoallneuralnetworksinPyTorchistheautogradpackage.Let’sfirstbrieflyvisitthis,andwewillthengototrainingourfirstneuralnetwork.Theautogradpackageprovidesautomaticdi
Nino_Lau
·
2023-10-01 01:52
深度学习笔记
_1、定义神经网络
1、使用了PyTorch的nn.Module类来定义神经网络模型;使用nn.Linear来创建全连接层。(CPU)importtorch.nnasnnimporttorch.nn.functionalasFfromtorchsummaryimportsummary#定义神经网络模型classNet(nn.Module):def__init__(self):super(Net,self).__ini
Element_南笙
·
2023-09-30 22:17
深度学习
深度学习
笔记
神经网络
深度学习笔记
_2、多种方法定义神经网络
1、nn.Moduleimporttorchfromtorchimportnnimporttorch.nn.functionalasFclassModel_Seq(nn.Module):""def__init__(self,in_dim,n_hidden_1,n_hidden_2,n_hidden_3,out_dim):super(Model_Seq,self).__init__()self.fl
Element_南笙
·
2023-09-30 22:45
深度学习
深度学习
笔记
神经网络
【李沐
深度学习笔记
】Softmax回归
课程地址和说明Softmax回归p1本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。Softmax回归虽然它名字叫作回归,但是它其实是分类问题本节课的基础想要学会本节课得需要一点基础,我真没看懂这节课讲的是什么,查了一些资料补了补基础此处参考视频信息量|熵|交叉熵|KL散度(相对熵)|交叉熵损失函数信息量(AmountofInformation)定义事件
魔理沙偷走了BUG
·
2023-09-30 13:39
李沐深度学习
深度学习
笔记
回归
吴恩达
《Machine Learning Yearning》学习笔记-1
第一部分:数据准备-建立合适的开发集和测试集1.从相同的分布中选择开发集和测试集,且开发集和测试集数据需要与你预期的算法使用场景保持一致。这样开发集能够更好的指导团队的改进优化方向,测试集能真正衡量算法在实际场景中的性能。开发集和测试集的分布可以与训练数据不同。2.选定一个数值型的评估标准作为团队的优化方向。如果存在多个目标,那么可以考虑:1.合并成一个(如求平均误差)标准;或者,定义一个优化目标
城市守望者
·
2023-09-29 20:20
深度学习笔记
之优化算法(二)随机梯度下降
深度学习笔记
之优化算法——随机梯度下降引言回顾:梯度下降法梯度下降法在机器学习中的问题随机梯度下降随机梯度下降方法的思想随机梯度下降方法的步骤描述关于学习率引言本节将介绍随机梯度下降(StochasticGradientDescent
静静的喝酒
·
2023-09-28 13:05
深度学习
机器学习
随机梯度下降与Bagging
梯度下降法的问题
计算机基础每日学习笔记 | 20210116
寒假刷完课~后面还想刷一下
吴恩达
老师的机器学习(CrashCourse到P4C
不热爱技术的设计不是好产品
·
2023-09-27 20:10
线性回归&逻辑回归&正则化
本文为《
吴恩达
机器学习》课程笔记线性回归代价函数CostFuction它的目标是:选择出可以使得建模误差的平方和能够最小的模型参数批量梯度下降BatchGradientDescent是学习率(learningrate
susion哒哒
·
2023-09-27 20:50
【李沐
深度学习笔记
】线性回归的简洁实现
课程地址和说明线性回归的简洁实现p4本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。线性回归的简洁实现通过使用深度学习框架来简洁地实现线性回归模型生成数据集importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2l#真实w和btrue_w=torch.tensor(
魔理沙偷走了BUG
·
2023-09-27 20:58
李沐深度学习
深度学习
笔记
线性回归
动手
深度学习笔记
(三十三)6.3. 填充和步幅
动手
深度学习笔记
(三十三)6.3.填充和步幅题6.卷积神经网络6.3.填充和步幅6.3.1.填充6.3.2.步幅6.3.3.小结6.3.4.练习6.卷积神经网络6.3.填充和步幅在前面的例子图6.2.1
落花逐流水
·
2023-09-27 06:07
pytorch实践
pytorch
pytorch
打开深度学习的锁:(2)单隐藏层的神经网络
需要导入的包二、构建神经网络的架构三、初始化函数四、激活函数4.1tanh(双曲正切函数)函数五,前向传播六、损失函数七、后向传播八、梯度下降九、构建预测十、聚合和主函数完整代码:总结导言本篇知识背景来源于
吴恩达
教授的
Jiashun Hao
·
2023-09-26 04:51
深度学习
神经网络
人工智能
李沐
深度学习笔记
(利用pytorch的深度学习框架实现线性回归)
1.主要代码:#线性回归的简单实现importtorchfromtorch.utilsimportdatafromd2limporttorchasd2l#获取数据集true_w=torch.tensor([2,-3.4])true_b=4.2features,labels=d2l.synthetic_data(true_w,true_b,1000)#调用d2l库中的synthetic_data构造
小蔡是小菜
·
2023-09-25 17:25
python
深度学习
pytorch
线性回归
【ML/DL】深层神经网络模型python实现
实现文章目录深层神经网络模型python实现注:1.准备工作导入必要的包导入数据集2.创建模型(1)初始化参数(2)前向传播(3)计算cost(4)反向传播(5)更新参数(6)合成模型3.训练模型注:数据集及详细讲解请查找
吴恩达
深度学习第一课第四周
落叶阳光
·
2023-09-25 04:18
算法篇
【李沐
深度学习笔记
】自动求导实现
课程地址和说明自动求导实现p2本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。自动求导#创建变量importtorchx=torch.arange(4,dtype=torch.float32)#只有浮点数才能求导#计算y关于x的梯度之前,需要一个地方存储梯度x.requires_grad_(True)print("x为:",x)#计算yy=2*torch
魔理沙偷走了BUG
·
2023-09-24 16:47
李沐深度学习
深度学习
笔记
人工智能
2020年6月3日
今天没什么硬性任务,于是主要精力都用来复习
吴恩达
的deeplearning网课笔记,果然有些知识点还是需要学而时习之的。
真昼之月
·
2023-09-24 10:21
第五章 多变量线性回归
该系列文章为,观看“
吴恩达
机器学习”系列视频的学习笔记。虽然每个视频都很简单,但不得不说每一句都非常的简洁扼要,浅显易懂。非常适合我这样的小白入门。
tomas家的小拨浪鼓
·
2023-09-24 05:59
吴恩达
深度学习笔记
-搭建多层神经网络
吴恩达
作业-搭建多层神经网络。
一技破万法
·
2023-09-23 13:40
吴恩达
+Open AI 《面向开发者的ChatGPT Prompt 工程》课程学习2——prompt指导原则1
《面向开发者的ChatGPTPrompt工程》课程学习索引
吴恩达
+OpenAI《面向开发者的ChatGPTPrompt工程》课程学习1——课程介绍
吴恩达
+OpenAI《面向开发者的ChatGPTPrompt
会写代码的孙悟空
·
2023-09-23 08:53
chatGPT
人工智能
chatgpt
学习
吴恩达
+Open AI 《面向开发者的ChatGPT Prompt 工程》课程学习1——课程介绍
许多人都体验过ChatGPT的Web用户界面来完成特定而且通常是一次性的任务。但是从开发者的角度来说,通过API调用LLM(largelanguagemodel大语言模型)来快速构建应用程序这个强大的功能被严重低估了。通过这个课程系列,你将会收获学习到一些软件开发提示词的最佳实践;学习到一些常见的用例、总结、推理、转化、扩展;使用LLM建立一个聊天机器人。两种大语言模型介绍基础大语言模型(Base
会写代码的孙悟空
·
2023-09-23 08:23
chatGPT
人工智能
chatgpt
学习
机器学习-
吴恩达
笔记10
本周主要是介绍了两个方面的内容,一个是如何进行大规模的机器学习,另一个是关于图片文字识别OCR的案例大规模机器学习(LargeScaleMachineLearning)在低方差的模型中,增加数据集的规模可以帮助我们获取更好的结果。但是当数据集增加到100万条的大规模的时候,我们需要考虑:大规模的训练集是否真的有必要。获取1000个训练集也可以获得更好的效果,通过绘制学习曲线来进行判断。image随
皮皮大
·
2023-09-23 06:38
神经网络与深度学习-Stanford
吴恩达
教授-Week2(神经网络基础)
逻辑回归是一个用于二分类(binaryclassification)的算法。符号定义:逻辑回归的HypothesisFunction(假设函数)[参考:https://blog.csdn.net/weixin_36815313/article/details/105309095(非常详细)]Logistic回归损失函数(LogisticRegressionCostFunction)为了训练逻辑回归
LAANever
·
2023-09-23 06:09
【李沐
深度学习笔记
】矩阵计算(2)
课程地址和说明线性代数实现p4本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。本节是第二篇矩阵计算矩阵的导数运算此处参考了视频:矩阵的导数运算为了方便看出区别,我将所有的向量都不按印刷体加粗,而是按手写体在向量对应字母上加箭头的方式展现。标量方程对向量的导数在一元函数中,求一个函数的极值点,一般令导数为0(该点切线斜率为0),求得驻点,最后通过极值点定义
魔理沙偷走了BUG
·
2023-09-22 22:34
李沐深度学习
深度学习
笔记
矩阵
深度学习笔记
-使用神经网络进行手写数字分类(1)
注:关于类和标签的说明。在机器学习中,分类问题中的某个类别叫做类(class)。数据点叫做样本(Sample)。某个样本对应的类叫做标签(lable)。MNIST数据集预加载在Keras库中fromkeras.datasetsimportmnist(train_images,train_labels),(test_images,test_labels)=mnist.load_data()注:tra
布莱克先生
·
2023-09-22 09:28
深度学习
深度学习
神经网络
分类
吴恩达
DL lesson3 week1
1.1为什么是ML策略?(WhyMLStrategy?)当你尝试优化一个深度学习系统时,你通常可以有很多想法可以去试,问题在于,如果你做出了错误的选择,你完全有可能白费6个月的时间,往错误的方向前进,在6个月之后才意识到这方法根本不管用。例如收集更多训练数据训练集的多样性不够,收集更多的具有多样性的实验数据和更多样化的反例集.使用梯度下降法训练更长的时间尝试一个不同的优化算法,例如Adam优化算法
wyq0717
·
2023-09-22 02:37
【李沐
深度学习笔记
】线性代数实现
课程地址和说明线性代数实现p2本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。这节就算之前内容的复习,后面以截图形式呈现标量由只有一个元素的张量表示importtorchx=torch.tensor([3.0])y=torch.tensor([2.0])#加减法print(x+y)#乘法print(x*y)#除法print(x/y)#幂运算print(x
魔理沙偷走了BUG
·
2023-09-21 16:54
李沐深度学习
深度学习
笔记
线性代数
Deep Neural Network for Image Classification(
吴恩达
老师课后作业)
DeepNeuralNetworkforImageClassification1.前言这里
吴恩达
老师大课第一部分第四周的实验作业,上一次的实验作业(logistics回归模型实现二分类算法)是相关联的,
佳雨初林
·
2023-09-20 17:05
深度学习
python
深度学习
神经网络
Logistic Regression with a Neural Network mindset _
吴恩达
老师深度学习课后作业
LogisticRegressionwithaNeuralNetworkmindset本篇博客主要是个人在完成
吴恩达
老师第二周的课后作业的实验记录,期间遇到过很多问题和还有个人的一些思考,所以写此博客,
佳雨初林
·
2023-09-20 17:04
深度学习
深度学习
人工智能
logistics
regression
jupyter
python
吴恩达
深度学习笔记
(91)-带你了解计算机视觉现状
计算机视觉现状(Thestateofcomputervision)深度学习已经成功地应用于计算机视觉、自然语言处理、语音识别、在线广告、物流还有其他许多问题。在计算机视觉的现状下,深度学习应用于计算机视觉应用有一些独特之处。在这个笔记中,我将和你们分享一些我对深度学习在计算机视觉方面应用的认识,希望能帮助你们更好地理解计算机视觉作品(此处指计算机视觉或者数据竞赛中的模型)以及其中的想法,以及如何自
极客Array
·
2023-09-20 12:45
神经网络DNN的前向传播和后向传播
最近看了不少
吴恩达
的视频,听了不少神经网络的前向和后向传播的介绍,也看了不少的公式,很多东西看过了,不见得记住了,记住了不见得就理解了,今天就随便写点,就算是对最近一段时间学习的一个小结和回顾。
千足下
·
2023-09-20 08:18
【Pytorch
深度学习笔记
10】基本的卷积操作conv1d
声明本文根据个人理解写的,如有纰漏望指正,谢谢!Conv1d的理解conv1d有两个,一个是torch.nn模块中,另一个是torch.nn.functional模块中。第一种:torch.nn.Conv1d调用格式torch.nn.Conv1d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=1,
坚果仙人
·
2023-09-20 08:21
pytorch
深度学习
深度学习
神经网络
机器学习
05线性代数(李沐
深度学习笔记
)
文章目录线性代数线性代数实现QA线性代数直观理解矩阵乘法相当于扭曲空间,向量通过一个矩阵相乘变成另外一个向量,相当于矩阵把一个空间进行了扭曲矩阵也有长度,即范数c和b是向量。F范数相当于把矩阵拉成一个向量求范数,由于F范数比较简单,所以一般会用F范数在数学上,特别是在矩阵理论中,置换矩阵是一个方形二进制矩阵,它在每行和每列中只有一个1,而在其他地方则为0。设P是一个m×n的(0,1)矩阵,如果m≤
裂缘冰释
·
2023-09-19 17:41
李沐深度学习
线性代数
深度学习
机器学习
李沐
深度学习笔记
-06矩阵计算
06矩阵计算标量导数亚倒数如果不存在导数的话,将导数拓展到不可微的函数梯度将导数拓展到向量当y是标量,x是标量,求导为标量当y是标量,x是向量,求导为向量当y是向量,x是标量,求导为向量当y是向量,x是向量,求导为矩阵
爱的小胡
·
2023-09-19 17:41
李沐深度学习笔记
矩阵
深度学习
线性代数
07自动求导(李沐
深度学习笔记
)
这里求导可以参看上一节这张图,∂∂w=xT∂w∂w+wT∂x∂w=xT∂w∂w=xT\frac{\partial}{\partialw}=x^T\frac{\partialw}{\partialw}+w^T\frac{\partialx}{\partialw}=x^T\frac{\partialw}{\partialw}=x^T∂w∂=xT∂w∂w+wT∂w∂x=xT∂w∂w=xT,因为∂w∂w=
裂缘冰释
·
2023-09-19 17:11
李沐深度学习
深度学习
线性代数
矩阵
李沐基于Pytorch的
深度学习笔记
(2)
2线性代数2.1线性代数基础这一节其实就相当于啥呢,一个简单的了解:2.1.1标量、向量、矩阵那么之后李沐老师会讲一个用Python怎么实现,这里就不多赘述了。因为网上关于矩阵的Numpy&Pytorch实现都是现成的,不用纠结太多,遇见了就会了。
Reedsway_Yuhan.C
·
2023-09-19 17:40
笔记
pytorch
深度学习
线性代数
【李沐
深度学习笔记
】线性代数
课程地址和说明数据预处理实现p3本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。线性代数标量标量(scalar),亦称“无向量”。有些物理量,只具有数值大小,而没有方向,部分有正负之分。物理学中,标量(或作纯量)指在坐标变换下保持不变的物理量。用通俗的说法,标量是只有大小,没有方向的量。(在深度学习领域也是如此)标量的运算规律加减法:c=a+bc=a+b
魔理沙偷走了BUG
·
2023-09-19 17:39
李沐深度学习
深度学习
笔记
线性代数
深度学习笔记
(二十二)—— 健壮性
Deeplearninghasbeenwidelyappliedtovariouscomputervisiontaskswithexcellentperformance.PriortotherealizationoftheadversarialexamplephenomenonbyBiggioetal.,Szegedyet.al,modelperformanceoncleanexampleswas
Nino_Lau
·
2023-09-19 05:23
2022
吴恩达
机器学习Deeplearning.ai课程编程作业C1_W2: Linear Regression
PracticeLab:LinearRegressionWelcometoyourfirstpracticelab!Inthislab,youwillimplementlinearregressionwithonevariabletopredictprofitsforarestaurantfranchise.Outline1-Packages2-Linearregressionwithonevar
alterego2380
·
2023-09-19 03:33
机器学习
python
numpy
机器学习
线性回归
人工智能
吴恩达
机器学习week2实验答案Practice Lab Linear Regression【C1_W2_Linear_Regression】
PracticeLab:LinearRegressionExercise1Completethecompute_costbelowto:Iterateoverthetrainingexamples,andforeachexample,compute:Thepredictionofthemodelforthatexamplefwb(x(i))=wx(i)+bf_{wb}(x^{(i)})=wx^{(
会不了一点
·
2023-09-19 03:33
ygggy
机器学习
线性回归
人工智能
吴恩达
深度学习笔记
(61)-训练调参中的准确率和召回率
单一数字评估指标(Singlenumberevaluationmetric)无论你是调整超参数,或者是尝试不同的学习算法,或者在搭建机器学习系统时尝试不同手段,你会发现,如果你有一个单实数评估指标,你的进展会快得多,它可以快速告诉你,新尝试的手段比之前的手段好还是差。所以当团队开始进行机器学习项目时,我经常推荐他们为问题设置一个单实数评估指标。我们来看一个例子,你之前听过我说过,应用机器学习是一个
极客Array
·
2023-09-19 03:06
Learn Prompt-为什么用 ChatGPT API?
引用人工智能先驱
吴恩达
先生说过的话:“一个系统需要的远不止一个提示(prompt)或者一个对LLM(大性语言模型)的调用。”
xiaoshun007~
·
2023-09-18 11:29
ChatGPT
chatgpt
prompt
人工智能
吴恩达
ChatGPT《Finetuning Large Language Models》笔记
课程地址:https://learn.deeplearning.ai/finetuning-large-language-models/lesson/1/introductionIntroduction动机:虽然编写提示词(Prompt)可以让LLM按照指示执行任务,比如提取文本中的关键词,或者对文本进行情绪分类。但是,微调LLM,可以让其更一致地做具体的任务。例如,微调LLM对话时的语气。课程大
datamonday
·
2023-09-18 08:49
AIGC
chatgpt
prompt
llm
llama
finetune
李沐
深度学习笔记
-05线性代数
1.线性代数标量由只有一个元素的张量表示importtorchx=torch.tensor([3.0])y=torch.tensor([2.0])x+y,x*y,x/y,x**y#输出(tensor([5.]),tensor([6.]),tensor([1.5000]),tensor([9.]))可以将向量视为标量值组成的列表x=torch.arange(4)x#输出tensor([0,1,2,3
爱的小胡
·
2023-09-17 17:21
李沐深度学习笔记
深度学习
线性代数
pytorch
04数据操作+数据预处理(李沐
深度学习笔记
)
数据操作首先,我们导入torch。请注意,虽然它被称为Pytorch,但我们应该导入torch而不是Pytorch。张量表示一个数值组成的数组,这个数组可能有多个维度。我们可以通过张量的shape属性来访间问张量的形状和张量中元素的总数通过shape可以查看张量的形状(维度),numel()(即numberofelements的缩写)可以查看张量有多少元素要改变一个张量的形状而不改变元素数量和元素
裂缘冰释
·
2023-09-17 17:51
李沐深度学习
pytorch
深度学习
python
李沐
深度学习笔记
3.3简洁实现线性回归
3.3简洁实现线性回归#生成数据集importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2ltrue_w=torch.tensor([2,-3.4])true_b=4.2features,labels=d2l.synthetic_data(true_w,true_b,1000)#读取数据集defload_ar
菜鸟思如
·
2023-09-17 17:51
深度学习
python
人工智能
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他