E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习
吴恩达老师DeepLearning系列课程最详细学习笔记之23—Jupyter Ipython笔记本的快速指南
学习视频主要来自B站[双语字幕]
吴恩达深度学习
deeplearning.ai_哔哩哔哩_bilibili?
james9668
·
2023-01-09 00:15
吴恩达
DeepLearning
人工智能
深度学习
吴恩达老师DeepLearning系列课程最详细学习笔记之1—深度学习概念
学习视频主要来自B站[双语字幕]
吴恩达深度学习
deeplearning.ai_哔哩哔哩_bilibili?
james9668
·
2023-01-09 00:14
吴恩达
DeepLearning
人工智能
深度学习
吴恩达深度学习
工程师系列课程笔记(Deep Learning Specialization - deeplearning.ai)
深度学习笔记导航前言传送门完结感想前言选择吴恩达的深度学习视频作为入门是明智的选择,我对比过包括动手学深度学习在内的一些入门资料,感觉还是吴恩达的最为通俗易懂,虽然他在RNN那部分讲的一般,但是即使是这样,也是讲的比较好的。唯一的不太友好的点大概就是英文,好在b站有字幕版本的视频,刚开始可以开0.75倍速,虽然有字幕,但是我还是推荐把英文都听了,一方面锻炼听力,另一方面,字母还是差强人意,关键的部
亦梦亦醒乐逍遥
·
2023-01-09 00:42
人工智能
个人随笔/学习笔记
人工智能
深度学习
机器学习
吴恩达深度学习
视频笔记(持续更新)
深度学习符号字典:http://www.ai-start.com/dl2017/html/notation.html文章目录第一章节:最简单的神经网络逻辑回归LogisticRegression逻辑回归代价函数梯度下降法浅层神经网络激活函数神经网络的梯度下降随机初始化搭建神经网络块第二章节:偏差,方差正则化dropout正则化其他正则化方法归一化(正则化)输入神经网络的权重初始化优化算法Mini-
每天都在努力学习SLAM的小黑
·
2023-01-08 09:46
吴恩达深度学习
学习笔记——C1W3——浅层神经网络——作业——平面数据分类
这里主要梳理一下作业的主要内容和思路,完整作业文件可参考:https://github.com/pandenghuang/Andrew-Ng-Deep-Learning-notes/tree/master/assignments/C1W3作业完整截图,参考本文结尾:作业完整截图。作业目录:作业目标:PlanardataclassificationwithonehiddenlayerWelcomet
预见未来to50
·
2023-01-08 09:12
机器学习
深度学习(ML/DL)
吴恩达深度学习
课程自学笔记整理(一)——一些自己总结记录的结论和小tips等
注:本人已经学完了吴恩达老师机器学习和深度学习的全部课程,整理出来的知识点是比较笼统的、自己总结的一些结论和经验,发在这里主要是为了方便自己复习翻阅,已经学完大部分课程或者对深度学习有了一定基础的uu可以阅读下~欢迎批评指正。一些基础逻辑回归的代价函数:L(y^,y)=−ylog(y^)−(1−y)log(1−y^)L(\hat{y},y)=-y\log(\hat{y})-(1-y)\log(
yan_nLiiiiii
·
2023-01-08 07:12
机器学习深度学习
深度学习
python
机器学习
人工智能
《
吴恩达深度学习
》学习笔记002_神经网络的编程基础(Basics of Neural Network programming)
http://www.ai-start.com/dl2017/html/lesson1-week2.html神经网络的编程基础(BasicsofNeuralNetworkprogramming)二分类(BinaryClassification)我们来看看一张图片在计算机中是如何表示的,为了保存一张图片,需要保存三个矩阵,它们分别对应图片中的红、绿、蓝三种颜色通道,如果你的图片大小为64x64像素,
Stark0x01
·
2023-01-07 17:08
吴恩达深度学习
作业中因版本不同导致的一些报错问题
此文只是记录本人在运行
吴恩达深度学习
作业时,我用的Python包和作业版本不同,导致作业中一些老版本的功能在新版本中去掉了就报错。
可豌豆
·
2023-01-07 09:57
深度学习
tensorflow
人工智能
bug
吴恩达深度学习
tensorflow版本问题
1.module'tensorflow'hasnoattribute'global_variables_initializer'问题解决:在import后面加代码tf.compat.v1.disable_eager_execution()然后将源代码改为:y_hat=tf.constant(36,name='y_hat')#Definey_hatconstant.Setto36.y=tf.cons
qq_43178462
·
2023-01-07 09:24
tensorflow
深度学习
机器学习
《
吴恩达深度学习
》编程作业-第二周
目录1.题目:基于神经网络思维模式的逻辑回归2.声明3.知识回顾4.Python编程分析4.1.导入需要用的库4.2.数据处理4.2.1.读取数据(包括训练集和测试集)4.2.2.取出数据(包括训练集和测试集,还有标签的值)4.2.3.数据维度处理(设置成为合适的维度)4.2.4.标准化数据4.3.构建神经网络4.3.1.定义激活函数sigmiod(z)4.3.2.初始化参数(w、b)4.3.3.
Jerry---
·
2023-01-07 08:01
《吴恩达深度学习》编程作业
深度学习
人工智能
python
吴恩达深度学习
1笔记week3——浅层神经网络 One hidden layer Neural Network
吴恩达深度学习
笔记week3——浅层神经网络OnehiddenlayerNeuralNetwork3.1神经网络概览NeuralNetworksOverview!
Saulty
·
2023-01-07 07:01
深度学习
花书+
吴恩达深度学习
(二一)线性因子模型(概率PCA,ICA,SFA,稀疏编码)
文章目录0.前言1.概率PCA和因子分析2.独立成分分析ICA3.慢特征分析SFA4.稀疏编码如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~花书+
吴恩达深度学习
(二一)线性因子模型
I can丶
·
2023-01-05 22:15
深度学习
深度学习
无监督学习
线性因子模型
SFA
稀疏编码
深度学习 颜色识别_
吴恩达深度学习
笔记(136) | 语音识别
语音识别(Speechrecognition)现今,最令人振奋的发展之一,就是seq2seq模型(sequence-to-sequencemodels)在语音识别方面准确性有了很大的提升。这门课程已经接近尾声,现在我想通过剩下笔记,来告诉你们,seq2seq模型是如何应用于音频数据的(audiodata),比如语音(thespeech)。什么是语音视频问题呢?现在你有一个音频片段x(anaudio
weixin_39747577
·
2023-01-05 11:53
深度学习
颜色识别
吴恩达神经网络和深度学习-week3-浅层神经网络的要点记录
本文所有截图来自于
吴恩达深度学习
课视频课程。1、神经网络的表示上图是一个双层神经网络的例子,包括一层隐藏层和一层输出层,输入层不算做标准层,有时也将输入层成为第0层。
m0_59838738
·
2023-01-05 09:19
深度学习之路
神经网络
机器学习
深度学习
吴恩达深度学习
系列课程随记——Course3Week2
1.进行误差分析第一,你应该找一组错误样本第二,观察错误标记的样本,假阳性(falsepositives)和假阴性(falsenegatives)第三,统计属于不同错误类型的错误数量,比如把狗分成猫,把狮子分成猫,太模糊分错了这样你可以发现解决问题的方向,但注意选择首要的方向不能只看错误占比,要考虑解决问题的代价。2.清除标注错误的数据训练集标注错了:如果是少量的随机性错误,可以不管,深度学习算法
Asteries
·
2023-01-05 09:15
深度学习
深度学习
神经网络
吴恩达
个人笔记
菜鸟
Python搭建虚拟环境安装tensorflow
吴恩达深度学习
jupyternotebook关联
文章目录前言一、anaconda是什么?二、安装tensorflow1.condainstall相关包的安装2.(可选)若需要安装tensorflow-gpu3.关联jupyternotebook前言通过构建python虚拟环境,可以使我们高效地管理我们的packages,在不同的开发环境中使用不同的虚拟环境。一、anaconda是什么?anaconda是一款科学软件包管理器,所以在关于pytho
认真学习的鸭子
·
2023-01-03 14:20
python
深度学习
tensorflow
anaconda
《PyTorch深度学习实践》完结合集 · Hongpu Liu · overview(1)
我是结合着
吴恩达深度学习
的课程一起来看的!!!刘老师的课讲的很生动!!!里面有代码的详解也有理论推导,适合初学者!!!
手可摘星辰不去高声语
·
2023-01-03 11:39
PyTorch
吴恩达深度学习
第一周编码练习
1,使用numpy构建基本函数importnumpyasnp#构建一个返回实数x的sigmoid的函数。将math.exp(x)用于指数函数。importmathdefbasic_sigmoid(x):#simoids的值s=1/(1+math.exp(-x))returnsm=basic_sigmoid(3)print(m)x=np.array([1,2,3])#np.array吧列表中的数据转
m0_46314815胡说养的猪
·
2023-01-03 11:01
深度学习
numpy
python
pycharm
吴恩达深度学习
:水平边缘计算
此公众号会发表计算机考研(初复试信息)、夏令营等资料,方便考研人对信息的获取,节约自身查找资料的时间,回复408,可获得数据结构、操作系统、计算机网络、计算机组成原理全科资料更多边缘检测内容(MoreEdgeDetectionExample)你已经见识到用卷积运算实现垂直边缘检测,在本视频中,你将学习如何区分正边和负边,这实际就是由亮到暗与由暗到亮的区别,也就是边缘的过渡。你还能了解到其他类型的边
青竹aaa
·
2023-01-03 10:18
深度学习
卷积
【序列模型】第一课--循环序列模型
课程来源:
吴恩达深度学习
课程《序列模型》笔记整理:王小草时间:2018年4月28日吴恩达的课程一直是我深爱喜绝的,深入浅出,10分钟可以讲完一个可能要一个小时或者半天理解的知识点,并且讲得老少都懂,男女皆晓
王小小小草
·
2023-01-02 10:28
深度学习
神经网络
人工智能
序列模型
自然语言处理
吴恩达深度学习
与神经网络编程作业——Logistic Regression with a Neural Network
记:开始记录深度学习以及机器学习过程中写过的代码和学到的知识了,吴恩达老师的课真的是入门者的福音了,我这种小白在听完老师的课之后都能动手写课后作业,写完编程作业的感受就是:虽然原版作业是英文,但是静下心来基本都能读懂,而且过程中都有提示,认真听完课完成作业应该不是问题。(jupyternotebook用起来真的不错,就是前期配置有点麻烦)1、所需要的包importnumpyasnpimportma
.无名之辈
·
2023-01-02 07:44
cv
cv
吴恩达编程作业
神经网络
github标星8331+:
吴恩达深度学习
课程资源(完整笔记、中英文字幕视频、python作业,提供百度云镜像!)...
吴恩达老师的深度学习课程(deeplearning.ai),可以说是深度学习入门的最热门课程,我和志愿者编写了这门课的笔记,并在github开源,star数达到8331+,曾经有相关报道文章。为解决github下载速度较慢,我将我的github仓库打包成镜像文件,放到百度云提供下载,5秒即可保存。(黄海广)课程说明课程地址:https://www.deeplearning.ai国内由网易云课堂进行
机器学习算法那些事
·
2022-12-31 12:10
负采样(Negative Sampling)
来源:Coursera
吴恩达深度学习
课程在Word2Vec文章中,我们见到了Skip-Gram模型如何构造一个监督学习任务,把上下文映射到了目标词上,它如何学到一个实用的词嵌入(wordembedding
双木的木
·
2022-12-31 10:32
吴恩达深度学习笔记
深度学习知识点储备
笔记
算法
python
机器学习
人工智能
深度学习
自然语言处理与词嵌入-
吴恩达深度学习
笔记
文章目录自然语言处理与词嵌入词汇表征(WordRepresentation)Visualizingwordembeddings——t-SNE算法PropertiesofWordEmbeddings——CosinesimilarityEmbeddingmatrix学习词嵌入(LearningWordEmbeddings)Word2VecSkip-Gram模型负采样(NegativeSampling)
PengxiangZhou
·
2022-12-29 23:29
深度学习
深度学习
nlp
自然语言处理
学习记录(3):使用卷积神经网络进行手写数字识别
这些学习都是在学习了一些机器学习和深度学习的基础上的延伸,并且也学习了一部分pytorch的基础上,以下为相关链接:吴恩达机器学习
吴恩达深度学习
莫烦pytorch学习下面代码均上传到github上,链接如下
ZN-ZY
·
2022-12-29 03:23
学习
cnn
人工智能
pytorch
深度学习
学习记录(1):机器学习使用numpy矩阵进行梯度下降进行曲线拟合
这些学习都是在学习了一些机器学习和深度学习的基础上的延伸,并且也学习了一部分pytorch的基础上,以下为相关链接:吴恩达机器学习
吴恩达深度学习
莫烦pytorch学习下面代码均上传到github上,链接如下
ZN-ZY
·
2022-12-29 03:52
学习
机器学习
深度学习
python
人工智能
Andrew Ng
吴恩达深度学习
Course_1笔记
基于
吴恩达深度学习
课程所记的相关笔记目录术语概念第一周深度学习概念第二周神经网络基础Notationlogistic回归函数Lossfunction损失函数和Costfunction成本函数梯度下降法logistics
salahuya
·
2022-12-27 06:54
DeepLearning
深度学习
机器学习
人工智能
Andrew Ng
吴恩达深度学习
Course_2笔记
术语概念NLP::自然语言处理CV(computervision):计算机视觉超参数:正则化:Mini-batch:子训练集,面对训练集样本过多的情况,梯度下降迭代一次时间过长,因此分为多个子集RMSprop:rootmeamsquareprop,加速梯度下降第一周深度学习的实用层面训练/验证/测试集过去:验证集和测试集的比例常用7:3,如果没有明确设置验证集,也可以用60%训练、20%验证和20
salahuya
·
2022-12-27 06:54
DeepLearning
深度学习
机器学习
python
吴恩达深度学习
之np.squeeze()
吴恩达深度学习
课程参考代码:链接:https://pan.baidu.com/s/169hDtOztbAXwnCVBhG9nug提取码:6r52最近学习该课程遇到的大坑,在课后作业/代码作业/第二课第一周编程作业
Oct11_F
·
2022-12-26 22:03
吴恩达深度学习课程
注意力模型(Attention Model)
来源:Coursera
吴恩达深度学习
课程在注意力模型直观理解中我们看到注意力模型如何让一个神经网络只注意到一部分的输入句子。当它在生成句子的时候,更像人类翻译。
双木的木
·
2022-12-24 06:11
吴恩达深度学习笔记
深度学习知识点储备
笔记
python
深度学习
注意力模型
语言模型
神经网络
【卷积神经网络】Lesson 2--深层卷积神经网络
课程来源:
吴恩达深度学习
课程《卷积神经网络》笔记整理:王小草时间:2018年6月6日outline:本文第1节主要会讲解5个经典的神经网络:-LeNet-5(1998年)-AlexNet(2012年ILSVRC
王小小小草
·
2022-12-23 22:51
【学习资源汇总】
学习资源汇总机器学习双目视觉模型部署工具安装和使用MTMCT工作学习感悟篇机器学习
吴恩达深度学习
笔记最全最详细!这一篇足够了!
XTX_AI
·
2022-12-23 13:59
学习专区
学习
逻辑回归
移植
吴恩达深度学习
01机器学习和神经网络第二周神经网络基础编程作业选修作业到pycharm
目录环境配置问题①imageio.imread源代码报错解决方法一解决方法二②scipy.misc.imresize源代码报错解决方法完整代码参考环境配置windows10anaconda3python3.8pychrm-community-2022.1.3问题①imageio.imread源代码image=np.array(imageio.imread(fname))报错DeprecationW
--吉择--
·
2022-12-20 22:57
深度学习-学习打卡
深度学习
机器学习
神经网络
吴恩达深度学习
2.3 改善深层神经网络-超参数调试和Batch Norm
1.知识点超参数的选择有一些超参数,在一个范围内进行均匀随机取值,比如神经网络层数、神经元个数。有一些超参数,需要在更小的范围内随机取值,比如,学习率需要在0.001至0.01间进行均匀随机取值。神经网络中激活值的归一化BatchNorm由激活输入z计算期望、方差。用期望和方差标准化z,。平移,。在神经网络中使用BatchNormBatchNorm梯度下降:也是模型参数,需要和w、b一样用梯度更新
垚焱焱
·
2022-12-19 09:58
深度学习
吴恩达深度学习
笔记 course2 week3 超参数调试,Batch Norm,和程序框架
1.TuningProcess对超参数的一个调试处理一般而言,在调试超参数的过程中,我们通常将学习率learning_rate看作是最重要的一个超参数,其次是动量梯度下降因子β(一般为0.9),隐藏层单元个数,mini-batchsize,再然后是layers,learningratedecacy.当然,这并不是绝对的.在adam算法中,β1,β2,ε通常取值为0.9,0.999,10-8调试超参
weixin_30872733
·
2022-12-19 09:57
人工智能
吴恩达深度学习
第二课第三周作业及学习心得体会 ——softmax、batchnorm
写在前面本周课程用了两周完成,因为课程让用tensorflow实现,编码时还是更希望自己手写代码实现,而在实现过程中,低估了batchnorm反向计算的难度,导致算法出现各种bug,开始是维度上的bug导致代码无法运行,等代码可以运行时,训练神经网络的时候成本又总会发散,于是静下心来把整个运算的前向和反向过程认真推导了好几遍,期间参考网上一些资料,但感觉都没有把问题真正说清楚,连续三天的推导后,才
袁野_0073
·
2022-12-19 09:57
深度学习
吴恩达
softmax
batchnorm
吴恩达深度学习
课程翻译
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)第一周:深度学习引言(IntroductiontoDeepLearning)1.1欢迎(Welcome)11.2什么是神经网络?(WhatisaNeuralNetwork)1.3神经网络的监督学习(SupervisedLearningwithNeuralNetworks)1.4为什么神经网络会流行?(Whyis
青竹aaa
·
2022-12-19 09:55
深度学习
人工智能
深度学习
吴恩达深度学习
笔记7-Course2-Week3【超参数调试、Batch 正则化和程序框架】
超参数调试、Batch正则化和程序框架一、超参数调试(hyperparametertuning)推荐的超参数重要性排序:1、学习率(learningrate):α2、隐藏神经单元(hiddenunits);mini-batch的大小(mini-batchsize);β(momentum)3、神经网络层数(layers);学习率衰减率(learningratedecay)4、Adam优化算法的其它超
Wang_Jiankun
·
2022-12-19 09:53
吴恩达深度学习
吴恩达深度学习笔记
深度学习
神经网络
吴恩达
吴恩达深度学习
第一门课第二周:神经网络的编程基础
逻辑回归中的梯度下降十、m个样本的梯度下降十一、向量化十二、向量化的更多例子十三、向量化逻辑回归十四、向量化逻辑回归的梯度输出十五、Python中的广播十六、关于python_numpy向量的说明第二周作业前言
吴恩达深度学习
第一门课第二周
老干妈拌士力架
·
2022-12-18 07:44
深度学习
深度学习
神经网络
机器学习
吴恩达深度学习
第四课第一周 卷积神经网络
文章目录前言一、计算机视觉(引言)二、边缘检测示例(过滤器)三、更多边缘检测内容(由亮到暗还是由暗到亮?)四、Padding(Valid、Same、p)五、卷积步长(s)六、三维卷积(通道)七、单层卷积网络八、简单卷积网络示例(Conv,POOL,FC)九、池化层(maxpooling、averagepooling)十、卷积神经网络示例十一、为什么使用卷积?第一周作业情景引入资料下载完整代码前言<
老干妈拌士力架
·
2022-12-18 07:13
深度学习
深度学习
cnn
计算机视觉
吴恩达深度学习
deeplearning.ai——第一门课:神经网络与深度学习——第三节:浅层神经网络
3.1神经网络概述(NeuralNetworkOverview)本章你将学习如何实现一个神经网络。在我们深入学习具体技术之前,我希望快速的带你预览一下本章你将会学到的东西。如果这个视频中的某些细节你没有看懂你也不用担心,我们将在后面的几个视频中深入讨论技术细节。现在我们开始快速浏览一下如何实现神经网络。上章我们讨论了逻辑回归,我们了解了这个模型(见图3.1.1)如何与下面公式3.1建立联系。图3.
Lishier99
·
2022-12-15 16:06
深度学习
深度学习
人工智能
神经网络
逻辑回归
吴恩达深度学习
课程第一课---深度学习---第一周学习笔记
吴恩达深度学习
课程第一课–深度学习–第一周学习笔记什么是神经网络神经网络就是按照一定规则将多个神经元连接起来的网络单神经元网络,相当于简单的函数,输入x得出y,如图:复杂一些的神经网络是由多个单元神经网络堆叠起来的机器学习被应用于结构化数据和非结构化数据结构化数据是数据的数据库
菜刀l四庭柱
·
2022-12-15 14:19
1-4 Coursera吴恩达《神经网络与深度学习》第四周课程笔记-深层神经网络
记录
吴恩达深度学习
专项课程笔记,方便之后回顾,共5门课,这是第一门课《神经网络与深度学习》第四周深层神经网络的课程笔记,那我们开始吧。上节课课程1-3浅层神经网络我们主要介绍了浅层神经网络。
双木的木
·
2022-12-15 14:14
吴恩达深度学习笔记
笔记
AI
神经网络
机器学习
人工智能
深度学习
python
吴恩达深度学习
笔记2.2 logistic回归
regression:回归supervised:有监督的logistic回归是一种学习算法被用于有监督学习问题,当y全都是0或1时例子:判断是否有猫给定一个由特征向量x代表的图像,那个算法将会估计猫是否在那个图像里的可能性logistic回归的参数如下:转载于:https://www.cnblogs.com/Dar-/p/9310066.html
banghu8816
·
2022-12-12 19:40
人工智能
Python
吴恩达深度学习
作业11 -- 卷积神经网络的实现
逐步实现卷积神经网络在此作业中,你将使用numpy实现卷积(CONV)和池化(POOL)层,包括正向传播和反向传播。符号:上标[l][l][l]表示第lthl^{th}lth层的对象.例如:a[4]a^{[4]}a[4]是4th4^{th}4th层的激活.W[5]W^{[5]}W[5]和b[5]b^{[5]}b[5]是5th5^{th}5th层的参数。上标(i)(i)(i)表示第ithi^{th}
Puzzle harvester
·
2022-12-12 09:37
深度学习
python
深度学习
cnn
One-Shot学习/一次学习(One-shot learning)
来源:Coursera
吴恩达深度学习
课程人脸识别所面临的一个挑战就是需要解决一次学习问题(one-shotlearningproblem),这意味着在大多数人脸识别应用中,你需要通过单单一张图片或者单单一个人脸样例就能去识别这个人
双木的木
·
2022-12-08 13:06
吴恩达深度学习笔记
深度学习知识点储备
笔记
神经网络
数据库
人脸识别
深度学习
人工智能
Deep Reinforcement Learning
112DeepReinforcementLearningHW2:PolicyGradientsWin10+Anaconda3+Python3.6零基础目前用一个礼拜看了吴恩达的机器学习课程,一礼拜看了
吴恩达深度学习
的第一课
马里奥奥利奥
·
2022-12-08 00:04
强化学习
python
【
吴恩达深度学习
视频8.1~8.6】学习周报
残差网络为什么有用?通常来讲,一个网络越深,它在训练集上训练的效率就会有所减弱,但在训练ResNets网络时,并非完全如此。如果将深层网络的后面若干层学习成恒等映射,那么模型就退化成浅层网络。但是直接去学习这个恒等映射是很困难的,那么就换一种方式,把网络设计成:引入残差的映射对输出的变化更加敏感,比如输出由1.1变化到1.2时(假定输入x为1),残差结构的映射F(x)由0.1到0.2,增加了100
Bohemian_mc
·
2022-12-05 14:43
深度学习
学习
神经网络
目标检测
【深度学习】
吴恩达深度学习
-Course2改善深层神经网络:超参数调试、正则化以及优化-第二周优化算法作业
视频链接:【中英字幕】
吴恩达深度学习
课程第二课—改善深层神经网络:超参数调试、正则化以及优化参考链接:【中英】【吴恩达课后测验】Course2-改善深层神经网络-第二周测验吴恩达deeplearning.ai
passer__jw767
·
2022-12-05 13:48
深度学习
深度学习
神经网络
算法
吴恩达深度学习
之五《序列模型》学习笔记
一、循环序列模型1.1为什么选择序列模型如图所示是一些序列数据的例子1.2数学符号如图所示,我们用表示一个序列的第t个元素,t从1开始NLP中一个单词就是一个元素(又称时间步或时间戳)用表示序列的长度,或说元素个数比如就是第i个样本的特征序列的第t个元素,同理有再比如表示第i个样本特征序列的长度,同理有,如图所示的是如图所示,如何表示一个单词呢一个可行的方法是预先设置一个字典或者说词表对每一个单词
Umikaze_
·
2022-12-05 10:58
深度学习
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他