E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习总结
机器学习 VS 表示学习 VS 深度学习
二、表示学习三、
深度学习总结
前言本文主要阐述机器学习,表示学习和深度学习的原理和区别.一、机器学习是什么?
Efred.D
·
2024-09-13 08:55
人工智能
机器学习
深度学习
人工智能
吴恩达深度学习-L1 神经网络和
深度学习总结
作业地址:吴恩达《深度学习》作业线上版-知乎(zhihu.com)写的很好的笔记:吴恩达《深度学习》笔记汇总-知乎(zhihu.com)我的「吴恩达深度学习笔记」汇总帖(附18个代码实战项目)-知乎(zhihu.com)此处只记录需要注意的点,若想看原笔记请移步。1.1深度学习入门我们只需要管理神经网络的输入和输出,而不用指定中间的特征,也不用理解它们究竟有没有实际意义。1.2简单的神经网络——逻
向来痴_
·
2024-02-20 07:26
深度学习
人工智能
【PyTorch】PyTorch中张量(Tensor)统计操作
PyTorch
深度学习总结
第五章PyTorch中张量(Tensor)统计操作文章目录PyTorch
深度学习总结
前言一、最值查找二、特殊值查询前言上文介绍了PyTorch中张量(Tensor)的计算操作,
咸鱼鲸
·
2024-02-15 09:41
PyTorch
pytorch
人工智能
python
【PyTorch】PyTorch中张量(Tensor)计算操作
PyTorch
深度学习总结
第五章PyTorch中张量(Tensor)计算操作文章目录PyTorch
深度学习总结
前言一、张量比较大小1、torch.allclose()2、torch.eq()和torch.equal
咸鱼鲸
·
2024-02-13 05:32
PyTorch
pytorch
人工智能
python
[PyTorch]PyTorch中张量(Tensor)拼接和拆分操作
PyTorch
深度学习总结
第四章PyTorch中张量(Tensor)拼接和拆分操作文章目录PyTorch
深度学习总结
前言一、张量拼接二、张量拆分前言上文介绍了PyTorch中张量(Tensor)的切片操作
咸鱼鲸
·
2024-02-11 04:51
pytorch
人工智能
python
【PyTorch】改变张量(Tensor)形状操作
PyTorch
深度学习总结
第二章PyTorch中改变张量(Tensor)形状操作文章目录PyTorch
深度学习总结
一、前言二、改变张量形状一、前言上文讲解了张量生成和信息获取的知识,本文将针对张量的操作进行详细讲解
咸鱼鲸
·
2024-02-11 04:21
PyTorch
pytorch
人工智能
python
【PyTorch】PyTorch中张量(Tensor)切片操作
PyTorch
深度学习总结
第三章PyTorch中张量(Tensor)切片操作文章目录PyTorch
深度学习总结
一、前言二、获取张量中的元素1、切片(行、列数)方法2、torch.where()函数3、使元素置零的操作一
咸鱼鲸
·
2024-02-11 04:21
PyTorch
pytorch
人工智能
python
【PyTorch】张量(Tensor)的生成
PyTorch
深度学习总结
第一章Pytorch中张量(Tensor)的生成文章目录PyTorch
深度学习总结
一、什么是PyTorch?
咸鱼鲸
·
2024-02-11 04:20
PyTorch
pytorch
人工智能
python
花书学习笔记-深度学习概念
从函数逼近的角度理解多个特征变量逼近连续曲线表示更有弹性的模型总结用多个Featuresigmoid->ReLU从机器学习到深度学习早期的人工智能机器学习表征学习(representationlearning)
深度学习总结
主题
iwill323
·
2024-02-03 16:17
人工智能
深度学习
深度学习笔记(二十四)——
深度学习总结
与回顾
本周是深度学习实验课的最后一次课,让我们回顾一下在这个学期中大家都学习到了哪些内容。在前面的课程中我们首先了解了神经网络的结构,如何去搭建神经网络,怎样去训练神经网络,以及神经网络的优化、微调。紧接着我们又学习了深度学习领域当前比较流行的几个大方向,例如分类、语义分割、目标检测、对抗神经网络、自然语言处理等等。接下来的内容是对我们所学的知识的一个总结和升华。1.神经网络的基础内容1.框架当前训练神
Nino_Lau
·
2023-11-05 22:14
深度学习总结
:tensorflow和pytorch关于RNN的对比,tf.nn.dynamic_rnn,nn.LSTM
tensorflow和pytorch关于RNN的对比:tf.nn.dynamic_rnn很难理解,他的意思只是用数据走一遍你搭建的RNN网络。可以明显看出pytorch封装更高,更容易理解,动态图的优势。##tensorflow#RNN#num_units=64代表h_t,c_t的维度rnn_cell=tf.contrib.rnn.BasicLSTMCell(num_units=64)#这个累加的
萤火虫之暮
·
2023-10-21 16:43
DL
学习
tensorflow
torch.LSTM
pytorch
第三期第二次示范班
深度学习总结
自己为什么对新教育“情有独钟,有情执”?首次接触新教育是17年夏天在九江看到突破班的孩子在台上的展示,感受他们的精气神不一样,精气神体现在看到他们运动能力强,另在用餐时见这群孩子聊天时全英语交流,有礼貌,他们在一起没有乱哄哄的,他们口语水平让我很惊讶,相比之下这群孩子从外在呈现的就比我身边的孩子强很多,当时有一个最深的感触是,自己白养了孩子,很对不起孩子,自己只给到了孩子吃喝穿等物质,其他的没有给
刘丽华L
·
2023-10-16 02:31
2023.08.13 学习周报
基于GRU神经网络的PM2.5浓度预测7.实验7.1网络参数7.2实验结果7.3对比实验8.讨论9.结论10.展望PINNS模型1.自动微分2.全连接神经网络3.PINNs模型的PI4.可能存在的问题
深度学习总结
摘要
MoxiMoses
·
2023-08-28 21:39
深度学习
机器学习简介
5.1引入--猜数字5.2深度学习5.2.1隐含层/中间层5.2.2随机初始化5.2.3损失函数5.2.4导数与梯度5.2.5梯度下降5.2.6优化器5.2.7MiniBatch&epoch5.2.8
深度学习总结
@kc++
·
2023-08-23 20:40
机器学习
人工智能
【李宏毅深度学习课程笔记--【1】】
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档目录前言一、什么是机器学习二、本课程专注于
深度学习总结
前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要
all_about_fresh
·
2023-08-14 01:48
李宏毅深度学习课程
深度学习
python
人工智能
关于吴恩达
深度学习总结
(一)
关于吴恩达
深度学习总结
(一)相关函数文章目录关于吴恩达
深度学习总结
(一)相关函数一、costfunction(成本函数)二、lossfunction(损失函数)三、sigmoidfunction(sigmoid
南阳北海
·
2023-07-16 03:16
深度学习总结
——用自己的数据集微调CLIP
CLIP概述CLIP(ContrastiveLanguage-ImagePretraining)是由OpenAI开发的一种深度学习模型,用于将图像和自然语言文本进行联合编码。它采用了多模态学习的方法,使得模型能够理解图像和文本之间的语义关系。它的核心思想是将图像和文本视为同等重要的输入,并通过联合训练来学习它们之间的联系。CLIP模型使用了一个共享的编码器,它将图像和文本分别映射到一个共享的特征空
lzl2040
·
2023-06-18 22:52
计算机视觉
深度学习
计算机视觉
人工智能
深度学习总结
综述
深度学习总结
综述一、深度学习目前的关键进展与应用深度学习是机器学习的一个子领域,它通过模拟人类大脑中的神经网络来解决复杂问题。目前,深度学习在许多领域都取得了重要的突破。
地理探险家
·
2023-04-08 16:49
遥感与深度学习
深度学习
人工智能
计算机视觉
第三期第三次课
深度学习总结
末尾老师讲到关于写日记的方法及个人态度现象,反思昨天写日记当中又有一点原有模式出现,只是在记录一件事情,而没有进行总结,貌似是时间问题觉得好晚了,自己该睡觉,身体疲惫了,因此草草写完实际上还是目标与对持学习的态度,忘了写日记不仅是记录昨天还更重要的通过写提高写作水平及梳理自己前后的想法,去看见做的好的点,需要改善的点。例如:前天邀请一个客户去参加产说会,去邀约客之前有害怕客户会拒绝,不如约参加。二
刘丽华L
·
2023-04-07 14:46
算法岗面试——
深度学习总结
BatchNormalization介绍参考知乎深度学习中BatchNormalization为什么效果好?参考CSDN对Batch_Normalization的理解神经网络在训练的时候随着网络层数的加深,激活函数的输入值的整体分布逐渐往激活函数的取值区间上下限靠近,从而导致在反向传播时低层的神经网络的梯度消失。而BatchNormalization的作用是通过规范化的手段,将越来越偏的分布拉回到
早上起来闹钟又丢了
·
2023-03-25 10:01
深度学习总结
文章目录前言一、机器学习的概念二、机器学习的三个步骤三、Regression四、Classification五、DeepLearning六、CNN七、RNN八、LSTM九、Transformer十、GAN总结前言在这段时间地学习中,我通过深度学习的相关视频学习到了一些基础知识,现在对这些学习到的知识进行以下总结。一、机器学习的概念机器学习是从数据中自动分析获得模型,并利用模型对未知数据进行预测。简
MoxiMoses
·
2023-01-29 08:11
机器学习
深度学习
CVPR 2015 之
深度学习总结
Part1-AlexNet和VGG-Net摘要-今年的CVPR非常的火爆,总共有2800多人参与,相比去年增加了700多人,这与deeplearning的异军突起是不无关系的。CVPR2015基本是“theyearofdeeplearning”,有大概70%的文章是关于deeplearning的。今年的CVPR非常的火爆,总共有2800多人参与,相比去年增加了700多人,这与deeplearnin
南山牧笛
·
2023-01-13 20:09
深度学习
CNN超进化史(1)——从人工智能到深度学习
文章内容仅代表作者个人理解和观点文章目录前言一、深度学习、机器学习和人工智能之间的关系二、人工智能弱人工智能:强人工智能:超人工智能:三、机器学习1.模式识别2.数据挖掘3.统计学习4.计算机视觉5.语音识别6.自然语言识别四.
深度学习总结
前言提示
my日月星空
·
2023-01-05 13:46
深度学习
深度学习
python
亚马逊---人工智能入门---学习笔记
五、机器学习六、
深度学习总结
writeinfr
认真写博客的夏目浅石.
·
2022-12-30 08:49
我的CSDN活动之旅
人工智能
学习
【第三周
深度学习总结
】
第三周
深度学习总结
论文学习ResNet重要结构结构创新点通过在block中加入identitymap,假设之前想要学习的映射为H(x)H(x)H(x),那么现在可以知道H(x)=F(x)+xH(x)=F
文海傲舟
·
2022-12-27 07:35
深度学习
神经网络
人工智能
3D
深度学习总结
(聚焦3D深度学习的现在于未来)
3D
深度学习总结
(聚焦3D深度学习的现在于未来)本文经机器之心(微信公众号:almosthuman2014)授权转载,禁止二次转载选自Thegradient【点击此处】,作者:MihirGarimella
xiaobai_Ry
·
2022-12-22 22:15
#
点云处理
深度学习
3d
人工智能
3D检测
点云
深度学习总结
- 副本
文章目录A.词语定义B.神经网络超参数C.过拟合原因以及解决方法原因:解决方案:D.梯度爆炸和梯度消失产生原因:解决方案常用激活函数饱和分类:类别与功能:sigmoid函数tanh函数ReLU函数:E其他马上要找工作了,学习了差不多两年的深度学习,但是现在我对于深度学习还是有一点迷茫,一直在调参当中渡过,即将找工作之际一点信心都没有。因此,撰写这篇文章,测试自己的知识有哪些掌握了,哪一些没有掌握。
四月的我
·
2022-12-20 07:35
python
深度学习 --- 循环神经网络RNN详解(BPTT)
今天开始深度学习的最后一个重量级的神经网络即RNN,这个网络在自然语言处理中用处很大,因此需要掌握它,同时本人打算在
深度学习总结
完成以后就开始自然语言处理的总结,至于强化学习呢,目前不打算总结了,因为我需要实战已经总结完成的算法
zsffuture
·
2022-12-12 07:47
深度学习
C++ opencv简单图像的分割
这里写自定义目录标题Opencv中简单的图像分割阈值分割分水岭分割Canny算子边缘分割基于
深度学习总结
Opencv中简单的图像分割图像分割:将图像分成若干有相似区域性质的区域。
花语月的喵喵
·
2022-12-11 11:13
OpenCV451
opencv
c++
计算机视觉
深度学习总结
关于调参刷榜的时候,先用adam自动调节,最后几轮的时候用SGD算法,手动一点点调参。如果写自己的项目,需要自己写神经网络么?no!肯定是用现成的模型。房价预测的项目的深度学习的网络,是几层的,是不是只是一层的还是优化一层就算一层只有一层。什么叫:端到端的识别模型?与之对应的叫什么?输入就是原始的图像像素,输出就是图片的类别为什么有的教程用动态图进行训练,有的用静态图进行训练,有何区别?动态图与静
在下六斤
·
2022-12-02 19:00
深度学习
cnn
神经网络
深度学习总结
:常见卷积神经网络——AlexNet,VGG,Resnet
深度学习总结
:常见卷积神经网络——AlexNet,VGG,Resnet常见模型AlexnetLRN详解ReLU比sigmoid好在哪VGGResnetResidualunit详解学习机器学习和深度学习已经一年多了
Tianlock
·
2022-11-26 14:37
深度学习
CV
动手学
深度学习总结
第一章
N维数组样例大小为1的张量#将大小为1的张量转化为Python标量c=torch.tensor([3.13])print(c,c.item(),float(c),int(c))注:c.item返回的是数值,而非Tensor类型连接操作#dim=0,纵向连接,dim=1,横向连接m=torch.cat((z,y),dim=0)n=torch.cat((y,z),dim=1)print(m,'\n',
弹幕教练宇宙起源
·
2022-11-25 21:58
python
深度学习
pytorch
深度学习总结
1
最近使用pytorch踩过的一些坑,记录一下,偏应用。1.图片加载pytorch中的datasets.ImageFolder函数直接可以读取自己的图片的数据集。数据集存放:把每一类的图片放到一个文件夹里面,加载时地址只用写到类别文件夹的上一级目录。例如下图中dataset文件夹存放了4个类别的图片,那么图片加载时写入的地址就是**‘F:\dataset’**。datasets.ImageFolde
小白冲鸭!
·
2022-11-22 14:44
深度学习
pytorch
2022机器学习深度学习学习笔记第二十二周
文章目录前言一、文献阅读二、大数据学习三、
深度学习总结
前言本周学习内容主要由三部分,一是文献阅读,了解了文章的研究内容以及所用到的研究方法;二是大数据相关知识点的学习,了解到什么是Hadoop,及Hadoop
hehehe2022
·
2022-11-20 22:45
神经网络基础 机器学习第五章
神经网络文章目录神经网络前言一、神经元模型二、感知机与多层网络三、误差逆传播算法四、全局最小与局部极小五、其他常见神经网络1.RBF网络2.ART网络3.SOM网络4.级联相关网络5.Elman网络6.Boltzmann机六、
深度学习总结
前言
不是庸人的俗人(摆烂版)
·
2022-11-20 00:37
机器学习
神经网络
人工智能
Halcon
深度学习总结
一、Halcon17之后就已经推出了深度学习模块,之前一直没太关注过,最近一个项目需要用到目标检测,于是研究了Halcon深度学习三大模块,图像分类,目标检测,语义分割。并总结出来,供有缘人参考。二、我使用的halcon版本是Halcon18.11,别的版本类似,在此不做阐述。欲使用Halcon深度学习,需要提前安装Halcon18.11.0.1-windows以及halcon-18.11.0.1
豆浩宇
·
2022-11-16 18:21
深度学习
人工智能
2021我在CSDN的年度总结——关于我的大一上学期生活
目录前言:成就我的一些程序贪吃蛇井字棋爬虫1.基础的requestspost请求2.多线程和进程池3.selenium自动化模块4.scrapy框架
深度学习总结
2022愿望前言:第一次接触CSDN,是通过川川大佬的一条
heart_6662
·
2022-03-18 10:22
个人博客
python
深度学习总结
入职学习了一段时间也该有个总结了吧。大部分内容收集与网上,自己整理。深度学习一、深度学习框架TensorFlow、Pytorch、Caffe、Paddle、MXNet、Kera二、网络层级结构卷积神经网络只是针对图像起到一个特征提取器的作用。1、输入层2、卷积层卷积层是卷积神经网络的核心,而卷积又是卷积层的核心。卷积我们可以直观的理解为两个函数的一种运算,这种运算称为卷积运算。输入和卷积核都是张量
黄小黄i
·
2020-12-11 09:13
Object
Detection
深度学习
cv
算法
卷积
计算机视觉
神经网络
python
深度学习总结
:pytorch构建RNN和LSTM,对比原理图加深理解
RNN和LSTM的PCB板:先看LSTM:必须清楚的知道每一个变量的形状:1、h,c,以及y经过线性变换前都是hidden_size的;2、矩阵形式的形状如下:#xshape(batch,time_step,input_size)#r_outshape(batch,time_step,output_size)#h_nshape(n_layers,batch,hidden_size)#h_cshap
萤火虫之暮
·
2020-08-22 14:59
DL
机器学习
算法
深度学习
小白学编程之Python, Java,框架视频资料,圣诞的礼物派送
18年学Python视频资料发给初学者,及AI机器
深度学习总结
Python你学习了吗?
Java工程诗
·
2020-08-20 07:42
【总目录】人工智能、机器学习、
深度学习总结
大全----目录.未完待续...
文章目录@[toc]一、Python二、爬虫三、Mysql四、MongoDB五、Numpy六、Scipy七、Pandas八、其他常用工具九、可视化工具Matplotlib十、数理统计(原理)十一、机器学习之原理及算法十二、人工智能之面试问题总结(不定期更新)十三、大数据熟悉之原理十四、深度学习十五、专题:自然语言处理要想看更多信息,请访问我的主页呦人工智能论文合集人工智能论文合集(18年11月)一
sakura小樱
·
2020-08-19 16:44
人工智能
pandas
matpltlib
Mysql
机器学习
深度学习
Vue
深度学习总结
1.Vue生命周期解读这一部分参考自Vue官方文档以及生命周期详解官网的生命周期图示例如下:测试代码如下:Vue生命周期学习{{message}}{{message+'这是在outerHTML中的'}}-->varvm=newVue({//注释el,可理解beforeMounted之前的生命周期el:'#app',//同步不注释h2定义的template,可理解template是如何加载//tem
程序_人生
·
2020-08-18 21:10
WEB前端开发
Vue学习总结
深度学习总结
笔记(二)
一、人工神经网络1、神经元人工神经元是构成人工神经网络的基本单元。人工神经元和感知器非常类似,我们说感知器的时候通常认为它的激活函数为阶跃函数,而神经元使用一个非线性的激活函数,典型的激活函数有sigmoid型函数、非线性斜面函数等。单个神经元模型如图:假定神经元接受n个输入x=(x1,x2,...,xn),用状态z表示一个神经元所获得的输入信号x的加权和,输出值为a。其中,w是n维的权重向量,b
zgyggy
·
2020-08-16 17:25
深度学习
深度学习总结
二:优化器
深度学习总结
二:优化器梯度下降momentumAdaRMSPropAdam对应代码梯度下降逻辑回归代码附梯度下降w变化曲线用于对比momentum动量法,原理在于一个方向的速度可以积累,而且越积累越大;
su_poplar
·
2020-08-13 17:37
深度学习知识点总结
深度学习总结
:DQN原理,算法及pytorch方式实现
文章目录Q-learning原理图Q-learning算法描述:pytorch实现:Q-network实现:DQN实现:2个Q-network,其中一个为targetQ-network;takeaction获取下一步的动作,这个部分就是和环境互动的部分,选取动作是基于e-greedy来的;storetransmitions就是保存数据,用于experiencereplay;最重要的是学习过程:就是
萤火虫之暮
·
2020-08-10 07:10
DL
机器学习
算法
深度学习
深度学习总结
六:VGG
深度学习总结
六:VGG网络结构网络特性网络训练论文代码网络结构网络特性证明了网络的深度在一定程度上提升了模型的效果。2个33的卷积核相当于1个55的卷积核,并且前者训练参数更少。
su_poplar
·
2020-08-05 10:29
深度学习知识点总结
深度学习总结
1
1)开发环境:Anacondaspyder坑:使用时spyder路径要设置为工作文件夹路径,否则一下库找不到。python语句空格可视化设置:Tools->perferences->Editor下打开showblankspace2)环境安装pipinstallmxnet如果使用jupyternotebook,需要先在命令行切换到工作文件夹后打开jupyternotebook深度学习更适合于没有模型
疯狂的yaphy
·
2020-08-05 10:15
深度学习总结
3——VGG
鼠年一到,大家都在家猫着吧。几个吃野味的害的全国人民一起关禁闭。md,实在是应该qb。卷积模型从LeNet->AlexNet-VGG->NiN->GoogleNet->ResNet->InceptionV3、V4,最终比较实用的可能还是后面的这些。AlxeNet、VGG更多作为研究的启动,被比较的对象。比较实用的还是后面这些网络结构。VGG:结构有VGG-11、VGG-16、VGG-19,常用VG
疯狂的yaphy
·
2020-08-05 09:57
深度学习总结
:用pytorch做dropout和Batch Normalization时需要注意的地方,用tensorflow做dropout和BN时需要注意的地方,
用pytorch做dropout和BN时需要注意的地方pytorch做dropout:就是train的时候使用dropout,训练的时候不使用dropout,pytorch里面是通过net.eval()固定整个网络参数,包括不会更新一些前向的参数,没有dropout,BN参数固定,理论上对所有的validationset都要使用net.eval()net.train()表示会纳入梯度的计算。net
萤火虫之暮
·
2020-08-03 11:52
DL
机器学习
算法
深度学习
深度学习总结
最近一时兴起打算研究下深度学习,这个名词近来很火,貌似成为了人工智能领域一根新的稻草。经过几天的查资料和看论文,已经初步有了第一印象,闲话少说,结合一些资料,进入正题。深度学习的起源深度学习(DeepLearning)是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络。深度学习属于无监督学习。深度学习的概念源于人工神经网络的研究。深度学习是相对于简单学习而言的,目前
xudong0612
·
2020-07-15 10:33
学习点滴
上一页
1
2
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他