E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
TensorFlow神经网络
【MATLAB随笔】遗传算法优化的BP
神经网络
(随笔,不是很详细)
文章目录一、算法思想1.1BP
神经网络
1.2遗传算法1.3遗传算法优化的BP
神经网络
二、代码解读2.1数据预处理2.2GABP2.3部分函数说明一、算法思想1.1BP
神经网络
BP
神经网络
(BackpropagationNeuralNetwork
感谢地心引力
·
2024-01-16 15:49
MATLAB
神经网络
人工智能
深度学习
matlab
AIGC必备知识点:你不可不知的CNN(卷积
神经网络
)-知识全解析!
我们的大模型商业化落地产品更多AI资讯请关注Free三天集训营助教在线为您火热答疑大家在谈论的卷积
神经网络
究竟是什么?
OJAC近屿智能
·
2024-01-16 14:03
AIGC
cnn
人工智能
langchain
深度学习
chatgpt
神经网络
毕业设计:基于深度学习的动态手势识别系统 人工智能
目录前言设计思路一、课题背景与意义二、算法理论原理2.1卷积
神经网络
2.2手势识别三、检测的实现最后前言大四是整个大学期间最忙碌的时光,一边要忙着备考或实习为毕业后面临的就业升学做准备,一边要为毕业设计耗费大量精力
Krin_IT
·
2024-01-16 13:35
深度学习毕业设计
人工智能
毕业设计
毕设
python
深度学习
机器学习
Tensorboard--模型可视化工具
Tensorboard1.tensorboardin
tensorflow
1.1tensorboard的启动过程1.2tf.summary可视化类型1.3tf.summary使用demo2.tensorboardinpytorch2.1SummaryWriter
小陈同学-陈百万
·
2024-01-16 12:35
MLTools
tensorflow
深度学习
pytorch
大语言模型
背景大语言模型是指具有大规模参数的
神经网络
模型,用于生成和理解自然语言。它的诞生背景源于深度学习和
神经网络
在自然语言处理领域的快速发展。
图灵追慕者
·
2024-01-16 11:31
NLP
自然语言处理
LLM
大语言模型
GPT
BERT
【MATLAB】SVMD_LSTM
神经网络
时序预测算法
有意向获取代码,请转文末观看代码获取方式~也可转原文链接获取~1基本定义SVMD-LSTM
神经网络
时序预测算法是一种结合了单变量经验模态分解(SingularValueDecomposition,SVD
Lwcah
·
2024-01-16 11:22
MATLAB
时序预测算法
神经网络
matlab
lstm
神经网络
|张量tensor(待完善)
如何用代码实现tensortensor在
神经网络
中的应用其他tensor/张量什么是tensor?张量是用来探究一个点在各个切面(一共三个切面)和各个方向(x,y,z三个方向)上的受力情况。
晓源Galois
·
2024-01-16 11:51
深度学习
图神经网络
神经网络
人工智能
深度学习
【MATLAB】tvf_emd_LSTM
神经网络
时序预测算法
有意向获取代码,请转文末观看代码获取方式~也可转原文链接获取~1基本定义TVF-EMD-LSTM
神经网络
时序预测算法是一种结合了变分模态分解(VariationalModeDecomposition,VMD
Lwcah
·
2024-01-16 11:51
MATLAB
时序预测算法
神经网络
matlab
lstm
NeRF算法论文解析与翻译
文章目录说明摘要一、简介二、相关工作2.1基于
神经网络
的3D形状表示2.2视图合成和基于图像的渲染三、基于神经辐射场的场景表示四、基于辐射场的体渲染五、神经辐射场优化5.1位置编码5.2分层体积采样5.3
超爱吃小蛋糕的66
·
2024-01-16 11:16
深度学习
算法
人工智能
深度学习
三维重建
NeRF
NeRF算法原理总结概述
论文翻译见博客:《NeRF算法论文解析与翻译》参考链接:
神经网络
辐射场NeRF、实时NeRFBaking、有向距离场SDF、占用网络Occupancy、NeRF自动驾驶NeRF详解NeRF入门之体渲染(
超爱吃小蛋糕的66
·
2024-01-16 11:14
深度学习
算法
深度学习
人工智能
自动驾驶
NeRF
三维重建
深度学习面试100题(1-10)
用随机值初始化权重和偏差b.把输入传入网络,得到输出值c.计算预测值和真实值之间的误差d.对每一个产生误差的神经元,调整相应的权重值以减少误差e.重复迭代,直至得到网络权重的最佳值已知:大脑是有很多个叫做神经元的东西构成,
神经网络
是对大脑的简单的数学表达
xiaoshun007~
·
2024-01-16 10:36
机器学习
深度学习
人工智能
在
TensorFlow
中启用 Eager Execution
探索EagerExecution,了解在
TensorFlow
中默认启用它的好处
TensorFlow
是一个端到端的开源机器学习平台,可以更轻松地构建和部署机器学习模型。
AI-智能
·
2024-01-16 10:43
tensorflow
人工智能
python
机器学习
深度学习
无监督深度学习
SOM是一种无监督
神经网络
,它通过降低输入的维度来创建输入数据集的聚类。SOM在很多方面与传统的人工神经网
AI-智能
·
2024-01-16 10:13
深度学习
人工智能
学习
机器学习
从零开始训练
神经网络
我必须创建一个训练循环,并使用随机梯度下降(SGD)作为优化器来更新
神经网络
的参数。训练函数中有两个主要循环。一个循环表示epoch数,即我遍历整个数据集的次数,第二个循环用于逐个遍历每个观察值。
AI-智能
·
2024-01-16 10:42
神经网络
python
人工智能
机器学习
深度学习
使用
TensorFlow
执行逻辑回归
创建一个包含用于定义逻辑回归的Python代码的JupyterNotebook,然后使用
TensorFlow
(tf.keras)实现它在本教程中,了解如何创建包含用于定义逻辑回归的Python代码的JupyterNotebook
AI-智能
·
2024-01-16 09:10
tensorflow
逻辑回归
人工智能
【论文笔记】Effect of Attention Mechanism in Deep Learning-Based Remote Sensing Image Processing:A S...
注意机制在基于深度学习的遥感图像处理中的作用:系统文献综述综述:概述了已开发的注意力机制以及如何将它们与不同的深度学习
神经网络
架构集成。此外,它旨在研究注意力机制对基于深度学习的RS图像处理的影响。
吃核桃用手夹
·
2024-01-16 09:54
大模型学习篇(一):初识大模型
大模型具有以下特点:参数规模庞大:大模型的一个关键特征是其包含了大量的可学习参数,这些参数是在训练过程中根据输入数据自动调整的,以便模型更好地拟合训练数据;深度结构:大模型通常是深度
神经网络
,具有多个层次的结构
Abro.
·
2024-01-16 09:38
人工智能
深度学习
语言模型
自然语言处理
计算机视觉
gpt-3
人工智能
MATLAB Deep learning
regularizationandvalidationregularization正则化validation验证机器学习的类型有监督学习分类Classification回归Regression无监督学习聚类强化学习Chapter2:NeuralNetwork
神经网络
的结点
JNU freshman
·
2024-01-16 09:37
机器学习
人工智能
深度学习
matlab
深度学习
从零开始的
神经网络
了解如何在没有框架帮助的情况下构建
神经网络
的基础知识,这些框架可能使其更易于使用在Python中创建具有不同架构的复杂
神经网络
应该是任何机器学习工程师或数据科学家的标准做法。
AI-智能
·
2024-01-16 08:14
神经网络
人工智能
深度学习
【文本到上下文 #5】:RNN、LSTM 和 GRU
从NLP的基础知识到机器学习应用程序,我们现在深入研究了
神经网络
的复杂世界及其处理语言的深刻能力。
无水先生
·
2024-01-16 08:42
人工智能
NLP高级和ChatGPT
神经网络
rnn
自然语言处理
深度学习笔记(七)——基于Iris/MNIST数据集构建基础的分类网络算法实战
文中程序以
Tensorflow
-2.6.0为例部分概念包含笔者个人理解,如有遗漏或错误,欢迎评论或私信指正。
絮沫
·
2024-01-16 08:49
深度学习
算法
深度学习
笔记
区间预测 | Matlab实现LSTM-Adaboost-ABKDE的集成学习长短期记忆
神经网络
自适应带宽核密度估计多变量回归区间预测
区间预测|Matlab实现LSTM-Adaboost-ABKDE的集成学习长短期记忆
神经网络
自适应带宽核密度估计多变量回归区间预测目录区间预测|Matlab实现LSTM-Adaboost-ABKDE的集成学习长短期记忆
神经网络
自适应带宽核密度估计多变量回归区间预测效果一览基本介绍程序设计参考资料效果一览基本介绍
机器学习之心
·
2024-01-16 08:52
区间预测
LSTM-Adaboost
ABKDE
集成学习长短期记忆神经网络
自适应带宽核密度估计
多变量回归区间预测
pytorch集智-5手写数字识别器-卷积
神经网络
但也是一种前馈
神经网络
输入与输出:输入可为图像,输出为目标分类个数(比
peter6768
·
2024-01-16 07:15
pytorch
cnn
人工智能
训练好的YOLO模型的预测过程是什么样的。
前向传播:对输入图像进行前向传播,通过
神经网络
的多层结构获取每个位置的预测结果。预测框生成:在YOLO的输出中,每个位置通常会有多个边界框(boundingbox)的预测,每个边界框对应一个目标。
神笔馬良
·
2024-01-16 07:40
YOLO
科学计算Numpy
科学计算的容器:1.Numpyarray数组2.
TensorFlow
,PyTorch,PaddlePaddledtensor张量科学计算的算法:统计学指标#随机数importrandom#标准写法scores
AI天任
·
2024-01-16 07:39
numpy
python
matplotlib
分类预测 | Matlab实现ZOA-CNN-MATT-SVM斑马优化卷积
神经网络
多头注意力机制结合支持向量机的数据分类预测【24年新算法】
分类预测|Matlab实现ZOA-CNN-MATT-SVM斑马优化卷积
神经网络
多头注意力机制结合支持向量机的数据分类预测【24年新算法】目录分类预测|Matlab实现ZOA-CNN-MATT-SVM斑马优化卷积
神经网络
多头注意力机制结合支持向量机的数据分类预测
机器学习之心
·
2024-01-16 07:36
分类预测
ZOA-CNN-MATT
CNN-MATT-SVM
斑马优化
卷积神经网络多头注意力机制
支持向量机
数据分类预测
自然语言中的
神经网络
基础(1)
本文介绍在自然语言处理中常用的四种
神经网络
模型,即多层感知机模型、卷积
神经网络
、循环
神经网络
和以Transformer为代表的自注意力模型。
makelope
·
2024-01-16 07:48
pip、conda查看镜像源及更换镜像源
showchannels查看配置项channels2.删除镜像源(清华镜像源):condaconfig--removechannelshttps://mirrors.tuna.tsinghua.edu.cn/
tensorflow
ZGPing@
·
2024-01-16 07:53
conda
python
深度学习
生成对抗网络GAN简介- 图像处理应用
GAN是一种由两部分组成的
神经网络
架构,通常用于生成逼真的图像。这两部分是生成器(Generator)和判别器(Discriminator)。生成器(Generator):它的目标是创建逼真的图像。
LittroInno
·
2024-01-16 06:56
生成对抗网络
计算机视觉
人工智能
人工智能(AI)中的一些常见名词-九五小庞
深度学习(DL):指使用人工
神经网络
层进行复杂模式识别的ML。大型语言模型(LLM):可以理解、处理和生成文本的AI程序。转换器模型:一种
神经网络
架构,可以将一种类型的输入转换为另一种类型的输出。
Up九五小庞
·
2024-01-16 06:49
人工智能-AI
人工智能
(四)卷积
神经网络
-- 9 含并行连结的网络(GoogLeNet)
9.含并行连结的网络(GoogLeNet)2014年的ImageNet图像识别挑战赛中,GoogLeNet的网络结构大放异彩。GoogLeNet吸收了NiN中网络串联网络的思想,并在此基础上做了很大的改进。在随后的几年里,研究人员对GoogLeNet进行了数次改进,本节将介绍这个模型系列的第一个版本。9.1Inception块GoogLeNet中的基础卷积块称作Inception块。与上一节介绍的
Fiona-Dong
·
2024-01-16 06:12
tensor转换为list_tensor和numpy的互相转换的实现示例
下面一个小程序讲述了将tensor转化为numpy数组,以及又重新还原为tensor:import
tensorflow
astfimg1=tf.constant(value=
weixin_39792686
·
2024-01-16 06:04
tensor转换为list
【Python】Sigmoid和Hard Sigmoid激活函数对比总结及示例
Sigmoid和HardSigmoid是两种常用的激活函数,它们在
神经网络
中起到非线性变换的作用。
木彳
·
2024-01-16 06:01
Python学习和使用过程积累
python
机器学习
开发语言
人工智能
计算机视觉
JUST技术:基于时空孪生
神经网络
的轨迹识别
JUST团队-任慧敏JUST时空数据轨迹识别问题旨在验证传入的轨迹是否是由所要求的人员产生,即给定一组单独的人员历史轨迹(例如行人,出租车司机)以及由特定人员生成的一组新轨迹,判定两组轨迹是否由同一个人员生成。这个问题在许多实际应用中都很重要,例如出租车驾驶人员身份认证、汽车保险公司风险分析以及危险驾驶识别等。轨迹识别的现有工作除了需要轨迹数据之外,还需要其他来源的数据,如传感器、摄像头等,但这些
JUST极客
·
2024-01-16 06:16
一个神经元顶5到8层
神经网络
,深度学习的计算复杂度被生物碾压了
来自耶路撒冷希伯来大学的研究者对单个神经元的计算复杂度进行了研究,他们通过训练人工深度
神经网络
来模拟生物神经元的计算,得出深度
神经网络
需要5至8层互连神经元才能表征(或达到)单个生物神经元的复杂度。
Evan-yzh
·
2024-01-16 04:32
网络
神经网络
算法
大数据
python
遇到的每一个人正如一个神经元
仔细一想,你在生活中遇到的每一个人正如
神经网络
中的一个神经元,你们之间的联系正如权重一般有大有小,你对别人的输入和你对你们之间权重的调节优化会直接影响你们之间的输出,这层层的优化与遇到的神经元(人)便是你的一生
Leslie_CzL
·
2024-01-16 04:30
神经网络
cnn
人工智能
深度学习
NLP论文阅读记录 - 2021 | WOS HG-News:基于生成式预训练模型的新闻标题生成
4.5实验结果4.6细粒度分析五总结思考前言HG-News:NewsHeadlineGenerationBasedonaGenerativePre-TrainingModel(2108)0、论文摘要自从
神经网络
方法应
yuyuyu_xxx
·
2024-01-16 04:19
NLP
自然语言处理
论文阅读
人工智能
图
神经网络
|图注意网络Graph Attention Network
图注意网络GraphAttentionNetworkLeakyReLU有利于压低负数对结局的影响。图注意网络GraphAttentionNetwork的流程输入向量hih_ihi乘上权重矩阵W得到对应的向量hi∗h_i^*hi∗,并将hi∗h_i^*hi∗计算出对应的aia_iai,从而得到最终对结果向量的贡献。所以有h=∑ihi∗∗aih=\sum_i{h_i^{*}*a_i}h=∑ihi∗∗a
晓源Galois
·
2024-01-16 04:12
图神经网络
神经网络
人工智能
深度学习
第一章 机器学习概要
这篇文章是本人学习《Hands-On-Machine-Learning-with-Scikit-Learn-and-
TensorFlow
》的读书笔记第一篇。
JasonYUJX
·
2024-01-16 02:51
深度学习---从入门到放弃(四)优化器
1.1网络构建思路1.网络种类:MLP通常来说在对于图片的分类上,卷积
神经网络
(CNN)应用更为广泛且效果更好,但是鉴于目前只了解了MLP,那么请允许我用MLP
佩瑞
·
2024-01-16 02:33
Pytorch深度学习
神经网络
深度学习
人工智能
python
吴恩达深度学习学习笔记-7建立
神经网络
1.训练
神经网络
训练
神经网络
时,需要做许多决策。
猪猪2000
·
2024-01-16 02:03
吴恩达深度学习学习笔记
神经网络
深度学习
人工智能
机器学习
吴恩达深度学习--
神经网络
的优化(1)
除此之外,构建
神经网络
时,需要设置的参数很多:
神经网络
层数,神经元个数,学习率的大小。激活函数的选择等等。
Kangrant
·
2024-01-16 02:30
吴恩达深度学习
深度学习记录--Train/dev/test sets
为了创建高效的
神经网络
,需要不断进行训练(迭代)一个
神经网络
的产生从最开始的想法idea开始,然后付诸于代码code,根据结果验证反过来对一开始的想法idea进行修正,而这就完成了一次训练(迭代)循环速率
蹲家宅宅
·
2024-01-16 02:29
深度学习记录
深度学习
人工智能
《集体智慧》02/特征5:相互作用
在人脑内部,数百亿个神经元之间建立了百万亿个连接,进而形成了一个异常复杂的
神经网络
。在这个网络上,不断有电脉冲和化学信号往来传播。
杨友三
·
2024-01-16 02:57
多维时序 | Matlab实现GRO-CNN-LSTM-Attention淘金算法优化卷积
神经网络
-长短期记忆网络结合注意力机制多变量时间序列预测
多维时序|Matlab实现GRO-CNN-LSTM-Attention淘金算法优化卷积
神经网络
-长短期记忆网络结合注意力机制多变量时间序列预测目录多维时序|Matlab实现GRO-CNN-LSTM-Attention
机器学习之心
·
2024-01-16 02:10
时序预测
GRO-CNN-LSTM
Attention
淘金算法优化
卷积神经网络-长短期记忆网络
多变量时间序列预测
tensorflow
报错: DNN library is no found
错误描述如上图在执行程序的时候,会出现DNNlibraryisnofound的报错解决办法这个错误基本上说明你安装的cudnn有问题,或者没有安装这个工具。首先检测一下你是否安装了cudnn进入CUDA_HOME下,也就是进入你的cuda的驱动的安装目录,查看一下是否有include/cudnn.h这个文件,如果没有就说明没有安装。我是没有的情况,我就说一下我是怎么安装的cudnn的安装确定cud
runing_an_min
·
2024-01-16 00:18
机器学习
tensorflow
dnn
人工智能
腾讯图
神经网络
与推荐预训练模型
分享嘉宾:宋重钢博士腾讯高级研究员编辑整理:罗锦波澳门科技大学出品平台:DataFunTalk导读:今天分享的主题为图
神经网络
与推荐预训练模型。
文文学霸
·
2024-01-15 23:26
大数据
编程语言
python
神经网络
机器学习
脑科学与人工
神经网络
ANN的发展历程与最新研究
本文深入研究了ANN的基本概念、发展背景、应用场景以及与人脑
神经网络
的关系。关注TechLead,分享AI全维度知识。
TechLead KrisChang
·
2024-01-15 19:22
人工智能
深度学习
机器学习
Information Sciences 2022 | 利用图嵌入和图
神经网络
实现社交网络中的影响力最大化
目录前言1.影响力最大化2.SGNN2.1标签生成2.2struc2vec2.3GNN特征处理2.4回归预测2.5整体框架3.实验3.1数据集3.2评价指标前言题目:Influencemaximizationinsocialnetworksusinggraphembeddingandgraphneuralnetwork期刊:InformationSciences2022论文地址:Influence
Cyril_KI
·
2024-01-15 19:15
影响力最大化
Papers
影响力最大化
图神经网络
图嵌入
SIR模型
《动手学深度学习》学习笔记 第10章 注意力机制
有大篇幅的描述性的文字,内容很多,笔记只保留主要内容,同时也是对之前知识的查漏补缺《动手学深度学习》学习笔记第4章多层感知机《动手学深度学习》学习笔记第5章深度学习计算《动手学深度学习》学习笔记第6章卷积
神经网络
北方骑马的萝卜
·
2024-01-15 19:13
《手动深度学习》笔记
深度学习
学习
笔记
上一页
41
42
43
44
45
46
47
48
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他