E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络模式识别matlab
【前沿技术杂谈:深度学习新纪元】探索人工智能领域的革命性进展
【前沿技术杂谈:深度学习新纪元】探索人工智能领域的革命性进展深度学习的进展深度学习的基本原理和算法深度学习的历史发展
神经网络
的基本构成神经元层次结构激活函数关键技术和算法反向传播算法卷积
神经网络
(CNN
jcfszxc
·
2024-02-08 02:48
深度学习知识专栏
人工智能
深度学习
学习PyTorch中的注意力机制和Transformer架构
1.背景介绍1.1注意力机制注意力机制是一种用于计算
神经网络
中各个输入元素之间相对重要性的技术。它可以帮助网络更好地捕捉输入数据
禅与计算机程序设计艺术
·
2024-02-08 02:13
学习
pytorch
transformer
人工智能
python
Matlab
图像模拟加噪——高斯噪声、椒盐噪声、泊松噪声、乘性噪声、均匀噪声、指数噪声
1.高斯噪声(1)通过均值和方差来产生J=imnoise(I,'gaussian',0,0.01);%高斯噪声,均值为0,方差为0.01(2)通过位置信息来产生I=im2double(I);V=zeros(size(I));%建立矩阵Vfori=1:size(V,1)V(i,:)=0.02*i/size(V,1);endJ=imnoise(I,'localvar',V);%添加高斯噪声(3)根据亮
MatpyMaster
·
2024-02-08 01:09
图像处理
matlab
人工智能
算法
学习
笔记
Matlab
图像处理——基于小波变换的数字图像水印嵌入和提取算法(GUI界面)
1.摘要数字图像水印技术在信息安全领域中扮演着至关重要的角色,本文结合离散小波变换、Arnold置乱变换和奇异值分解,实现了对数字图像水印的高效嵌入和提取。结果表明:该算法能够准确实现水印的嵌入和提取功能;嵌入的水印具有良好的隐身性,人眼不能感觉出水印嵌入带来的变化;算法具有较强的鲁棒性,经过椒盐噪声、高斯噪声、JPEG压缩、高斯平滑和裁剪操作等污染及攻击后,都能较好地恢复水印信息。2.研究方法算
MatpyMaster
·
2024-02-08 01:38
图像处理
付费专栏
算法
人工智能
计算机视觉
Python 机器学习 特征预处理
这一步骤对于许多机器学习算法特别重要,尤其是那些基于距离的算法(如K-近邻)和梯度下降法(如线性回归、逻辑回归、
神经网络
)。1)最小-最大缩放(Min-MaxScaling)最小-最大缩放将所有特
weixin_42098295
·
2024-02-08 01:41
python
机器学习
开发语言
矩阵正定
matlab
,
matlab
错误使用 chol 矩阵必须为正定矩阵
警告:矩阵为奇异值、接近奇异值或缩放错误。结果可能不准确。RCOND=NaN。警告:矩阵为奇异值、接近奇异值或缩放错误。结果可能不准确。RCOND=NaN。警告:矩阵为奇异值、接近奇异值或缩放错误。结果可能不准确。RCOND=NaN。PooledmodelwithspatiallylaggeddependentvariableandtimeperiodfixedeffectsDependentVa
清蒸星星清蒸星星
·
2024-02-07 23:55
矩阵正定
matlab
探秘深度学习的巅峰之作:ResNet101与其在图像识别领域的革命性应用
引言深度学习和图像识别的世界已经被深度卷积
神经网络
的引入所革命化,而在这些网络中,ResNet101架构作为一个重要的里程碑脱颖而出。本文旨在详细探讨ResNet101架构、其设计、功能和应用。
程序员Chino的日记
·
2024-02-07 22:47
深度学习
人工智能
使用不动点迭代法求解非线性方程(含完整
MATLAB
代码)
不动点迭代法是一种求解非线性方程的数值方法。这种方法基于不动点理论,即寻找一个点xxx,使得f(x)=xf(x)=xf(x)=x。对于给定的非线性方程g(x)=0g(x)=0g(x)=0,我们可以通过将其转化为x=h(x)x=h(x)x=h(x)的形式来应用不动点迭代法,其中h(x)h(x)h(x)是经过适当选择的,使得原方程的解也是这个新方程的不动点。不动点迭代法的步骤1、选择初始估计值:从x0
hututu1122
·
2024-02-07 22:34
非线性方程求解
matlab
算法
迭代加深
非线性方程组牛顿迭代法
matlab
,
matlab
实现牛顿迭代法求解非线性方程组
《
matlab
实现牛顿迭代法求解非线性方程组》由会员分享,可在线阅读,更多相关《
matlab
实现牛顿迭代法求解非线性方程组(5页珍藏版)》请在人人文库网上搜索。
weixin_39746282
·
2024-02-07 22:34
卷积
神经网络
算法分子对接软件-gnina的编译安装
卷积
神经网络
算法分子对接软件-gnina的编译安装文章目录卷积
神经网络
算法分子对接软件-gnina的编译安装前言gnina(读作NEE-na)是一款源于AutoDockVina及smina的开源分子对接软件
Blockbuater_drug
·
2024-02-07 20:57
算法
开源软件
python
神经网络
加速度信号转换为速度、位移和频率信号
MATLAB
环境下利用信号处理算法滤波并将加速度信号转换为速度、位移和频率信号以风电机组齿轮箱为例,在风电机组齿轮箱的振动分析中,一般都需要得到加速度、速度、位移信号然后再对其状态做出判断。
哥廷根数学学派
·
2024-02-07 20:56
图像处理
信号处理
信号处理
matlab
算法
基于WGAN-GP方法的时间序列信号生成(以轴承振动信号为例)
生成对抗网络GAN作为非监督学习,由生成器和判别器两个
神经网络
构成。生成器从潜在空间中随机取样作为输入,试图生成与真实样本数据相仿的数据。
哥廷根数学学派
·
2024-02-07 20:56
信号处理
图像处理
故障诊断
算法
人工智能
深度优先
python
MATLAB
环境下用于提取冲击信号的几种解卷积方法
卷积混合考虑了信号的时延,每一个单独源信号的时延信号都会和传递路径发生一次线性瞬时混合;解卷积的过程就是找一个合适的滤波器,进行反卷积运算,得到源信号的近似解。声音不可避免的会发生衍射、反射等现象,所以,源声信号及其时延信号在传递过程中会发生卷积然后到达麦克风。所以,卷积模型更符合实际工程问题,利用解卷积思路用于振动、声音信号的信号处理以及齿轮、轴承的故障特征增强的有最小熵解卷积、最大相关峭度解卷
哥廷根数学学派
·
2024-02-07 20:56
图像处理
故障诊断
信号处理
matlab
开发语言
信号处理
算法
cnn
MATLAB
环境下生成对抗网络系列(11种)
为了构建有效的图像深度学习模型,数据增强是一个非常行之有效的方法。图像的数据增强是一套使用有限数据来提高训练数据集质量和规模的数据空间解决方案。广义的图像数据增强算法包括:几何变换、颜色空间增强、核滤波器、混合图像、随机擦除、特征空间增强、对抗训练、生成对抗网络和风格迁移等内容。增强的数据代表一个分布覆盖性更广、可靠性更高的数据点集,使用增强数据能够有效增加训练样本的多样性,最小化训练集和验证集以
哥廷根数学学派
·
2024-02-07 20:55
信号处理
深度学习
图像处理
matlab
生成对抗网络
开发语言
【计算机视觉】目标检测 |滑动窗口算法、YOLO、RCNN系列算法
一、概述首先通过前面对计算机视觉领域中的卷积
神经网络
进行了解和学习,我们知道,可以通过卷积
神经网络
对图像进行分类。如果还想继续深入,会涉及到目标定位(objectlocation)的问题。
Yaoyao2024
·
2024-02-07 18:08
计算机视觉
目标检测
算法
讲解:Github、Java、Java
Matlab
|R
AssessedExercise2,Task3ImplementcodegenTask3forthewholelanguage.PROG→DEC|DEC;PROGDEC→defID(VARDEC)=EVARDEC→ε|VARDECNEVARDECNE→ID|VARDECNE,IDID→...(identifiers)INT→...(Integers)E→INT|ID|ifECOMPEthenEel
zidangbing
·
2024-02-07 18:09
【光伏功率预测】基于EMD-PCA-LSTM的光伏功率预测模型(
Matlab
代码实现)
本文目录如下:目录1概述2运行结果3文献来源4
Matlab
代码、数据、文章讲解1概述文献来源:摘要:提高光伏发电功率预测精度,对于保证电力系统的安全调度和稳定运行具有重要意义。
程序猿鑫
·
2024-02-07 18:28
matlab
lstm
开发语言
【毕业设计选题】基于深度学习的学生课堂行为检测算法系统 YOLO python 卷积
神经网络
人工智能
目录前言设计思路一、课题背景与意义二、算法理论原理2.1深度卷积
神经网络
2.2YOLOv5算法三、检测的实现3.1数据集3.2实验环境搭建3.3实验及结果分析实现效果图样例最后前言大四是整个大学期间最忙碌的时光
Mini_hailang_IT
·
2024-02-07 17:37
机器视觉毕业设计
毕业设计
毕设
计算机视觉
深度学习
卷积神经网络
人工智能
机器学习
06-20201012 感知机-1从感知机到
神经网络
为什么学习
神经网络
都要学习感知机呢?
野山羊骑士
·
2024-02-07 17:24
李沐《动手学深度学习》注意力机制
系列文章李沐《动手学深度学习》预备知识张量操作及数据处理李沐《动手学深度学习》预备知识线性代数及微积分李沐《动手学深度学习》线性
神经网络
线性回归李沐《动手学深度学习》线性
神经网络
softmax回归李沐《
丁希希哇
·
2024-02-07 16:27
李沐《动手学深度学习》学习笔记
深度学习
人工智能
算法
pytorch
深度学习的探索与实践
深度学习是人工智能领域的一个重要分支,它利用
神经网络
模拟人类大脑的学习过程,通过大量数据训练模型,使其能够自动提取特征、识别模式、进行分类和预测等任务。
爱内卷的学霸一枚
·
2024-02-07 16:38
深度学习
opencv入门讲解
它由一系列C函数和少量C++类构成,同时提供了Python、Ruby、
MATLAB
等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。
稚肩
·
2024-02-07 15:33
opencv
【DELM回归预测】基于深度学习极限学习机DELM实现数据回归预测附
matlab
代码
✅作者简介:热爱科研的
Matlab
仿真开发者,修心和技术同步精进,
matlab
项目合作可私信。个人主页:
Matlab
科研工作室个人信条:格物致知。
matlab科研助手
·
2024-02-07 15:32
神经网络预测
回归
深度学习
matlab
回归预测 | 基于LightGBM算法的数据回归预测(多指标,多图)附
MATLAB
实现
✅作者简介:热爱科研的
Matlab
仿真开发者,修心和技术同步精进,代码获取、论文复现及科研仿真合作可私信。个人主页:
Matlab
科研工作室个人信条:格物致知。
Matlab科研辅导帮
·
2024-02-07 15:02
预测模型
算法
回归
matlab
深度置信网络(深度信念网络)DBN回归预测-
MATLAB
代码实现
一、DBN介绍(完整代码获取:私信或评论区)深度置信网络(DeepBeliefNetworks,DBN)是一种深度学习模型,由多个堆叠的受限玻尔兹曼机(RestrictedBoltzmannMachines,RBM)组成。DBN在回归预测任务中可以用于学习输入数据的非线性特征表示,并进行预测。DBN进行回归预测的步骤如下:1.数据准备:准备用于回归预测的训练集和测试集数据。确保数据已经进行预处理,
L0392
·
2024-02-07 15:01
神经网络回归预测
回归
matlab
深度神经网络
机器学习
人工智能
【
MATLAB
】使用随机森林在回归预测任务中进行特征选择(深度学习的数据集处理)
1.随机森林在
神经网络
的应用当使用随机森林进行特征选择时,算法能够为每个特征提供一个重要性得分,从而帮助识别对目标变量预测最具影响力的特征。
编程到天明
·
2024-02-07 15:31
matlab
随机森林
算法
MATLAB
求单位脉冲,阶跃,斜坡响应。自动控制例题。
自动控制原理中,利用
MATLAB
求单位脉冲,阶跃,斜坡响应。
编程到天明
·
2024-02-07 15:01
MATLAB
matlab
开发语言
【
MATLAB
】使用梯度提升树在回归预测任务中进行特征选择(深度学习的数据集处理)
1.梯度提升树在
神经网络
的应用使用梯度提升树进行特征选择的好处在于可以得到特征的重要性分数,从而识别出对目标变量预测最具影响力的特征。
编程到天明
·
2024-02-07 15:59
MATLAB
matlab
深度学习
梯度提升树
特征选择
Python调用
matlab
程序
matlab
官网:https://ww2.mathworks.cn/?s_tid=gn_logo
matlab
外部语言和库接口,包括Python、Java、C、C++、.NET和Web服务。
初学小白Lu
·
2024-02-07 14:49
python
python
matlab
Matlab
数据快速处理指南
文件读取数据并加载到工作区Mat文件转ExcelExcel快速实现万行级填充各种数据类型的操作创建结构体访问结构体字段修改结构体字段的值添加新字段删除字段遍历结构体字段Excel文件转Mat或工作区在
MATLAB
马上到我碗里来
·
2024-02-07 14:18
#
MATLAB基础入门
matlab
linux
开发语言
matlab
| 一些总是忘记多次查的快捷键及符号
1、
matlab
注释多行快捷键多行注释:选中要注释的语句,快捷键:ctrl+r取消注释:选中要取消的语句,快捷键:ctrl+t2、改变
matlab
横纵坐标大小及名称,以及坐标轴数字大小xlabel('X
squirrel快乐敲码
·
2024-02-07 14:48
matlab
开发语言
多维时序 |
MATLAB
实现基于CNN-LSSVM卷积
神经网络
-最小二乘支持向量机多变量时间序列预测
多维时序|
MATLAB
实现基于CNN-LSSVM卷积
神经网络
-最小二乘支持向量机多变量时间序列预测目录多维时序|
MATLAB
实现基于CNN-LSSVM卷积
神经网络
-最小二乘支持向量机多变量时间序列预测预测效果基本介绍程序设计参考资料预测效果基本介绍
机器学习之心
·
2024-02-07 14:17
时序预测
CNN-LSSVM
卷积神经网络
最小二乘支持向量机
多变量时间序列预测
浅析
Matlab
中的Unit Delay、Memory以及代数环概念
文章目录1介绍①UnitDelay(单位延迟)②Memory(存储器)③代数环2区分3仿真验证1介绍在控制系统工程和信号处理领域,“UnitDelay”、"Memory"以及"代数环"是一些常用的概念,下面对它们进行简要解释:①UnitDelay(单位延迟)“UnitDelay”是一个用于表示系统或信号处理中的离散时间延迟的元件。在离散时间系统中,输入信号通过一个单位延迟后变为输出信号。这个延迟一
马上到我碗里来
·
2024-02-07 14:46
#
MATLAB基础入门
matlab
开发语言
代数环
【
MATLAB
源码-第137期】基于
matlab
的NOMA系统和OFDMA系统对比仿真。
操作环境:
MATLAB
2022a1、算法描述NOMA(非正交多址)和OFDMA(正交频分多址)是两种流行的无线通信技术,广泛应用于现代移动通信系统中,如4G、5G和未来的6G网络。
Matlab程序猿
·
2024-02-07 14:15
MATLAB
通信原理
通信系统
matlab
开发语言
信息与通信
FINN: 使用
神经网络
对网络流进行指纹识别
文章信息论文题目:FINN:FingerprintingNetworkFlowsusingNeuralNetworks期刊(会议):AnnualComputerSecurityApplicationsConference时间:2021级别:CCFB文章链接:https://dl.acm.org/doi/pdf/10.1145/3485832.3488010概述有关流量分析的工作分为两类。一些工作重
h0l10w
·
2024-02-07 14:13
Paper
Reading
神经网络
网络
网络安全
tor
流水印
改进
神经网络
ImproveNN文章目录ImproveNNtrain/dev/testsetBias/VariancebasicrecipeRegularizationLogisticRegressionNeuralnetworkotherwaysoptimizationproblemNormalizinginputsvanishing/explodinggradientsweightinitializegra
stoAir
·
2024-02-07 14:12
神经网络
机器学习
人工智能
电力负荷预测 | 电力系统负荷预测模型(Python线性回归、随机森林、支持向量机、BP
神经网络
、GRU、LSTM)
文章目录效果一览文章概述源码设计参考资料效果一览文章概述电力系统负荷预测模型(Python线性回归、随机森林、支持向量机、BP
神经网络
、GRU、LSTM)所谓预测,就是指通过对事物进行分析及研究,并运用合理的方法探索事物的发展变化规律
天天酷科研
·
2024-02-07 14:40
电力负荷预测(PLF)
神经网络
python
电力负荷预测
随机森林
支持向量机
LSTM
GRU
python
神经网络
学习
最新在朋友的推荐下看了《python
神经网络
编程》,深有启发,本文以深入浅出的道理,简单明了的介绍了一种
神经网络
的原理及python实现过程及全部代码,通过学习,至少基本掌握了相关知识,为后面学习打下基础
追寻内心的梦想
·
2024-02-07 14:35
人工智能 | 深度学习的进展
深度学习的进展深度学习是人工智能领域的一个重要分支,它利用
神经网络
模拟人类大脑的学习过程,通过大量数据训练模型,使其能够自动提取特征、识别模式、进行分类和预测等任务。
卡尔曼的BD SLAMer
·
2024-02-07 13:02
人工智能
人工智能
深度学习
进展
机器学习
CVPR 2023: SFD2 Semantic-Guided Feature Detection and Description
学习特征:这些特征是使用深度学习技术(例如卷积
神经网络
(CNN))从数据中自动学习的。它们可以捕捉像素之间更复杂的关系,并有可能获得更好的性能,但计算成本可能很高。语义
结构化文摘
·
2024-02-07 12:20
sketch
ui
分层架构
神经网络
和深度学习第一周学习笔记
这种算法的灵感来源与人类的大脑组成ReLUReLU函数的特点是初始值为0,之后变为一条直线singleneuron上图圆圈的部分代表单个神经元,其完成的任务为输入x可以输出相对应的y上图表示由多个神经元聚集而成的
神经网络
热爱生活的小谢
·
2024-02-07 12:18
深度 | 从各种注意力机制窥探深度学习在NLP中的神威
-P.Tixier机器之心编译参与:思源随着层级表征的兴起,自然语言处理在很多方面都应用了深度
神经网络
。
机器学习算法那些事
·
2024-02-07 12:18
神经网络
算法
python
机器学习
人工智能
【代码分享】基于改进ISODATA的负荷风电光伏曲线场景聚类算法
程序名称:基于改进ISODATA的负荷风电光伏曲线场景聚类算法实现平台:
matlab
代码简介:提出了一种针对负荷曲线聚类的聚类效果和速度并重的L-ISODATA(Loadcurve-ISODATA)算法
电力系统爱好者
·
2024-02-07 11:10
算法
聚类
机器学习
【代码分享】计及源荷不确定性的综合能源生产单元运行调度与容量配置两阶段随机优化
程序名称:计及源荷不确定性的综合能源生产单元运行调度与容量配置两阶段随机优化实现平台:
matlab
-yalmip-cplex/gurobi代码简介:为应对源端可再生能源及荷端负荷需求的随机性波动对综合能源生产单元
电力系统爱好者
·
2024-02-07 11:10
能源
【代码分享】电动汽车负荷接入对IEEEE33节点配电网电压与网损影响的分析
程序名称:电动汽车负荷接入对配电网电压与网损影响的分析实现平台:
matlab
代码简介:电动汽车的对IEEEE33节点电网的影响,包含汽车负荷预测与节点潮流网损、压损计算两部分!!!四种场景应用。
电力系统爱好者
·
2024-02-07 11:10
matlab
【代码分享】基于VMD(变分模态分解)-RIME(霜冰算法优化)-LSTM的时间序列预测模型
程序名称:基于VMD(变分模态分解)-RIME(霜冰算法优化)-LSTM的时间序列预测模型实现平台:
matlab
代码简介:提出了变分模态分解(VMD)和霜冰算法优化法(RIME)与长短期记忆
神经网络
(LSTM
电力系统爱好者
·
2024-02-07 11:40
算法
lstm
人工智能
【代码推荐指南】时间序列与回归分类预测、电力系统运行优化与规划
多变量单输出,包括点预测+概率预测+核密度估计曲线,
Matlab
R2021a及
电力系统爱好者
·
2024-02-07 11:10
回归
分类
数据挖掘
【代码分享】基于非支配排序的蜣螂优化算法的微电网多目标低碳经济优化调度
matlab
代码
程序名称:基于非支配排序的蜣螂优化算法的微电网多目标低碳经济优化调度实现平台:
matlab
代码简介:微电网优化调度作为智能电网优化的重要组成部分,对降低能耗、环境污染具有重要意义。
电力系统爱好者
·
2024-02-07 11:09
算法
matlab
开发语言
【代码分享】基于RIME-CNN-LSTM-Attention(霜冰算法优化卷积
神经网络
融合注意力机制)的时间序列回归预测
程序名称:基于RIME-CNN-LSTM-Attention(霜冰算法优化卷积
神经网络
融合注意力机制)的多变量回归预测实现平台:
matlab
代码简介:霜冰优化算法(RIME)是一项2023年发表于SCI
电力系统爱好者
·
2024-02-07 11:39
算法
cnn
lstm
LSTM进行时间序列预测还有哪些创新点,有什么推荐的好发论文的模型和代码?
时间序列分析是处理时间相关数据的一种方法,常用于预测、趋势分析和
模式识别
等应用。
电力系统爱好者
·
2024-02-07 11:39
lstm
人工智能
rnn
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他