E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习算法神经网络
人工智能深度学习入门指南
深度学习通过模拟人脑
神经网络
的运作方式,使得机器能够处理和分析海量的数据,从而实现更高级别的智能。本文将为你提供一份深度学习入门指南,帮助你快速掌握深度学习的基本知识和应用技能。
白猫a~
·
2024-02-11 23:00
编程
深度学习
人工智能
【TSP问题】基于遗传算法求解快递运输成本最优化问题GA-MTSP附Matlab代码
更多Matlab完整代码及仿真定制内容点击智能优化算法
神经网络
预测雷达通信无线传感器电力系统信号处理图像处理路径规划元胞自动机无人机内容介绍1.问题描述旅行商问题(TSP)是一个经典的组合优化问题,它要求在给定一组城市和城市之间的距离的情况下
天天Matlab代码科研顾问
·
2024-02-11 21:08
路径规划
matlab
开发语言
【Leach协议】基于MATLAB中实现的无线传感器网络Leach协议
更多Matlab完整代码及仿真定制内容点击智能优化算法
神经网络
预测雷达通信无线传感器电力系统信号处理图像处理路径规划元胞自动机无人机内容介绍LEACH协议简介LEACH协议(Low-EnergyAdaptiveClusteringHierar
天天Matlab代码科研顾问
·
2024-02-11 21:08
WSN
matlab
网络
开发语言
SMA-CEEMDAN时序分解 | Matlab实现利用黏菌优化算法优化CEEMDAN时间序列信号分解
更多Matlab完整代码及仿真定制内容点击智能优化算法
神经网络
预测雷达通信无线传感器电力系统信号处理图像处理路径规划元胞自动机无人机内容介绍摘要本文提出了一种基于黏菌算法优化完备经验变模态的信号去噪方法
天天Matlab代码科研顾问
·
2024-02-11 21:38
信号处理
matlab
算法
开发语言
【KELM回归预测】基于天鹰算法优化核极限学习AO-KELM实现瓦斯浓度多输入单输出预测附Matlab代码
更多Matlab完整代码及仿真定制内容点击智能优化算法
神经网络
预测雷达通信无线传感器电力系统信号处理图像处理路径规划元胞自动机无人机内容介绍摘要瓦斯浓度预测是煤矿安全生产的重要环节。
天天Matlab代码科研顾问
·
2024-02-11 21:38
预测模型
算法
回归
学习
基于傅里叶变换和带通滤波器实现脑电信号EEG目标识别附Matlab实现
更多Matlab完整代码及仿真定制内容点击智能优化算法
神经网络
预测雷达通信无线传感器电力系统信号处理图像处理路径规划元胞自动机无人机内容介绍1.脑电信号EEG简介脑电信号(EEG)是大脑皮层神经元群体同步放电产生的生物电位
天天Matlab代码科研顾问
·
2024-02-11 21:37
信号处理
matlab
深度学习、机器学习和
神经网络
之间的区别
深度学习是机器学习的一个子类别,有效地是一个三层
神经网络
。这些
神经网络
旨在通过模仿人脑的功能来“学习”大量数据,但它们远远达不到人脑的能力。
第欧根尼的酒桶
·
2024-02-11 20:12
深度学习
机器学习
神经网络
C语言常见面试题:C语言中如何进行人工智能编程?
以下是一些基本步骤和注意事项,帮助你开始在C语言中进行AI编程:理解AI基础:学习AI的基本概念、算法和技术,如机器学习、深度学习、
神经网络
等。
广寒舞雪
·
2024-02-11 20:06
c语言
人工智能
开发语言
深度学习路线,包括书籍和视频
书籍:《
神经网络
与深度学习》(NeuralNetworksandDeepLearning)Micha
jjm2002
·
2024-02-11 19:25
深度学习
深度学习
人工智能
YOLOv5改进 | 融合改进篇 | 华为VanillaNet + BiFPN突破涨点极限
一、本文介绍本文给大家带来的改进机制是华为VanillaNet主干配合BiFPN实现融合涨点,这个主干是一种注重极简主义和效率的
神经网络
我也将其进行了实验,其中的BiFPN不用介绍了从其发布到现在一直是比较热门的改进机制
Snu77
·
2024-02-11 18:40
YOLOv5改进有效专栏
深度学习
人工智能
YOLO
目标检测
计算机视觉
华为
python
9、
神经网络
三:学习与评价
目录9.1梯度检验9.2清醒检查9.3照看学习过程9.3.1损失函数9.3.2训练/评估精度9.3.3权重:更新率9.3.4每一层的激活/梯度分布9.4.5可视化9.4参数更新9.4.1一阶(SGD),动量,内斯特罗夫动量9.4.2学习速率的退火9.4.3二阶方法9.4.4每个参数自适应学习率(Adagrad,RMSProp)9.5超参数优化9.6评价9.7模型集成9.8总结9.9参考文献在前面的
qxdx.org
·
2024-02-11 18:03
计算机视觉
梯度检查
清醒检查
婴儿学习过程
超参数优化
二阶方法
论文学习1----理解深度学习需要重新思考泛化Understanding deep learning requires rethinking generalization
——论文地址:Understandingdeeplearningrequiresrethinkinggeneralization1、有关新闻1.1新闻一:参考1:机器之心尽管深度人工
神经网络
规模庞大,但它们的训练表现和测试表现之间可以表现出非常小的差异
夏洛的网
·
2024-02-11 18:02
机器学习
深度学习
论文
深度学习
神经网络
神经网络
垃圾笔记
神经网络
垃圾笔记OptimizationMethodsBatchGradientDescent:GDMini-BatchGradientDescentStochasticGradientDescent:
MegaC
·
2024-02-11 18:32
深度
神经网络
中的BNN和DNN:基于存内计算的原理、实现与能量效率
引言深度
神经网络
(DNN)在机器学习领域越来越受欢迎,其在一系列任务中展现出最先进的性能。为了达到最佳结果,通常需要大量的训练数据和大型模型,从而使得训练和推理过程变得复杂。
·
2024-02-11 18:53
算法
R语言逻辑回归、决策树、随机森林、
神经网络
预测患者心脏病数据混淆矩阵可视化
全文链接:https://tecdat.cn/?p=33760原文出处:拓端数据部落公众号概述:众所周知,心脏疾病是目前全球最主要的死因。开发一个能够预测患者心脏疾病存在的计算系统将显著降低死亡率并大幅降低医疗保健成本。机器学习在全球许多领域中被广泛应用,尤其在医疗行业中越来越受欢迎。机器学习可以在预测关键疾病(例如心脏病)的存在或不存在方面发挥重要作用。如果能提前准确预测这些信息,可以为医生提供
·
2024-02-11 18:20
数据挖掘深度学习人工智能算法
1.9
神经网络
结构搜索(NAS)
神经网络
结构搜索(NAS)更多内容,请关注:github:https://github.com/gotonote/Autopilot-Notes.git一、引言
神经网络
架构搜索(NAS)是一种自动搜索最优
神经网络
架构的方法
·
2024-02-11 18:08
人工智能
【深度学习】讲透深度学习第3篇:TensorFlow张量操作(代码文档已分享)
在算法上,掌握
神经网络
的数学原理,手动实现简单的
神经网络
结构,在应用上熟练掌握TensorFlow框架使用,掌握
神经网络
图像相关案例。
·
2024-02-11 18:34
卫星通讯领域FPGA关注技术:算法和图像方面(1)
信号处理算法等工程师可能需要关注的技术,有LMS算法、RLS算法、LCMV算法、SAR图像处理,以下做了一些基础的调研:1LMS算法:LMS(LeastMeanSquare最小均方)算法可认为是机器学习里面最基本也比较有用的算法,
神经网络
中对参数的学习使用的就是
徐丹FPGA之路
·
2024-02-11 17:42
FPGA
算法
fpga开发
算法
GPT-4:比ChatGPT3.5好得多,但它有多好你知道么?
GPT-4与ChatGPT3.5的对比1.学习能力GPT-4采用了更多的
神经网络
架构和更高效的训练方法,使得其在学习能力上有了显著的提升
·
2024-02-11 17:36
人工智能
[YOLOv8] - YOLO数据集格式介绍和案例
YOLO(YouOnlyLookOnce)是一种目标检测算法,它使用了一个单独的
神经网络
来同时识别图像中的多个对象。它可以支持一下多种的训练数据集的格式。其中YOLO数据集格式是非常常用的一种。
老狼IT工作室
·
2024-02-11 16:27
YOLO
YOLO
数据集格式
(零)我还没想好标题 = ='''
1.实验简介从底层实现BP
神经网络
,实现对0-9数字手写体的训练与分类2.实验数据Mnist数据集Mnist数据集来自美国国家标准与技术研究所:NationalInstituteofStandardsandTechnology
半亩半亩
·
2024-02-11 16:31
【论文精读】Transformer
摘要以往的循环
神经网络
如LSTM和GRU,在序列建模和翻译问题中已经成为最先进的方法,但由于其循环结构,导致无法并行化计算,且难以对长序列的全局关系建模。
None-D
·
2024-02-11 15:40
BackBones
transformer
深度学习
人工智能
批归一化(Batch Normalization,简称BN)层的作用!!
批归一化(BatchNormalization,简称BN)层在卷积
神经网络
中的作用主要有以下几点:规范化数据:批归一化可以对每一批数据进行归一化处理,使其均值接近0,方差接近1。
小桥流水---人工智能
·
2024-02-11 15:40
机器学习算法
Python程序代码
batch
开发语言
政安晨:梯度与导数~示例演绎《机器学习·
神经网络
》的高阶理解
这篇文章确实需要一定的数学基础,第一次接触的小伙伴可以先看一下我示例演绎这个主题的前两篇文章:示例演绎机器学习中(深度学习)
神经网络
的数学基础——快速理解核心概念(一):政安晨:示例演绎机器学习中(深度学习
政安晨
·
2024-02-11 15:00
政安晨的机器学习笔记
机器学习
神经网络
人工智能
Python
梯度与导数
TensorFlow
Conda
PyTorch版本说明与安装
PyTorch版本说明与安装PyTorch可以看作是Python的一个库,准确地说,它是一个深度学习框架,提供了许多用于构建、训练和部署
神经网络
模型的功能和工具。
YuanDaima2048
·
2024-02-11 13:52
工具使用
深度学习
pytorch
机器学习
人工智能
python
笔记
政安晨:示例演绎机器学习中(深度学习)
神经网络
的数学基础——快速理解核心概念(二){两篇文章讲清楚}
这一篇与上一篇是兄弟篇,意在通过两篇文章讲清楚深度学习中
神经网络
的数学基础,第一次看到这篇文章的小伙伴可以从上一篇文章看起(包括搭建环境等等都在上一篇),上一篇链接如下:政安晨:示例演绎机器学习中(深度学习
政安晨
·
2024-02-11 12:56
政安晨的机器学习笔记
机器学习
深度学习
神经网络
Python
数学基础
张量运算
Numpy
Python微信自动抢红包程序(OpenCV,pyautogui)
微信自动抢红包教程有很多,有通过分析安卓组件写的,由于对java不熟悉,就想通过监视电脑屏幕的方法做,也就是OpenCV,或者卷积
神经网络
,刚好以前项目做到过。
木更的爱念
·
2024-02-11 11:33
python
开发语言
fast.ai 机器学习笔记(三)
广义定义的
神经网络
视频/笔记本正如我们在上一课结束时讨
绝不原创的飞龙
·
2024-02-11 10:19
人工智能
人工智能
python
日更挑战-
神经网络
之感知器
越不懂的越爱装大家都同等:IT世界没有难不难,只有是否了解过挑战目录问题1:什么是感知器?解答:首先可以先说一下线性函数y=wx+b:对于传入x=x1的时候会输出y1。这时候线上面点用y1+n=wx1+b(n为大于0的数),同理y1-n=wx1+b是线下面的点。那么假设一个随机数a:wx1+b=a,这时(y-a)大于或小于0表示(x1,a)在这个线的上面还是下面。那么a=wx1+(b-y)的结果a
愿你我皆是黑马
·
2024-02-11 10:18
《零基础实践深度学习》波士顿房价预测任务 02
1.3波士顿房价预测任务上一节我们初步认识了
神经网络
的基本概念(如神经元、多层连接、前向计算、计算图)和模型结构三要素(模型假设、评价函数和优化算法)。
软工菜鸡
·
2024-02-11 09:20
《零基础实践深度学习》
python
波士顿房价
百度
飞桨
深度学习
机器学习
GPT-4模型的创造力
它们不仅能够精确地模拟和再现各类文本样式、结构和内容,而且在生成新的文本时,能够通过
深度学习算法
对海量训练数据中捕捉到的模式进行创新性的重组与拓展:词汇创新:基于已学习的大量词汇及其搭配关系,GPT-4
科学禅道
·
2024-02-11 07:23
大模型专栏
人工智能
AIGC
自然语言处理
【正在更新】从零开始认识语音识别:DNN-HMM混合系统语音识别(ASR)原理
摘要|AbstractTO-BE-FILLED1.前言|Introduction近期想深入了解语音识别(ASR)中隐马尔可夫模型(HMM)和深度
神经网络
-隐马尔可夫(DNN-HMM)混合模型,但是尽管网络上有许多关于
EthanLifeGreat
·
2024-02-11 06:11
语音识别
dnn
人工智能
使用深度学习进行序列分类
最近在准备毕业设计,题目是关于使用深度学习进行序列数据进行分类的问题,
神经网络
在特征识别和分类上具有超常的优势。
小白lite
·
2024-02-11 06:00
神经网络
神经网络
LSTM
序列分类
MATLAB
深度学习
使用深度学习进行“序列到序列”分类
要训练深度
神经网络
以对序列数据的每个时间步进行分类,可以使用“序列到序列”LSTM网络。通过“序列到序列”LSTM网络,可以对序列数据的每个时间步进行不同预测。
jk_101
·
2024-02-11 06:59
Matlab
深度学习
分类
人工智能
深度学习图像分类相关概念简析+个人举例1(ANN相关概念与计算)
(1)
神经网络
:英文全称ArtificialNeuralNetwork,简称为ANN。
神经网络
是一种模仿人脑神经元结构和功能的人工智能模型。
是lethe先生
·
2024-02-11 04:50
深度学习
分类
人工智能
深度学习图像分类相关概念简析+个人举例2(CNN相关原理概念与计算)
(2)卷积
神经网络
:英文全称ConvolutionalNeuralNetwork,简称CNN是一种常用于图像分类的深度学习模型,其主要特点是包含了卷积层和池化层,能够提取图像的局部特征。
是lethe先生
·
2024-02-11 04:50
深度学习
分类
cnn
(2023,ControlNet,CFGRW,diffusion,控制组合)向文本到图像扩散模型添加条件控制
AddingConditionalControltoText-to-ImageDiffusionModels公众号:EDPJ(添加VX:CV_EDPJ或直接进Q交流群:922230617获取资料)目录0.摘要1.简介2.相关工作2.1.微调
神经网络
EDPJ
·
2024-02-11 04:46
论文笔记
人工智能
深度学习
政安晨:示例演绎机器学习中(深度学习)
神经网络
的数学基础——快速理解核心概念(一){两篇文章讲清楚}
进入人工智能领域免不了与算法打交道,算法依托数学基础,很多小伙伴可能新生畏惧,不用怕,算法没那么难,也没那么玄乎,未来人工智能时代说不得人人都要了解算法、应用算法。本文试图以一篇文章,用程序演绎的方式给大家把这里面的数学基础先讲清楚,以便于咱们未来深入,呵呵。第一次接触机器学习的小伙伴,环境搭建参考我的这篇文章(只参考这个里面关于环境搭建的部分就可以):政安晨的机器学习笔记——跟着演练快速理解Te
政安晨
·
2024-02-11 03:34
政安晨的机器学习笔记
神经网络
人工智能
深度学习
Python
数学基础
机器学习
Conda
深度学习的新进展:从模型架构到应用领域的创新
第一部分:深度学习模型架构的新进展(800字)-卷积
神经网络
(CNN)的创新:近年来,卷积
神经网络
在计算机视觉领域取得了重要突破。例如,残差
梓德原
·
2024-02-11 02:11
深度学习
人工智能
BatchNorm介绍:卷积
神经网络
中的BN
在输入
神经网络
之前可以对数据进行处理让数据消除共线性,但是这样的话输入层的激活层看到的是一个分布良好的数据,但是较深的激活层看到的的分布就没那么完美了,分布将变化的很严重。
是Dream呀
·
2024-02-10 23:03
深度学习
机器学习笔记
cnn
深度学习
机器学习
时间序列预测——BiLSTM模型
BiLSTM(双向长短期记忆网络)是一种常用的
神经网络
模型,用于处理时间序列数据,并具有很好的预测性能。
Persist_Zhang
·
2024-02-10 20:32
数据分析
Python
人工智能
lstm
深度学习
使用python-numpy实现一个简单
神经网络
目录前言导入numpy并初始化数据和激活函数初始化学习率和模型参数迭代更新模型参数(权重)小彩蛋前言这篇文章,小编带大家使用python-numpy实现一个简单的三层
神经网络
,不使用pytorch等深度学习框架
橘柚jvyou
·
2024-02-10 19:26
python
神经网络
人工智能
深度学习
为什么脑机接口不是元宇宙的未来
如果深度
神经网络
和人脑的机制是类似的,那么人脑就无法直接输入信息,只能通过触听视等知觉来进行数据的收集和训练从而获取知识,而肉体大脑是无法经受机器
神经网络
那样大规模的数据训练的,所以可以判定,脑机接口无法独立实现对元宇宙的接入
大囚长
·
2024-02-10 14:20
科技前沿
黑客帝国
元宇宙
脑机接口
深度学习视频详解
据此有人认为历史还会重演,2020年基于深度学习和
神经网络
的AI技术将戳破泡沫,再次入冬,直至有更加先进,更具革命性的算法和技术出现。深度学习是否具有局限性什么是
神经网络
?
大囚长
·
2024-02-10 14:50
科技前沿
【读点论文】A Survey on Vision Transformer,2022年华为诺亚最新综述研究,从发展到任务,整体到局部。ViT有研究价值在于有很多问题还没有解决,真理是阶段性的产物
ASurveyonVisionTransformerAbstracttransformer最早应用于自然语言处理领域,是一种主要基于自注意机制的深度
神经网络
。
羞儿
·
2024-02-10 13:02
论文笔记
深度学习
人工智能
ViT
网络模型
研究方向
一维自编码深度学习去噪效果如何?我用实验告诉你
使用自编码做有监督学习降噪,使用卷积
神经网络
,最好效果的PSNR达到22.94。原图,加噪声图片和去噪图片的效果是这
科技州与数据州
·
2024-02-10 13:05
人工智能大事记-持续更新中
BP1986年,GeoffreyHinton提出了前馈算法,一个通过对输入数据按照重要进行排序的精准
神经网络
。卷积1989年,YannLeCun写了另外一篇旷世之
城市中迷途小书童
·
2024-02-10 13:44
一文看懂深度学习(白话解释+8个优缺点+4个典型算法)
深度学习、
神经网络
、机器学习、人工智能的关系深度学习、机器学习、人工智能
easyAI人工智能知识库
·
2024-02-10 12:39
隐写分析steganalysis深度学习Deep learning卷积
神经网络
CNN
引言:图像隐写将秘密图像嵌入到载体图像,并尽可能少地修改图像的内容和统计特征,秘密信息可以在两个domain中嵌入:spatialdomain和frequencydomain.空域隐写微量修改像素值,频域隐写通常应用于JPEG图像,通过改变离散余弦变换(DCT)系数来实现。LSB算法将秘密信息嵌入到像素值的最低有效位,算法简单但改变了图像的统计特征。目前提出了许多自适应隐写算法(如空域的那三种),
夜 枭 子
·
2024-02-10 12:32
笔记
深度学习
cnn
神经网络
Efficient feature learning and multi-size image steganalysis based on CNN【Zhu-Net基于高效特征学习与多尺度图像隐写分析】
摘要对于隐写分析,许多研究表明卷积
神经网络
比传统机器学习方法的两部分结构具有更好的性能。然而,仍然有两个问题需要解决:降低隐写分析特征映射的信噪比和对任意大小的图像进行隐写分析。
CV误会了我
·
2024-02-10 12:01
cnn
计算机视觉
机器学习
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他