E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
自然语言处理深度学习
竞赛保研 机器视觉目标检测 - opencv
深度学习
基于区域提名的方法5.2.1R-CNN5.2.2SPP-net5.2.3FastR-CNN5.3端到端的方法YOLOSSD6人体检测结果7最后0前言优质竞赛项目系列,今天要分享的是机器视觉opencv
深度学习
目标检测该项目较为新颖
iuerfee
·
2024-01-23 07:54
python
每天五分钟计算机视觉:掌握迁移学习使用技巧
本文重点随着
深度学习
的发展,迁移学习已成为一种流行的机器学习方法,它能够将预训练模型应用于各种任务,从而实现快速模型训练和优化。然而,要想充分利用迁移学习的优势,我们需要掌握一些关键技巧。
幻风_huanfeng
·
2024-01-23 07:24
计算机视觉
计算机视觉
迁移学习
人工智能
卷积神经网络
机器学习
深度学习
(5)---自注意力机制
文章目录1.输入与输出2.Self-attention2.1介绍2.2运作过程2.3矩阵相乘理解运作过程3.位置编码4.TruncatedSelf-attention4.1概述4.2和CNN对比4.3和RNN对比1.输入与输出 1.一般情况下在简单模型中我们输入一个向量,输出结果可能是一个数值或者一个类别。但是在复杂的模型中我们一般会输入一组向量,那么输出结果可能是一组数值或一组类别。 2.一句话
冒冒菜菜
·
2024-01-23 07:42
深度学习从0到1
人工智能
深度学习
自注意力机制
深度学习
-多层感知器-建立MLP实现非线性二分类-MLP实现图像多分类
MLP实现非线性分类预测MLP模型框架MLP实现多分类预测实战准备KerasKeras是一个用Python编写的用于神经网络开发的应用接口,调用开接口可以实现神经网络、卷积神经网络、循环神经网络等常用
深度学习
算法的开发特点
小旺不正经
·
2024-01-23 07:05
人工智能
深度学习
分类
人工智能
day01
深度学习
介绍
目录1.1
深度学习
介绍1.2神经网络NN1、概念:2、神经元3、(单层)神经网络4、感知机(两层)5、多层神经网络6、激活函数(1)饱和与非饱和激活函数(2)饱和激活函数①Sigmoid激活函数②tanh
柠檬不萌只是酸i
·
2024-01-23 06:55
深度学习
深度学习
机器学习
人工智能
TVM安装
为什么选择TVM为提升
深度学习
模型的推理效率,设备平台制造商针对自己的平台推出优化的推理引擎,例如NAVIDA的tensorRT,Intel的OpenVINO,Tencent针对移动端应用推出NCNN等
血_影
·
2024-01-23 06:20
Tools
TVM
深度学习
-活体检测发展之背景篇(一)
主要对最近看的活体检测相关技术做一个总结梳理;纯属个人理解,有不准确的地方希望大家留言讨论文章目录一、人脸识别的背景二、活体检测跟人脸识别什么关系?三、活体检测的任务是什么?四、活体检测技术的分类1.动作活体2.静默活体2.1.单目静默活体2.2基于IR双目红外活体检测2.3.基于深度信息的静默活体2.4三种技术路线比较五、活体检测算法关键指标有哪些?六、小结一、人脸识别的背景我们知道近些年来,人
掀起波澜
·
2024-01-23 06:32
人脸识别
深度学习
人工智能
计算机视觉
安全
深入了解大型语言模型(LLM)
介绍基于大规模预训练LLM的语言模型彻底改变了
自然语言处理
领域。因此,使机器能够以惊人的准确性理解和生成类似人类的文本。要真正欣赏LLM的功能,必须深入研究其内部工作原理并了解其架构的复杂性。
Momodel平台
·
2024-01-23 06:47
1024程序员节
【人工智能大脑】仿生学与人工智能交汇:基于MP神经网络的精准农业实践
MCP由来
深度学习
的历史可以追溯到1943年,当时WalterPitts(数学家)和WarrenMcCulloch(神经科学家)基于人类大脑的
德天老师
·
2024-01-23 06:40
神经网络专题
AI故事专栏
机器学习
人工智能
神经网络
深度学习
特斯拉FSD的神经网络(Tesla 2022 AI Day)
图中把自动驾驶模型拆分出分成了几个依赖的模块:技术底座:自动标注技术处理大量数据,仿真技术创造图片数据,大数据引擎进不断地更新(大模型的数据基础)核心部分:神经网络对场景的识别和理解(不仅仅是视觉技术的运用,结合了
自然语言处理
领域技术
哆啦叮当
·
2024-01-23 06:38
自动驾驶
人工智能
神经网络
深度学习
自动驾驶
pytorch、显卡、显卡驱动、cuda版本是如何对应的
背景做
深度学习
的小伙伴们可能都会在安装环境的时候经常遇到的cuda版本驱动版本以及和显卡是如何对应的,经常搞得特别糊涂,官网没有直接提供他们的对应关系,导致我们在升级显卡的时候发现原来的软件环境不兼容,
鱼游九天
·
2024-01-23 06:10
走向核心素养,开展
深度学习
——以三年级下册《面积》为例
小学数学
深度学习
是在教师引领下,学生围绕着具有挑战性的学习主题,全身心积极参与,体验成功,获得发展的有意义的数学学习过程。
A_thinker
·
2024-01-23 05:37
深度学习
|RCNN&Fast-RCNN
1.RCNN2014年提出R-CNN网络,该网络不再使用暴力穷举的方法,而是使用候选区域方法(regionproposalmethod)创建目标检测的区域来完成目标检测的任务,R-CNN是以深度神经网络为基础的目标检测的模型,以R-CNN为基点,后续的FastR-CNN、FasterR-CNN模型都延续了这种目标检测思路。1.1RCNN算法流程RCNN的流程如下图所示:步骤是:候选区域生成:使用选
AI小白龙*
·
2024-01-23 04:18
深度学习
人工智能
cnn
神经网络
pytorch
RCNN
Transformer
深度学习
模型
文章目录Transformer是一种
深度学习
模型,最初由Vaswani等人在2017年的论文《AttentionisAllYouNeed》中提出。
JNU freshman
·
2024-01-23 03:44
transformer
深度学习
transformer
人工智能
LLM自回归解码
在
自然语言处理
(NLP)中,大型语言模型(LLM)如Transformer进行推理时,自回归解码是一种生成文本的方式。在自回归解码中,模型在生成下一个单词时会依赖于它之前生成的单词。
eduics
·
2024-01-23 03:38
数据挖掘
人工智能
李沐
深度学习
-多层感知机从零开始
!!!梯度的产生是由于反向传播,在自定义从零开始编写代码时,第一次反向传播前应该对params参数的梯度进行判断importtorchimportnumpyasnpimporttorch.utils.dataasDataimporttorchvision.datasetsimporttorchvision.transformsastransformsimportsyssys.path.append
大小猫吃猫饼干
·
2024-01-23 02:16
李沐深度学习编码实现
深度学习
人工智能
LSTM解读
在
自然语言处理
、语音识别、图像处理等领域应用广泛。结构图如下:通过遗忘门、输
搬砖人NO17
·
2024-01-23 01:41
语音
神经网络共同学习
lstm
人工智能
rnn
【AI】
深度学习
在编码中的应用(11)
——隐式神经表示隐式神经表示(ImplicitNeuralRepresentations,INR)是近年来在
深度学习
和计算机视觉领域中涌现的一种技术。
giszz
·
2024-01-23 00:37
人工智能
人工智能
【AI】
深度学习
在编码中的应用(10)
目录先看2个定义:P帧和B帧基于层次学习的高效视频压缩技术基于B帧的B-EPIC方法今天来学习编码配置优化技术。先看2个定义:P帧和B帧在视频压缩中,P帧和B帧都是关键的概念,它们与I帧一起构成了视频压缩的三种基本帧类型。P帧,即预测帧,是通过充分降低图像序列中前面已编码帧的时间冗余信息来压缩传输数据量的编码图像。它采用运动补偿的方法传送它与前面的I帧或P帧之间的差值及运动矢量,解码时必须将这一差
giszz
·
2024-01-23 00:36
人工智能
人工智能
深度学习
【AI】
深度学习
在编码中的应用(4)
目录一、基于自编码器的架构二、基于可逆网络的架构三、基于GAN模型的架构四、多层结构图像压缩框架今天学习和梳理基础架构设计的4种模式:一、基于自编码器的架构在人工智能应用中,自编码器(Autoencoder,AE)是一种无监督的神经网络模型,用于学习输入数据的编码表示(即特征),并能够从这种编码表示中重构原始数据。自编码器通常用于数据降维、特征学习、去噪等任务。在基础架构设计中,基于自编码器的架构
giszz
·
2024-01-23 00:34
人工智能
人工智能
pytorch和pycharm的区别
PyTorch是一个
深度学习
框架,它主要用于
深度学习
模型的开发、训练和部署。它提供了很多用于
深度学习
的工具,例如自动求导、神经网络构建和训练等。
low sapkj
·
2024-01-23 00:02
pytorch
pycharm
python
深度学习
人工智能
深入浅出Pytorch(一)
Task01:Pytorch认知和安装python实现的
深度学习
的科学计算包,提供了一套
深度学习
框架。发展好,框架简洁,项目开源,上手快。
qq_42194332
·
2024-01-23 00:31
pytorch
python
深度学习
基于图神经网络与
深度学习
的商品推荐算法
传统做法现阶段局限创新方法结果相关工作目前推荐算法基于矩阵分解的推荐算法基于
深度学习
的推荐算法基于图神经网络的推荐算法创新点模型设计本文的核心任务是训练出一个模型LGDL模型框架嵌入层ID特征嵌入评论文本特征嵌入前向传播层关联关系提取偏好特征提取评分预测层模型优化传统做法利用
深度学习
方法从用户
谦谦菜鸟
·
2024-01-23 00:58
深度学习
机器学习
人工智能
深度学习
记录--指数加权平均
指数加权移动平均(exponentiallyweightedmovingaverages)如何对杂乱的数据进行拟合?通过指数加权平均可以把数据图近似拟合成一条曲线公式:其中表示第t个平均数,表示第t-1个平均数,表示第t个数据,表示变化参数下图为拟合结果()当参数变化时,拟合结果也会发生变化例子:时,近似取10个数据平均值(红色曲线)时,近似取50个数据平均值(绿色曲线)时,近似取2个数据平均值(
蹲家宅宅
·
2024-01-22 22:05
深度学习记录
深度学习
算法
人工智能
python有必要学数据结构么_学习算法必须要了解的数据结构
本文首发于公众号《
深度学习
与Python》,欢迎关注瑞士计算机科学家尼克劳斯沃斯于1976年写了一本书提出算法+数据结构=程序,40多年后,这个等式仍然成立。
h61102725
·
2024-01-22 22:32
python有必要学数据结构么
十分钟带你复现YOLOv8
YOLOv8是Ultralytics在2023年初推出的一个重大更新版本,建立在以前YOLO版本成功的基础上,基于
深度学习
和计算机视觉的前沿进展,采用最先进的SOTA模型,引入了
Hello阿尔法
·
2024-01-22 21:02
YOLO
YOLO
【算法小记】
深度学习
——循环神经网络相关原理与RNN、LSTM算法的使用
文中程序以Tensorflow-2.6.0为例部分概念包含笔者个人理解,如有遗漏或错误,欢迎评论或私信指正。卷积神经网络在图像领域取得了良好的效果,卷积核凭借优秀的特征提取能力通过深层的卷积操作可是实现对矩形张量的复杂计算处理。但是生活中除了图像这样天然以矩阵形式存储的数据以外,还有众多以时间轴方向的连续数据。例如传感器的采集的复合数据,某个事件的历史发展数据等。同时我们日常生活中无时无刻存在的自
絮沫
·
2024-01-22 20:24
深度学习
深度学习
rnn
算法
lstm
深度学习
笔记(九)——tf模型导出保存、模型加载、常用模型导出tflite、权重量化、模型部署
文中程序以Tensorflow-2.6.0为例部分概念包含笔者个人理解,如有遗漏或错误,欢迎评论或私信指正。本篇博客主要是工具性介绍,可能由于软件版本问题导致的部分内容无法使用。首先介绍tflite:TensorFlowLite是一组工具,可帮助开发者在移动设备、嵌入式设备和loT设备上运行模型,以便实现设备端机器学习。框架具有的主要特性:延时(数据无需往返服务器)隐私(没有任何个人数据离开设备)
絮沫
·
2024-01-22 20:20
深度学习
深度学习
笔记
人工智能
目标文献分析方法
发现问题选择方向调查研究分析论证确定选题中国知网
深度学习
+方向词1检索:
深度学习
医疗影像1发表时间要最新2显示50个,全选3导出文献格式Ref4导出,保存5利用citespace整理热门词,定研究问题4
小蒋的学习笔记
·
2024-01-22 20:03
论文阅读方法
深度学习
保留图片原画质图片无损放大
该功能利用了人工智能和
深度学习
技术,通过对大量图片的学习和分析,
yun132792
·
2024-01-22 20:54
视频
人工智能
音视频
使用Python对音频进行特征提取
在几年前写的使用Python对音频进行特征提取使用的是人为特征的方法进行特征提取的,近些年随着
深度学习
的普及,这里尝试使用
深度学习
方法进行特征提取。
bagell
·
2024-01-22 19:12
python
音视频
开发语言
selenium
excel
爬虫
程序员,想转型人工智能吗?先补补数学课吧!
人工智能很火,也很高端,
深度学习
、机器学习、视觉识别,听上去就很高大上。而且不仅仅是听上去高大上,现实当中确实也是实实在在的高大上。在互联网圈子里,有一句话流传甚广:得人工智能者得天下。
月落无敌
·
2024-01-22 18:46
【
深度学习
目标检测】十七、基于
深度学习
的洋葱检测系统-含GUI和源码(python,yolov8)
使用AI实现洋葱检测对农业具有以下意义:提高效率:AI技术可以快速、准确地检测出洋葱中的缺陷和问题,从而提高了检测效率,减少了人工检测的时间和人力成本。提高准确性:AI技术通过大量的数据学习和分析,能够更准确地识别出有缺陷的洋葱,降低了误判和漏检的可能性。提高农产品质量:通过AI技术对洋葱进行检测,可以及时发现并处理有缺陷的产品,从而提高了农产品的整体质量。提供决策支持:AI技术可以通过数据分析,
justld
·
2024-01-22 17:29
目标检测
深度学习
CNN
目标检测
YOLO
人工智能
【AI】
深度学习
在编码中的应用(5)
接上,我们今天来梳理和学习第2步,分析/合成变换的几种方式。一、基于RNN架构的方法基于RNN架构的方法定义:在分析/合成变换中,基于RNN(循环神经网络)架构的方法是指利用RNN模型来学习和表示输入数据(如序列数据)中的模式、结构和依赖关系,并根据这些学习到的特征来进行分析或合成新的数据。RNN具有循环连接的特性,能够处理变长输入和输出,并捕捉序列中的时序信息。特点:时序建模:RNN能够捕捉序列
giszz
·
2024-01-22 17:29
人工智能
人工智能
中文
自然语言处理
(NLP)的命名实体识别(NER)任务常见序列标注方法
中文NLP的NER任务中的数据集序列标注方法,主要有以下几种常用的标注方案:BIO标注法(Begin-Inside-Outside):B(Begin)表示实体的开始部分。I(Inside)表示实体的中间部分。O(Outside)表示非实体部分。例如,“北京是中国的首都”,如果要标注“北京”为地名,会标为“B-地名I-地名OOOOO”。BIOES标注法(Begin-Inside-Outside-En
sagima_sdu
·
2024-01-22 16:47
自然语言处理
人工智能
NLP NER 任务中的精确度(Precision)、召回率(Recall)和F1值
在
自然语言处理
(NLP)中的命名实体识别(NER)任务中,精确度(Precision)、召回率(Recall)和F1值是评估模型性能的关键指标。
sagima_sdu
·
2024-01-22 16:16
自然语言处理
人工智能
IDCNN(迭代扩张卷积神经网络)在NLP-NER任务中的应用
IDCNN(迭代扩张卷积神经网络)在NLP-NER任务中的应用IDCNN(IteratedDilatedConvolutionalNeuralNetwork)是一种特别设计的卷积神经网络(CNN),用于处理
自然语言处理
sagima_sdu
·
2024-01-22 16:16
cnn
自然语言处理
人工智能
“
深度学习
”之感
第一次听到“
深度学习
”这个问题,我全蒙了,想着学习还要
深度学习
,什么是
深度学习
,怎么
深度学习
呢?图片发自App听了贾老师的课,才知道什么是“
深度学习
”,让我受益匪浅。
陇西060张艳
·
2024-01-22 15:40
PyTorch
深度学习
实战(31)——生成对抗网络(Generative Adversarial Network, GAN)
PyTorch
深度学习
实战(31)——生成对抗网络0.前言1.GAN2.GAN模型分析3.利用GAN模型生成手写数字小结系列链接0.前言生成对抗网络(GenerativeAdversarialNetworks
盼小辉丶
·
2024-01-22 15:46
深度学习
pytorch
生成对抗网络
ChatGPT与文心一言:谁更胜一筹?
ChatGPT基于GPT-3.5模型,具备较强的
自然语言处理
能力,能够理解复杂语境,
能力工场小马哥
·
2024-01-22 15:48
AI
人工智能
chatgpt
文心一言
人工智能
CVPR 2023: Analyzing and Diagnosing Pose Estimation With Attributions
例如,使用
深度学习
网络直接回归关键点坐标或生成突出显示可能的关节位置的热图的研究。可解释性方法:这个领域专注于理解姿态估计模型如何做出决策。
结构化文摘
·
2024-01-22 14:00
人工智能
机器学习
深度学习
【AI】
深度学习
在编码中的应用(6)
目录一、熵模型和自适应熵编码1.1区别1.2联系二、关于自适应熵模型前面我们讨论了基础架构设计、分析合成变换,本文来梳理和学习编码的第三步,自适应熵模型。一、熵模型和自适应熵编码自适应熵模型和熵编码在概念和应用上有一些区别,同时也存在一定的联系。1.1区别——定义与目标自适应熵模型:是一种能够根据输入数据的特性自动调整其内部参数以优化信息表示和处理的模型。它的目标是实现数据的高效表示和处理,例如通
giszz
·
2024-01-22 13:02
人工智能
人工智能
深度学习
【AI】
深度学习
在编码中的应用(8)
接上文,本文来梳理和学习智能编码中,基于残差编码的框架。智能图像编解码器的成功也推动了智能视频编解码器的发展。传统的视频压缩方法依靠预测编码对运动信息和残差信息分别进行编码。根据时-空域冗余消除方式和阶段不同,现有相关方法可分为基于残差编码的框架、基于条件编码的框架、基于3D自编码器的框架和其他架构。基于残差编码的框架,首先基于已解码参考帧,生成当前待编码帧的运动信息,然后生成运动补偿预测帧,最后
giszz
·
2024-01-22 13:02
人工智能
人工智能
深度学习
【AI】
深度学习
在编码中的应用(9)
接上,本文来讨论基于条件熵编码的框架。智能图像压缩中的基于条件熵编码的框架是一种先进的编码技术,它利用图像数据的统计特性来实现高效的压缩。以下是关于该框架的定义、原理、优势和劣势,以及关键技术的详细解释,同时包括框架中的主要组成部分及其阐述。定义基于条件熵编码的框架是一种图像压缩方法,它通过分析图像数据的条件概率分布来编码像素或特征,从而达到减少数据存储量的目的。条件熵是衡量在已知某些条件下,随机
giszz
·
2024-01-22 13:02
人工智能
人工智能
深度学习
【AI】
深度学习
在编码中的应用(7)
目录一、损失函数在图像压缩中的应用二、损失函数的常见指标2.1感知指标2.2经典失真指标本文来梳理和学习人工智能编码的第4个环节损失函数设计。一、损失函数在图像压缩中的应用损失函数用于指导图像压缩算法的优化过程。在设计图像压缩系统时,常用的损失函数包括重构损失(reconstructionloss)和感知损失(perceptualloss)。重构损失:衡量压缩后图像与原始图像之间的差异,通常使用像
giszz
·
2024-01-22 13:01
人工智能
人工智能
深度学习
WorkPlus AI助理私有化部署,助力企业降本增效
通过
深度学习
和
自然语言处理
技术,WorkPlusA
恒拓高科WorkPlus
·
2024-01-22 12:00
人工智能
让OpenAI GPT3替我写数据竞赛代码!
他们开发的ChatGPT是一个最先进的
自然语言处理
模型,可以实时生成类似人类的文本。ChatGPT是从GPT-3.5系列中的一个模型进行微调的,该模型于2022年
AI Studio
·
2024-01-22 12:25
人工智能
gpt-3
人工智能
机器学习
9 | Tensorflow中的batch批处理
在
深度学习
中,批处理通常用于提高训练的效率和稳定性。在TensorFlow中,可以使用tf.data.DatasetAPI来设置和处理批处理数据。
RunsenLIu
·
2024-01-22 12:19
(1-6)深度学习系列
tensorflow
batch
人工智能
ChatGPT 和文心一言哪个更好用?
这些模型通过大规模的数据预训练和
深度学习
算法的优化,不断提升其语言理解和生成能力。首先,这些模型在智能回复方面有了显著的进步。它们能够理解用户的问题和意图,快速生成连贯、自然的回答。
和Ye哥学架构
·
2024-01-22 12:21
chatgpt
文心一言
人工智能
动手做个无人机—材料篇
因为该款无人机需要基于
深度学习
的目标检测,需要较高的算力,而以树莓派4为例,它配备了博通BCM2711So
笑傲江湖2023
·
2024-01-22 11:21
无人机
上一页
51
52
53
54
55
56
57
58
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他