E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习transformer
深度学习
之线性代数
深度学习
之线性代数标量如果你从来没有学过线性代数或机器学习,那么你过去的数学经历可能是一次只想一个数字。
ousinka
·
2025-02-02 06:21
DJL
d2lcoder
Java开发者动手学习深度学习
深度学习
java
机器学习
一、
深度学习
与线性代数
一、
深度学习
与线性代数在计算机的内存或硬盘中,数据通常是以字符集编码成0和1的形式进行存储的,读取时再以相同字符集进行解码进行显示的。然而在
深度学习
中,数据在内存或显存中的表示都是以向量的形式表示的。
新禾
·
2025-02-02 06:20
深度学习
线性代数
深度学习
线性代数
人工智能
深度学习
——线性代数
文章目录1.基本数学概念2.线性相关和生成子空间3.范式4.特殊类型的矩阵和向量5.特征分解6.奇异值分解1.基本数学概念标量(scalar):一个标量就是一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。我们用斜体表示标量。标量通常被赋予小写的变量名称。当我们介绍标量时,会明确它们是哪种类型的数。比如,在定义实数标量时,我们可能会说“令s∈R表示一条线的斜率”;在定义自
取个名字真难啊啊
·
2025-02-02 06:19
深度学习
深度学习
线性代数
深度学习
的应用场景及常用技术
深度学习
作为机器学习的一个重要分支,在众多领域都有广泛的应用,以下是一些主要的应用场景及常用技术。1.应用场景1.计算机视觉图像分类描述:对图像中的内容进行分类,识别出图像中物体所属的类别。
eso1983
·
2025-02-02 06:19
深度学习
深度学习
-图像数据标注工具使用(LabelImg和BBox)
文章与视频资源多平台更新微信公众号|知乎|B站|头条:AI研习图书馆
深度学习
、大数据、IT编程知识与资源分享,欢迎关注,共同进步~图像数据标注工具的使用教程1.LabelImgLabelImg下载地址:
AI研习图书馆
·
2025-02-02 03:35
方法教程
LabelImg
BBox
图像标注工具
GPU架构(1.2)--GPU SoC 中的 CPU 架构
ARMCortex-A72ARMCortex-A762.多线程处理多核架构多线程支持3.任务调度任务调度器动态调度4.内存管理内存层次结构内存管理技术5.接口和通信总线接口I/O接口6.功耗和热管理功耗优化热管理7.应用实例边缘计算图形处理
深度学习
结语详细介绍
小蘑菇二号
·
2025-02-02 02:58
手把手教你学
GPU
SoC
芯片
智能电视
大语言模型丨ChatGPT-4o深度科研应用、论文与项目撰写、数据分析、机器学习、
深度学习
及AI绘图(BP神经网络、支持向量机、决策树、随机森林、变量降维与特征选择、群优化算法等)
目录第一章、2024大语言模型最新进展与ChatGPT各模型第二章、ChatGPT-4o提示词使用方法与高级技巧(最新加入思维链及逆向工程及GPTs)第三章、ChatGPT4-4o助力日常生活、学习与工作第四章、基于ChatGPT-4o课题申报、论文选题及实验方案设计第五章、基于ChatGPT-4o信息检索、总结分析、论文写作与投稿、专利idea构思与交底书的撰写第六章、ChatGPT-4o编程入
赵钰老师
·
2025-02-02 01:50
ChatGPT
python
人工智能
语言模型
深度学习
数据分析
chatgpt
机器学习
随机森林
【python】在【机器学习】与【数据挖掘】中的应用:从基础到【AI大模型】
在数据挖掘中的应用1.1数据预处理数据清洗数据变换数据归一化高级预处理技术1.2特征工程特征选择特征提取特征构造二、Python在机器学习中的应用2.1监督学习分类回归2.2非监督学习聚类降维三、Python在
深度学习
中的应用
小李很执着
·
2025-02-01 23:43
杂乱无章
机器学习
数据挖掘
python
人工智能
语言模型
Unet 改进:在encoder和decoder间加入
Transformer
Block
目录1.
Transformer
Block2.Unet改进3.完整代码Tips:融入模块后的网络经过测试,可以直接使用,设置好输入和输出的图片维度即可1.
Transformer
Block
Transformer
Block
听风吹等浪起
·
2025-02-01 23:11
AI
改进系列
transformer
图像分割
Unet
MixRec: Heterogeneous Graph Collaborative Filtering
本文是
深度学习
相关文章,针对《MixRec:HeterogeneousGraphCollaborativeFiltering》的翻译。
UnknownBody
·
2025-02-01 22:04
Recommendation
人工智能
深度学习
论文: Cultivated Land Extraction from High-Resolution Remote Sensing Image
深度学习
论文:CultivatedLandExtractionfromHigh-ResolutionRemoteSensingImageTheWinningSolutiontotheiFLYTEKChallenge2021CultivatedLandExtractionfromHigh-ResolutionRemoteSensingImagePDF
mingo_敏
·
2025-02-01 20:20
Paper
Reading
Deep
Learning
Instance
Segmentation
python
人工智能
机器学习
大模型开发流程及项目实战
开发大模型相关应用,其技术核心点虽然在大语言模型上,但一般通过调用API或开源模型来实现核心的理解与生成,通过PromptEnginnering来实现大语言模型的控制,因此,虽然大模型是
深度学习
领域的集大成之作
辣椒种子
·
2025-02-01 19:38
机器学习
人工智能
自然语言处理基础知识入门(四)
Transformer
模型整体最详解(self- attention机制,mask机制)
文章目录前言一、Seq2Seq1.1Seq2Seq的基本架构1.2Seq2Seq的框架实例二、
Transformer
2.1
Transformer
的整体架构2.2
Transformer
的输入2.2.1InputEmbeding2.2.2PositionalEncoder2.2.3
Transformer
这个男人是小帅
·
2025-02-01 18:33
NLP自然语言知识梳理入门
自然语言处理
transformer
人工智能
nlp
语言模型
机器翻译
深度学习
Meta首席科学家Yann LeCun预言:5年内AI架构将颠覆,当前大模型的4大核心缺陷
这位
深度学习
先驱的论断,不仅直指ChatGPT等明星产品的技术天花板,更揭示了下一代AI进化的核心路径——构建理解物理世界的“世界模型”(WorldModel)。作为Meta人工智能实验室负责人,
机器小乙
·
2025-02-01 18:30
人工智能
【小白学AI系列】NLP 核心知识点(五)
Transformer
介绍
Transformer
Transformer
是一种基于自注意力机制(Self-AttentionMechanism)的
深度学习
模型,首次由Vaswani等人于2017年在论文《AttentionisAllYouNeed
Blankspace空白
·
2025-02-01 18:58
人工智能
自然语言处理
transformer
Day31-【AI思考】-
深度学习
方法论全解析——科学提升学习效率的终极指南
文章目录
深度学习
方法论全解析——科学提升学习效率的终极指南**一、影子跟读法(Shadowing)——听力突破核武器****二、番茄工作法(Pomodoro)——时间管理手术刀****三、费曼技巧(FeynmanTechnique
一个一定要撑住的学习者
·
2025-02-01 16:42
#
AI深度思考学习方法
人工智能
pytorch基于
Transformer
预训练模型的方法实现词嵌入(tiansz/bert-base-chinese)
以下是一个完整的词嵌入(WordEmbedding)示例代码,使用modelscope下载tiansz/bert-base-chinese模型,并通过
transformer
s加载模型,获取中文句子的词嵌入
纠结哥_Shrek
·
2025-02-01 15:05
pytorch
transformer
bert
PyTorch中的unsqueeze函数(自用)
前言最近在学习swin_
transformer
的模型搭建,其中用到了广播机制,在理解广播机制的过程中发现自己对torch.unsqueeze()函数比较困惑,所以做了个小实验帮助自己理解。
黯岚岚岚岚岚
·
2025-02-01 15:58
pytorch
pytorch
python
经验分享
图像超分,提高图像分辨率的方法和工具
图像超分技术可以通过多种方法实现,包括插值算法、
深度学习
等。其中,
深度学习
的方法在近年来得到了广泛的关注和应用。
风暴之零
·
2025-02-01 14:52
python
图像处理
深度学习
深度学习
-笔记1
刚开始接触
深度学习
相关内容,在这儿做一个笔记:网址:https://gitee.com/paddlepaddle/PaddleNLPpaddle-nlp是一个自然语言处理NLP方面的工具包(代码库)ERNIEERNIE
·
2025-02-01 12:15
深度学习神经网络
深度学习
之核函数
深度学习
之核函数在机器学习中,常看到多项式核函数、高斯核函数,那什么叫核函数(KernelFunction,或者KernelTrick)呢?它有什么用呢。
fpcc
·
2025-02-01 12:38
AI及算法
ai
深度学习
模型在汽车自动驾驶领域的应用
汽车自动驾驶是一个高度复杂的系统,
深度学习
和计算技术在其中扮演核心角色。今天简单介绍一下自动驾驶领域常用的
深度学习
模型及其计算原理的解析。
eso1983
·
2025-02-01 12:37
深度学习
汽车
自动驾驶
跨平台物联网漏洞挖掘算法评估框架设计与实现申报书上
比较跨架构解决方案和各架构最优方法组合解决方案在函数识别、漏洞挖掘上的优劣性一、项目技术路线(1)构建统一规范全面的多架构物联网设备二进制程序数据集(2)针对跨架构下的二进制程序,利用逆向工具提取为图、抽象语法树等中间语言,对于不同中间语言,选择合适的
深度学习
方法提取出中间语言数据结构的特征
XLYcmy
·
2025-02-01 12:37
漏洞挖掘
网络安全
漏洞挖掘
物联网
项目申报
跨架构
静态分析
固件
基于Pyhton的人脸识别(Python 3.12+face_recognition库)
face_recognition库是一个强大的工具,它基于dlib的
深度学习
模型,可以轻松实现人脸检测和识别功能。本教程适合初学者,我们将通过一个简单的项目来了解这个库的基本用法和环境配置。
F2022697486
·
2025-02-01 10:52
python
人工智能
开发语言
DeepSeek大模型技术深度解析:揭开
Transformer
架构的神秘面纱
摘要DeepSeek大模型由北京深度求索人工智能基础技术研究有限公司开发,基于
Transformer
架构,具备卓越的自然语言理解和生成能力。
不一样的信息安全
·
2025-02-01 08:07
网络杂烩
AI
DeepSeek
LLM主要类别架构
LLM主要类别架构介绍LLM主要类别LLM本身基于
transformer
架构。
大模型微调实战
·
2025-02-01 08:36
人工智能
langchain
自然语言处理
神经网络
深度学习
《DeepSeek-R1 问世,智能搜索领域迎来新变革》
DeepSeek-R1的核心特点强大的语言理解能力:DeepSeek-R1采用先进的
深度学习
算法,能够精准解析复杂的语义结构
黑金IT
·
2025-02-01 08:35
智能搜索
AI绘画关键词(咒语)分析与热点研究
语义文本图像生成技术关键词分析与热点研究一、研究背景与研究意义随着
深度学习
的发展,语义文本到图像的生成技术已经取得长足进步,AI绘画也因此快速崛起。
集eee
·
2025-02-01 08:04
AI作画
midjourney
chatgpt
人工智能
prompt
text2img
stable
diffusion
基于
深度学习
的大规模模型训练
基于
深度学习
的大规模模型训练涉及训练具有数百万甚至数十亿参数的深度神经网络,以处理复杂的任务,如自然语言处理、计算机视觉和语音识别。
SEU-WYL
·
2025-02-01 07:56
深度学习dnn
深度学习
人工智能
dnn
【Python TensorFlow】入门到精通
TensorFlow是一个开源的机器学习框架,由Google开发,广泛应用于机器学习和
深度学习
领域。
极客代码
·
2025-02-01 06:49
玩转Python
python
tensorflow
开发语言
人工智能
深度学习
【学习心得】Python好库推荐——PEFT
PEFT(Parameter-EfficientFine-Tuning)是一种在
深度学习
中进行参数高效微调的技术。
小oo呆
·
2025-02-01 06:48
【学习心得】
人工智能
python
语言模型
深度学习
训练模型损失Loss为NaN或者无穷大(INF)原因及解决办法
文章目录一、可能原因==1.学习率过高====2.batchsize过大==3.梯度爆炸4.损失函数不稳定5.数据预处理问题6.数据标签与输入不匹配7.模型初始化问题8.优化器设置问题9.数值问题==10.模型结构设计缺陷==二、调试步骤三、常见预防措施一、可能原因1.学习率过高原因:学习率过高可能导致梯度爆炸,权重更新幅度过大,导致模型参数变为无穷大或NaN。学习率设置过大是常见问题,它会让参数
余弦的倒数
·
2025-02-01 05:17
学习笔记
机器学习
深度学习
pytorch
深度学习
人工智能
机器学习
深度解读大语言模型中的
Transformer
架构
一、
Transformer
的诞生背景传统的循环神经网络(RNN)和长短期记忆网络(LSTM)在处理自然语言时存在诸多局限性。RNN由于其递归的结构,在处理长序列时容易出现梯度消失和梯度爆炸的问题。
老三不说话、
·
2025-02-01 05:16
transformer
通过命令行工作流提升工作效率的实战教程(持续更新)
对机器学习和
深度学习
拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。
herosunly
·
2025-02-01 05:37
大模型
工作流
实战教程
第03课:Anaconda 与 Jupyter Notebook
本文将为大家介绍
深度学习
实战非常重要的两个工具:Anaconda和JupyterNotebook。Anaconda为什么选择Anaconda我们知道Python是人工智能的首选语言。
红色石头Will
·
2025-02-01 04:34
深度学习
PyTorch
极简入门
人工智能
深度学习
PyTorch
深度学习
(DL/ML)学习路径
其中以机器学习技术中
深度学习
最受瞩目。主要原因是这些技术在科研领域和工业界的应用效果非常好,大幅提升了算法效率、降低了成本。因而市场对相关技术有了如此大的需求。
jackl的科研日常
·
2025-02-01 04:00
深度学习
学习
人工智能
Transformer
模型结构分析:Encoder、Decoder以及注意力机制详解
作者:禅与计算机程序设计艺术1.简介
Transformer
模型由论文[1]提出,其基本思想是使用注意力机制代替循环神经网络(RNN)或卷积神经网络(CNN),是一种基于序列到序列(Seq2seq)的机器翻译
AI天才研究院
·
2025-02-01 04:59
Python实战
大数据AI人工智能
自然语言处理
人工智能
语言模型
编程实践
开发语言
架构设计
基于
深度学习
的行人检测与识别系统:YOLOv5、YOLOv8、YOLOv10与UI界面的实现
近年来,
深度学习
的进步,尤其是目标检测领域的快速发展,为行人检测提供了强有力的支持。YOLO(YouOnlyLookOnce)系列模型,作为目前目标检测领域
2025年数学建模美赛
·
2025-02-01 03:25
深度学习
YOLO
ui
人工智能
分类
基于
深度学习
的行人检测识别系统:YOLOv8 + UI界面 + 数据集完整实现
随着
深度学习
技术的迅猛发展,基于卷积神经网络(CNN)的方法,尤其是YOLO(YouOnlyLookOnce)系列算法,在行人检测中取得了显著的效果。
2025年数学建模美赛
·
2025-02-01 03:55
深度学习
YOLO
ui
人工智能
分类
Transformer
模型解码器部分实现
说明:部分内容来自于网络教程,如有侵权请联系本人删除教程链接:2.4.2解码器-part2_哔哩哔哩_bilibili1.解码器层的作用作为解码器的组成单元,每个解码器层根据给定的输入向目标方向进行特征提取操作,即解码过程。代码实现:classDecoderLayer(nn.Module):def__init__(self,size,self_attn,src_attn,feed_forward,
APPLECHARLOTTE
·
2025-02-01 03:24
#
Transfomer模型
transformer
深度学习
人工智能
(3-5)文生图模型架构:扩散模型
3.5扩散模型扩散模型(DiffusionModels)是一类用于生成图像的
深度学习
模型,近年来在图像生成任务中取得了显著的进展。
码农三叔
·
2025-02-01 01:08
训练
RAG
多模态)
人工智能
python
深度学习
大模型
文生图
多模态
毕业设计项目
深度学习
人体目标检测
1简介今天学长向大家介绍一个机器视觉的毕设项目,基于
深度学习
的人体目标检测算法研究与实现项目运行效果:毕业设计
深度学习
行人目标检测系统项目分享:见文末!
bee_dc
·
2025-01-31 23:26
毕业设计
毕设
大数据
【人工智能】基于Python的机器翻译系统,从RNN到
Transformer
的演进与实现
在本篇文章中,我们将详细探讨如何使用Python实现从传统的循环神经网络(RNN)到现代
Transformer
模型的机器翻译系统。文章将从机
蒙娜丽宁
·
2025-01-31 23:24
Python杂谈
人工智能
人工智能
python
机器翻译
【TVM教程】为 Mobile GPU 自动调优卷积网络
ApacheTVM是一个深度的
深度学习
编译框架,适用于CPU、GPU和各种机器学习加速芯片。
HyperAI超神经
·
2025-01-31 22:43
TVM
人工智能
机器学习
TVM
编程
编译器
GPU
CPU
深度学习
篇---数据存储类型
文章目录前言第一部分:C语言中的数据存储类型1.char(通常是8位)优点缺点2.short(通常是16位)优点缺点3.int(通常是32位)优点缺点4.long(通常是32位或64位)优点缺点5.longlong(通常是64位)优点缺点6.float(通常是32位)优点缺点7.double(通常是64位)优点缺点第二部分:Python中的数据存储类型1.int(整数类型)优点缺点2.float(
Ronin-Lotus
·
2025-01-31 21:42
深度学习篇
深度学习
人工智能
学习
笔记
C
Python
数据类型
深度学习
篇---
深度学习
框架
文章目录前言第一部分:框架简介1.PyTorch简介特点动态计算图易于上手强大的社区支持与Python的集成度高核心组件2.TensorFlow简介特点静态计算图跨平台强大的生态系统Keras集成核心组件3.PaddlePaddle简介特点易于使用高性能工业级应用丰富的预训练模型核心组件第二部分:基本操作PyTorch基本操作TensorFlow基本操作PaddlePaddle基本操作总结前言以上
Ronin-Lotus
·
2025-01-31 21:05
深度学习篇
深度学习
人工智能
python
Pytorch
TensorFlow
paddlepaddle
具身智能VLA(视觉-语言-动作)入门+RTX4060+Ubuntu22.04
第一个阶段:学习
transformer
和大模型:我喜欢刷微信的短视频,看到了入门的课程:GitHub-rasbt/LLMs-from-scra
铮铭
·
2025-01-31 19:51
transformer
pytorch
深度学习
linux
python
VLA
NLP模型大对比:
Transformer
>Seq2Seq > LSTM > RNN > n-gram
结论
Transformer
大于传统的Seq2Seq大于LSTM大于RNN大于传统的n-gramn-gramVS
Transformer
我们可以用一个图书馆查询的类比来解释它们的差异:一、核心差异对比维度n-gram
feifeikon
·
2025-01-31 19:14
自然语言处理
transformer
bert
讯飞绘镜(ai生成视频)技术浅析(三):自然语言处理(NLP)
每个模块都依赖于先进的
深度学习
模型和算法,以下将逐一详细讲解。2.语义分析语义分析的目标是从用户输入的文本中提取
爱研究的小牛
·
2025-01-31 14:43
AIGC—视频
AIGC—自然语言处理
自然语言处理
人工智能
自然语言处理
AIGC
深度学习
讯飞智作 AI 配音技术浅析(一)
其核心技术主要涵盖以下几个方面:1.
深度学习
与神经网络讯飞智作AI配音技术以
深度学习
为核心驱动力,通过以下关键模型实现语音合成:Tacotron模型:该模型采用端到端的编码器-解码器架构,将输入文本直接转换为梅尔频谱
爱研究的小牛
·
2025-01-31 14:42
AIGC—技术综述
AIGC—概述
AIGC—音频
人工智能
AIGC
机器学习
深度学习
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他