E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jbpm4.4学习入门
强化
学习入门
到不想放弃-1
本来想写到深度学习里的,但是线下和别人聊RLHF,和PPO,DPO的时候,我发现大家一脑袋问号,其实也正常,深度学习里面数学的东西没那么多,入门容易一点,强化学习(现在也都谈强化深度学习,或者深度强化学习了)反而没那么要算力,要一堆算法和数学,所以就单开一个系列,专门写强化学习吧其实强化学习,某种程度上比深度学习更早的走进大家的视野,没错,就是那个把李昌镐,柯洁给打败的Alpha第一课我们先讲点基
周博洋K
·
2024-02-20 06:29
人工智能
强化
学习入门
到不想放弃-2
第一篇链接:强化
学习入门
到不想放弃-1(qq.com)上节课我们用CMU的经典问题,多臂老虎机讨论了,无状态物体的探索和利用,这节课我们用走格子来做一下动态规划算法上节课的问题,我们完全不知道这些老虎机的中奖概率
周博洋K
·
2024-02-20 06:59
人工智能
机器
学习入门
--LSTM原理与实践
LSTM模型长短期记忆网络(LongShort-TermMemory,LSTM)是一种常用的循环神经网络(RNN)变体,特别擅长处理长序列数据和捕捉长期依赖关系。本文将介绍LSTM模型的数学原理、代码实现和实验结果,并使用pytorch和sklearn的数据集进行验证。数学原理遗忘门(ForgetGate)遗忘门的作用是决定前一时间步的细胞状态中哪些信息需要被遗忘。具体计算公式为:ft=σ(Wf⋅
Dr.Cup
·
2024-02-20 05:14
机器学习入门
机器学习
lstm
人工智能
机器
学习入门
--双向长短期记忆神经网络(BiLSTM)原理与实践
双向长短记忆网络(BiLSTM)BiLSTM(双向长短时记忆网络)是一种特殊的循环神经网络(RNN),它能够处理序列数据并保持长期记忆。与传统的RNN模型不同的是,BiLSTM同时考虑了过去和未来的信息,使得模型能够更好地捕捉序列数据中的上下文关系。在本文中,我们将详细介绍BiLSTM的数学原理、代码实现以及应用场景。数学原理LSTM(长短期记忆网络)是一种递归神经网络(RNN),通过引入门控机制
Dr.Cup
·
2024-02-20 05:14
机器学习入门
机器学习
神经网络
lstm
机器
学习入门
--循环神经网络原理与实践
循环神经网络循环神经网络(RNN)是一种在序列数据上表现出色的人工神经网络。相比于传统前馈神经网络,RNN更加适合处理时间序列数据,如音频信号、自然语言和股票价格等。本文将介绍RNN的基本数学原理、使用PyTorch和Scikit-Learn数据集实现的代码。数学原理RNN是一种带有循环结构的神经网络,其在处理序列数据时将前一次的输出作为当前输入的一部分。这使得RNN能够记住先前的状态和信息,并且
Dr.Cup
·
2024-02-20 05:44
机器学习入门
机器学习
rnn
深度学习
机器
学习入门
--门控循环单元(GRU)原理与实践
GRU模型随着深度学习领域的快速发展,循环神经网络(RNN)已成为自然语言处理(NLP)等领域中常用的模型之一。但是,在RNN中,如果时间步数较大,会导致梯度消失或爆炸的问题,这影响了模型的训练效果。为了解决这个问题,研究人员提出了新的模型,其中GRU是其中的一种。本文将介绍GRU的数学原理、代码实现,并通过pytorch和sklearn的数据集进行试验,最后对该模型进行总结。数学原理GRU是一种
Dr.Cup
·
2024-02-20 05:43
机器学习入门
机器学习
gru
人工智能
强化
学习入门
:使用Python和Q-learning算法解决迷宫问题
文章标题:强化
学习入门
:使用Python和Q-learning算法解决迷宫问题简介强化学习是机器学习中的一个重要分支,它致力于研究智能体在与环境交互的过程中如何学习最优的行为策略。
Evaporator Core
·
2024-02-19 19:01
python
人生效率手册金句摘抄
每次都是被短暂
学习入门
的快感打动。等到深入学习的时候,开始爬坡了,就只是拿打卡当做一项机械任务了。今天,被一位来求职的年轻人问自己的目标和职业规划。
小多媛媛
·
2024-02-14 15:05
第一章 matlab
学习入门
之matlab基础
matlab系列文章目录第一章matlab
学习入门
之matlab基础在这一章会学习到:数据类型(数值,字符串,结构,单元数组,函数句柄,映射容器)运算符与运算(算术运算符,关系运算符,逻辑运算符)字符串处理
CN-JackZhang
·
2024-02-14 15:49
matplotlib
matlab
学习
开发语言
图像分割——基于pytorch的牙齿分割
作为视觉基础任务的图像分割是大多数深度
学习入门
者的进一步学习,本文将用牙齿分割作为数据集,分享一下图像分割的训练内容。
苏俗
·
2024-02-14 04:35
计算机视觉实战
pytorch
人工智能
python
图像分类——基于pytorch的农作物病虫害检测
作为视觉基础任务的图像分类是大多数深度
学习入门
者的基础,本文将用包含33类的农作物病虫害数据集作为数据集,来过一遍图像分类任务的基本步骤。
苏俗
·
2024-02-14 04:05
计算机视觉实战
分类
pytorch
数据挖掘
机器
学习入门
--多层感知机原理与实践
神经网络与多层感知机神经网络是一种模仿生物神经系统结构和功能的计算模型。它由许多个节点(或称为神经元)组成,这些节点通过连接权重相互连接。神经网络的输入经过一系列的加权求和和激活函数变换后,得到输出结果。神经网络的训练过程主要包括前向传播和反向传播两个阶段。前向传播是指数据从输入层逐层传递到输出层的过程,每一层的节点都会根据输入值和连接权重计算输出值。反向传播是指通过计算损失函数对网络参数进行梯度
Dr.Cup
·
2024-02-13 13:37
机器学习入门
机器学习
人工智能
机器
学习入门
--BP神经网络原理与实践
BP神经网络引言BP神经网络,即反向传播神经网络,是一种监督学习算法,用于多层前馈神经网络的训练。自从1986年由Rumelhart,Hinton和Williams提出以来,它已成为最流行的神经网络训练算法之一。BP算法的核心思想是通过计算损失函数相对于网络参数的梯度,然后利用这些梯度信息来更新网络的权重和偏置,从而最小化误差。数学原理BP算法的数学原理基于链式法则计算梯度。考虑一个简单的两层神经
Dr.Cup
·
2024-02-13 13:37
机器学习入门
机器学习
神经网络
人工智能
机器
学习入门
--朴素贝叶斯原理与实践
朴素贝叶斯算法朴素贝叶斯是一种常用的分类算法,其基本思想是根据已有数据的特征和标签,学习出一个概率模型,并利用该模型对新样本进行分类。其优点在于简单快速、易于实现和解释,缺点在于对输入数据的分布做了严格的假设。具体来说,朴素贝叶斯分类器首先根据训练数据计算出每个类别的先验概率P©,即样本中每个类别占比。然后,对于给定的待分类样本,计算出它属于每个类别的条件概率P(X|C),其中X表示样本的特征向量
Dr.Cup
·
2024-02-13 13:07
机器学习入门
机器学习
概率论
人工智能
机器
学习入门
--奇异值分解原理与实践
奇异值分解奇异值分解(SingularValueDecomposition,SVD)是一种矩阵分解技术,可以将一个矩阵分解为三个部分的乘积。在SVD中,原始矩阵被分解为左奇异向量矩阵、奇异值矩阵和右奇异向量矩阵的乘积。奇异值分解数学原理奇异值分解是一种矩阵分解技术,可以将一个矩阵分解为三个部分的乘积。在SVD中,原始矩阵被分解为左奇异向量矩阵、奇异值矩阵和右奇异向量矩阵的乘积。具体来说,对于一个m
Dr.Cup
·
2024-02-13 13:07
机器学习入门
机器学习
人工智能
机器
学习入门
--主成分分析原理与实践
主成分分析主成分分析(PrincipalComponentAnalysis,简称PCA)是一种常用的降维技术和数据分析方法。它通过线性变换将原始高维数据映射到低维空间,从而提取出数据中最重要的特征。主成分分析的基本原理与数学推导基本原理PCA的主要思想是找到一个新的坐标系,将数据投影到这个坐标系上,使得投影后的数据具有最大的方差。这意味着在新的坐标系下,数据的信息尽可能地集中在少数几个维度上,而其
Dr.Cup
·
2024-02-13 13:06
机器学习入门
机器学习
概率论
人工智能
机器
学习入门
--逻辑回归与简单二分类数据实战
逻辑回归在机器学习领域,逻辑回归是一个广泛应用于分类问题的算法。与线性回归不同,逻辑回归用于预测离散的类别标签,可以处理二分类和多分类问题。下面我们将介绍逻辑回归的基本原理和实现方式。原理逻辑回归的目标是找到一个函数g(z)g(z)g(z),将输入的特征向量xxx映射到概率值p(y=1∣x;w)p(y=1|x;w)p(y=1∣x;w),其中www是参数向量。我们可以使用sigmoid函数来实现这个
Dr.Cup
·
2024-02-13 13:36
机器学习入门
机器学习
逻辑回归
分类
机器
学习入门
--支持向量机原理与实践
支持向量机模型支持向量机(SupportVectorMachine,SVM)是一种常用的监督学习算法,主要用于分类和回归问题。它的原理简单而强大,在许多实际应用中取得了很好的效果。原理支持向量机(SupportVectorMachine,SVM)是一种常用的机器学习算法,用于分类和回归问题。其原理是基于统计学习理论中的结构风险最小化原则。SVM的主要思想是将数据通过一个高维特征空间进行映射,使得在
Dr.Cup
·
2024-02-13 13:36
机器学习入门
支持向量机
机器学习
算法
机器
学习入门
--简单卷积神经网络原理与实践
深入理解卷积神经网络(CNN)引言卷积神经网络(ConvolutionalNeuralNetworks,CNN)是深度学习中的一种核心算法,广泛应用于图像识别、视频分析和自然语言处理等领域。CNN通过模拟人类视觉系统的工作原理,能够自动并有效地识别图像中的模式和特征。数学原理CNN主要由卷积层、激活层和池化层组成。其核心在于卷积层,它使用一系列可学习的滤波器来扫描输入数据。卷积操作卷积神经网络(C
Dr.Cup
·
2024-02-13 13:06
机器学习入门
机器学习
cnn
人工智能
Day 7 七天总结
觉得自己三周前就像个傻子,跟教练们说的如果不会觉得自己之前傻就不进步了,所以感觉到自己之前的愚蠢是高质量
学习入门
的标志。接下来复盘了大家总结的学员分享和教练赋能。
素馨花开
·
2024-02-13 11:08
机器
学习入门
之基础概念及线性回归
任务目录什么是Machinelearning学习中心极限定理,学习正态分布,学习最大似然估计推导回归Lossfunction学习损失函数与凸函数之间的关系了解全局最优和局部最优学习导数,泰勒展开推导梯度下降公式写出梯度下降的代码学习L2-Norm,L1-Norm,L0-Norm推导正则化公式说明为什么用L1-Norm代替L0-Norm学习为什么只对w/Θ做限制,不对b做限制Question1:Wh
StarCoder_Yue
·
2024-02-12 11:01
算法
机器学习
学习笔记
机器学习
线性回归
正则化
人工智能
算法数学
人工智能深度
学习入门
指南
本文将为你提供一份深度
学习入门
指南,帮助你快速掌握深度学习的基本知识和应用技能。1.了解深度学习基本概念在开始深度学习之前,你需要了解一些基本概念,如神经网络、激活函数、损失函数、反向传播等。
白猫a~
·
2024-02-11 23:00
编程
深度学习
人工智能
深度
学习入门
--参数的优化算法
1.梯度下降法(GradientDescent)梯度下降法的计算过程就是沿梯度下降的方向求解极小值,也可以沿梯度上升方向求解最大值。假设模型参数为θ\thetaθ,损失函数为J(θ)J(\theta)J(θ),损失函数关于参数的偏导数,也就是梯度为▽θJ(θ)\triangledown_\thetaJ(\theta)▽θJ(θ),学习率为α\alphaα,则使用梯度下降法更新参数为:梯度下降法目前
我只钓小鱼
·
2024-02-11 03:53
深度学习
第五届脑电深度
学习入门
班(训练营:2023.9.12~9.20)
茗创科技专注于脑科学数据处理,涵盖(EEG/ERP,fMRI,结构像,DTI,ASL,,FNIRS)等,欢迎留言讨论及转发推荐,也欢迎了解茗创科技的脑电课程,数据处理服务及脑科学工作站销售业务,可添加我们的工程师(微信号MCKJ-zhouyi或17373158786)咨询。★课程简介★脑电图(Electroencephalogram,EEG)是脑神经细胞电生理活动在大脑皮层或头皮表面的总体反映,包
茗创科技
·
2024-02-09 21:12
深度
学习入门
笔记(九)自编码器
自编码器是一个无监督的应用,它使用反向传播来更新参数,它最终的目标是让输出等于输入。数学上的表达为,f(x)=x,f为自编码器,x为输入数据。自编码器会先将输入数据压缩到一个较低维度的特征,然后利用这个较低维度的特征重现输入的数据,重现后的数据就是自编码器的输出。所以,从本质上来说,自编码器就是一个压缩算法。自编码器由3个部分组成:编码器(Encoder):用于数据压缩。压缩特征向量(Compre
zhanghui_cuc
·
2024-02-09 08:57
深度学习笔记
深度学习
笔记
人工智能
深度
学习入门
笔记(八)可以不断思考的模型:RNN与LSTM
8.1循环神经网络RNN之前学到的CNN和全连接,模型的输入数据之间是没有关联的,比如图像分类,每次输入的图片与图片之间就没有任何关系,上一张图片的内容不会影响到下一张图片的结果。但在自然语言处理领域,这就成了一个短板。RNN因此出现,它是一类用于处理序列数据的神经网络。其基本单元结构如下自底向上的三个蓝色的节点分别是输入层、隐藏层和输出层。U和V分别是连接两个层的权重矩阵。如果不考虑右边的棕色环
zhanghui_cuc
·
2024-02-09 08:56
深度学习笔记
深度学习
rnn
笔记
第四届脑电深度
学习入门
班(训练营:2023.7.4~7.12)
茗创科技专注于脑科学数据处理,涵盖(EEG/ERP,fMRI,结构像,DTI,ASL,,FNIRS)等,欢迎留言讨论及转发推荐,也欢迎了解茗创科技的脑电课程,数据处理服务及脑科学工作站销售业务,可添加我们的工程师(微信号MCKJ-zhouyi或17373158786)咨询。★课程简介★脑电图(Electroencephalogram,EEG)是脑神经细胞电生理活动在大脑皮层或头皮表面的总体反映,包
茗创科技
·
2024-02-09 05:48
浏览器F12调试
系列文章目录提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章Python机器
学习入门
之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录系列文章目录
知行合一。。。
·
2024-02-09 01:11
测试技术
功能测试
深度学习与计算机视觉:实例入门-第六章
给深度
学习入门
者的Python快速教程-番外篇之Python-OpenCV《深度学习与计算机视觉》全书网址:https://frombeijingwithlove.github.io…本篇原网址:https
javastart
·
2024-02-08 09:38
图象处理
深度学习
tensorflow
opencv2
《深度
学习入门
:基于python的理论与实现》读书笔记
求梯度的函数:f是需要求梯度的函数,x是求梯度的点image.pngdefnumerical_gradient(f,x):h=1e-4#0.0001grad=np.zeros_like(x)#生成和x形状相同的数组foridxinrange(x.size):tmp_val=x[idx]#f(x+h)的计算x[idx]=tmp_val+hfxh1=f(x)#f(x-h)的计算x[idx]=tmp_v
莫里衰
·
2024-02-07 21:32
ui转py
pyqt系列文章目录提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章Python机器
学习入门
之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录
CN-JackZhang
·
2024-02-07 05:05
qt
python
开发语言
一个不会java程序员的python笔记-切片
文章目录前言一、切list和tuple二、判断是不是回数三、手写trim总结前言Python
学习入门
之切片slice的使用切片这东西还是很好用的,而且简单,切片,就是像切土豆一样,想切哪儿就切哪儿,想怎么切就怎么切
aersilan20200907
·
2024-02-07 01:33
python
python
java
开发语言
大数据
学习入门
级书籍推荐,零基础小伙伴们关注一下吧
《大数据分析:点“数”成金》大数据
学习入门
级书籍推荐你现在正坐在一座金矿之上,这些金子或被深埋于备份、存档数据之中,或正藏在你眼前的数据集里,它们是提升公司效益、拓展新的商业关系、制订更直观决策的秘诀所在
kuntoria
·
2024-02-06 18:45
深度
学习入门
笔记(五)前馈网络与反向传播
接着上一节,本节讲解模型自我学习的数学计算过程究竟是怎么样的。5.1前馈网络一个最简单的前馈神经网络如图所示,对于每一个隐藏层,输入对应前一层每一个节点权重乘以节点输出值,输出则是经过激活函数(例如sigmoid函数)计算后的值。在这样的网络中,输入的数据x经过网络的各个节点之后,即可计算出最终的模型结果。这样就完成了一个最基本的前馈网络从输入到输出的计算过程。5.2反向传播在实际工作中这部分的内
zhanghui_cuc
·
2024-02-06 01:25
深度学习笔记
深度学习
笔记
人工智能
深度
学习入门
(鱼书)
学习笔记第3章神经网络3.1从感知机到神经网络3.1.1神经网络的例子图3-1中的网络一共由3层神经元构成,但实质上只有2层神经元有权重,因此将其称为“2层网络”。请注意,有的书也会根据构成网络的层数,把图3-1的网络称为“3层网络”。本书将根据实质上拥有权重的层数(输入层、隐藏层、输出层的总数减去1后的数量)来表示网络的名称。3.1.2复习感知机3.1.3激活函数登场刚才登场的h(x)函数会将输
weixin_42963026
·
2024-02-05 05:56
深度学习
人工智能
深度
学习入门
笔记(1)——什么是深度学习?
深度
学习入门
笔记(1)——什么是深度学习?
ZRX_GIS
·
2024-02-05 05:56
深度学习
深度学习
数据挖掘
机器学习
神经网络
pytorch
(课程笔记)深度
学习入门
- 1 - OverView
一、机器学习算法的过程与结果1、首先要得到标签化数据集(DataSet),既然是标签化,那应该是监督学习模式,而且此处的数据集应该分化为训练用集(TrainSet)和测试用集(TestSet),训练用集用于训练最终的算法模型,而测试用集用于测试训练的算法模型是否性能良好,是否能满足实际需求;2、设置并给出机器学习的算法模型(Model);3、设置期望的损失函数(LossFcn)和优化器(Optim
牛顿第八定律
·
2024-02-05 05:55
深度学习入门笔记
笔记
深度学习
人工智能
深度
学习入门
笔记(6)—— Logistic Regression
对比第三节中的Adaline和LogisticRegression,可以发现它们只有两点不同:1、激活函数,Adaline中的激活函数是恒等函数(线性),而LogisticRegression中的激活函数是Sigmoid函数(非线性);2、损失函数,Adaline中的损失函数是均方误差,而LogisticRegression中的损失函数则是交叉熵。Sigmoid函数如图所示,其值域为0到1,输入为
cnhwl
·
2024-02-05 05:55
深度学习入门笔记
深度学习
机器学习
逻辑回归
人工智能
python
《深度
学习入门
》学习笔记
原书:《深度
学习入门
:基于Python的理论与实现》文章目录前言第一章python入门列表字典类numpy广播第二章感知机第三章神经网络激活函数第四章神经网络的学习损失函数求梯度第五章误差反向传播法第六章与学习相关的技巧
YY_oot
·
2024-02-05 05:55
机器学习
深度学习
python
神经网络
人工智能
深度
学习入门
笔记(三)常用AI术语
本节我们介绍一些深度学习领域常用的术语。训练确定模型中的参数的过程,我们就称为“训练”。Epoch遍历一遍训练数据就叫作“一个Epoch”。训练模型的时候,我们要告诉模型预计训练多少个Epoch,但这个值并不是固定的,因为并没有一个准确的Epoch数能一定能得到一个比较好的模型。我们有一个标准:模型训练的Epoch数必须要让模型达到一个收敛的状态。并且为了模型有更多的选择,我们可以让模型收敛后,再
zhanghui_cuc
·
2024-02-05 05:54
深度学习笔记
人工智能
深度学习
笔记
[inno setup]
学习入门
之二 关于写入注册表的一点注意
使用innosetup操作注册表无非就是写入、查询、删除//查询path,放入变量oldPath中RegQueryStringValue(HKEY_LOCAL_MACHINE,'SYSTEM\CurrentControlSet\Control\SessionManager\Environment','path',oldPath);//写入字符xxx到环境变量path中,当然,xxx既可以是单纯的字
放学后的泡泡
·
2024-02-04 19:13
辅助工具
深度
学习入门
笔记4 深度神经网络
多层感知器在之前的课程中,我们了解到,感知器(指单层感知器)具有一定的局限——无法解决异或问题,即线性不可分的问题。将多个单层感知器进行组合,就可以得到一个多层感知器(MLP——Multi-LayerPerceptron)结构。多层感知器包含输入层,一个或多个隐藏层以及一个输出层。每层的神经元与下一层进行完全连接。如果网络中包含一个以上的隐层,则称其为深度人工神经网络。说明:通常我们说的神经网络的
深度学习从入门到放弃
·
2024-02-04 16:03
深度学习笔记
神经网络
深度学习
人工智能
机器学习
算法
深度
学习入门
笔记:第二章感知机
深度
学习入门
笔记:第二章感知机笔记来源书籍:《深度
学习入门
:基于+Python+的理论与实现》文章目录深度
学习入门
笔记:第二章感知机前言为什么学习感知机2.1感知机是什么2.2简单逻辑电路2.2.1与门
维持好习惯
·
2024-02-04 16:03
深度学习
深度学习
笔记
人工智能
深度
学习入门
学习笔记之——神经网络
神经网络上一章我们学习了感知机。关于感知机,既有好消息,也有坏消息。好消息是,即便对于复杂的函数,感知机也隐含着能够表示它的可能性。上一章已经介绍过,即便是计算机进行的复杂处理,感知机(理论上)也可以将其表示出来。坏消息是,设定权重的工作,即确定合适的、能符合预期的输入与输出的权重,现在还是由人工进行的。上一章中,我们结合与门、或门的真值表人工决定了合适的权重。神经网络的出现就是为了解决刚才的坏消
前丨尘忆·梦
·
2024-02-04 16:32
tensorflow深度学习
神经网络
深度学习
深度
学习入门
笔记(二)神经元 激励函数 神经网络
声明:本文内容源自《白话深度学习与tensorflow》高扬卫峥编著一书读书笔记!!!神经网络:神经网络又称为人工神经网络(artificialneutralnetwork,ANN)。神经网络是一种人类由于受到生物神经细胞结构启发而研究出的一种算法体系神经元:如上图所示是一个最简单的神经元,有一个输入,一个输出。我们现在所使用的神经元通常有两个部分组成,一个是“线性模型”,另一个是“激励函数”。假
花落雨微扬
·
2024-02-04 16:32
神经网络
网络
深度学习
人工智能
机器学习
2021-11-06《深度
学习入门
》笔记(二)
第二章感知机感知机也是作为神经网络(深度学习)的起源的算法。因此,学习感知机的构造也就是学习通向神经网络和深度学习的一种重要思想。首先,感知机是什么?感知机接收多个输入信号,输出一个信号。上图是一个接收两个输入信号的感知机的例子。x1、x2是输入信号,y是输出信号,w1、w2是权重(w是weight的首字母)。图中的⚪称为“神经元”或者“节点”。输入信号被送往神经元时,会被分别乘以固定的权重(w1
新手小嵩
·
2024-02-04 16:02
深度学习系列笔记
深度学习
神经网络
人工智能
深度
学习入门
笔记(二)神经元的结构
神经网络的基本单元是神经元,本节我们介绍神经元的结构。2.1神经元一个神经元是由下面5部分组成的:输入:x1,x2,…,xk。权重:w1,w2,…,wk。权重的个数与神经元输入的个数相同。偏移项:可省略。激活函数:一般都会有,根据实际问题也是可以省略的。输出。2.2激活函数激活函数有很多种,不同的激活函数适用于不同的问题。二分类问题我们一般采用Sigmoid函数,多分类问题我们采用Softmax函
zhanghui_cuc
·
2024-02-04 16:30
深度学习笔记
深度学习
笔记
人工智能
日语
学习入门
,快来看看那些老师没有告诉你的日语发音规则吧
学习任何一门语言都要从发音开始学习,发音的好坏对于外语学习具有至关重要的作用。中国人在日语发音中容易出现很多的问题,究其原因还是受自己母语的影响很大。下面我们就来学习下,日语发音中的“连浊”。连浊是指两个词相结合构成复合词时,后一个词的头一个音节变成浊音。如“つち→かなづち”。比如,“園”这字单独读作“その”,绝不会发音成“ぞの”。但是像“窪園”和“花園”等词里的“園”字,因为前面接有其他词语从而
日语初级学习
·
2024-02-04 05:16
机器
学习入门
-----sklearn
机器学习基础了解概念机器学习是人工智能的一个实现途径深度学习是机器学习的一个方法发展而来定义:从数据中自动分析获得模型,并利用模型对特征数据【数据集:特征值+目标值构成】进行预测算法数据集的目标值是类别的话叫做分类问题;目标值是连续的数值的话叫做回归问题;统称监督学习;另一类是无监督学习,这一类的数据集没有目标值,典型:聚类;做什么可以进行传统预测、图像识别、自然语言处理传统预测店铺销量预测、量化
辣椒酱.
·
2024-02-03 07:30
python
机器学习
sklearn
人工智能
模式识别 | PRML概览
阅读起来有一定难度,不适合作为机器
学习入门
教材。然而这本书提供的贝叶斯视角有助于我们更为立体全面理解一些经典模型。全书分为十四个章节,这里我尽可能简要概述每个章节的主要内容,如果
ZIYUE WU
·
2024-02-03 07:48
Machine
Learning
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他