E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
limu深度学习笔记
【
深度学习笔记
】使用knn实现特征向量分类
这是一个使用knn把特征向量进行分类的demo。Knn算法的思想简单说就是:看输入的sample点周围的k个点都属于哪个类,哪个类的点最多,就把sample归为哪个类。也就是说,训练集是一些已经被手动打好标签的数据,knn会根据你打好的标签来挖掘同类对象的相似点,从而推算sample的标签。Knn算法的准确度受k影响较大,可能需要写个循环试一下选出针对不同数据集的最优的k。至于如何拿到特征向量,可
Li xiang007
·
2020-07-10 11:16
Deep
learning
深度学习笔记
(27):残差网络ResNet50简介
前言想要训练足够强大的神经网络,我们就需要搭建足够深度的网络,但是深的网络会不可避免地产生梯度爆炸或者梯度消失问题,使得训练缓慢亦或者根本见不到明显的下降。如下图我们的Relu函数和Batchnorm等都在解决这种问题,使得更加深的神经网络的训练能够被实现。本次我们介绍另一种很有效的解决思路,ResNet。什么是ResNetCNN的核心组件是convolutionalfilter和poolingl
良夜星光
·
2020-07-10 10:52
吴恩达深度学习笔记
笔记
神经网络
吴恩达
深度学习笔记
(五)
吴恩达
深度学习笔记
(五)自然语言处理NLP:序列模型循环神经网络RNN自然语言处理与词嵌入序列模型和注意力机制序列模型编程作业自然语言处理NLP:序列模型循环神经网络RNN为什么选择序列模型?
love_pegy
·
2020-07-10 10:54
深度学习
旅程的博文目录
第二章:离散几何量和算子【彭家贵版】微分几何第五章部分习题【计算几何】Voronoi图和Delaunay三角剖分【几何处理】基于二次误差测量的网格简化(二)【几何处理】基于二次误差度量的网格简化(一)【
深度学习笔记
旅程TSH
·
2020-07-10 03:08
深度学习笔记
-1.使用ANN分类animal实例
主要为了理解ANN使用方法importcv2importnumpyasnpfromrandomimportrandint#ANN网络初始化animals_net=cv2.ml.ANN_MLP_create()animals_net.setTrainMethod(cv2.ml.ANN_MLP_RPROP|cv2.ml.ANN_MLP_UPDATE_WEIGHTS)animals_net.setAct
业余狙击手19
·
2020-07-10 03:23
#
DL学习笔记
深度学习笔记
(一):模型微调fine-tune
深度学习中的fine-tuning一.什么是模型微调1.预训练模型(1)预训练模型就是已经用数据集训练好了的模型。(2)现在我们常用的预训练模型就是他人用常用模型,比如VGG16/19,Resnet等模型,并用大型数据集来做训练集,比如Imagenet,COCO等训练好的模型参数;(3)正常情况下,我们常用的VGG16/19等网络已经是他人调试好的优秀网络,我们无需再修改其网络结构。2.常用的预训
熊宝宝爱学习
·
2020-07-10 02:52
深度学习
深度学习笔记
(八)---语义分割的前世今生
Background语义分割是一种典型的计算机视觉问题,其涉及将一些原始数据(例如,平面图像)作为输入并将它们转换为具有突出显示的感兴趣区域的掩模。许多人使用术语全像素语义分割(full-pixelsemanticsegmentation),其中图像中的每个像素根据其所属的感兴趣对象被分配类别ID。早期的计算机视觉问题只发现边缘(线条和曲线)或渐变等元素,但它们从未完全按照人类感知的方式提供像素级
Jayden yang
·
2020-07-10 00:11
深度学习笔记
深度学习笔记
——分类模型(二)AlexNet
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportSequentialfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefmain():width=227height=227batch_size=16generator=ImageDa
wind_700
·
2020-07-09 18:18
深度神经网络
深度学习笔记
——分类模型(一)LeNet-5
#-*-coding:utf-8-*-importdatetimefromkeras.datasetsimportmnistfromkeras.utilsimportnp_utilsfromkeras.modelsimportSequentialfromkeras.layersimport*defmain():(x_train,y_train),(x_test,y_test)=mnist.load
wind_700
·
2020-07-09 18:17
深度神经网络
深度学习笔记
-人工智能绪论(学习笔记)
深度学习笔记
-人工智能绪论(学习笔记)人功智能:让机器获得像人一样的智能机制的技术人工智能,机器学习,神经网络,深层神经网络四者关系机器学习可以分为,有监督学习,无监督学习和强化学习。
冒牌的帕德里克
·
2020-07-09 15:17
深度学习
深度学习笔记
--使用keras创建和加载VGG模型
VGG16模型,顾名思义,有16层,通过学习github上的源码,发现其中有13层为卷积层(conv),3层为全连接(Dense),还有若干层pooling层。使用keras建立一个模型的instance有两种方式,一个是通过Input类构建,一个则是通过model类构建,具体的形式有所不同,本文采用Input类构建,这里默认输入图片大小为(50,50,3)。使用代码可以清晰看出VGG的每一层参数
hellosonny
·
2020-07-09 14:18
人工智能-
深度学习笔记
2 猫和非猫引起的二分类
在学习神经网络基础知识时,需要注意的是,去实现一个神经网络时,是需要知道一些非常重要的技术和技巧的:例如数据集,该如何表示和处理呢?;选用什么的算法方式呢,激活函数的确定;成本函数和代价函数怎么确定?;多少也得知道前向传播和反向传播的过程以及会产生怎样的结果吧。在学习什么是神经网络时拿线性回归做了示例,此次将以猫和非猫的二分类问题来传达以上的这些想法,逻辑回归是解决二分类(binaryclassi
clyfk
·
2020-07-09 14:48
MachineLearning
人工智能-
深度学习笔记
2 猫和非猫引起的二分类-续
在学习神经网络基础知识时,需要注意的是,去实现一个神经网络时,是需要知道一些非常重要的技术和技巧的:例如数据集,该如何表示和处理呢?;选用什么的算法方式呢,激活函数的确定;成本函数和代价函数怎么确定?;多少也得知道前向传播和反向传播的过程以及会产生怎样的结果吧。在上一篇的学习笔记中,进行到了代价函数的设计技巧,接下来就是通过让代价达到最小来进行神经网络的训练,下面就看看神经网络是怎么做的?1、梯度
clyfk
·
2020-07-09 14:48
MachineLearning
DeepLearning
深度学习笔记
15:ubuntu16.04 下深度学习开发环境搭建与配置
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者:鲁伟,热爱数据,坚信数据技术和代码改变世界。R语言和Python的忠实拥趸,为成为一名未来的数据科学家
R3eE9y2OeFcU40
·
2020-07-09 11:29
深度学习笔记
(5)——学术界的霸主Resnet
前言在当今学术界的论文里,几个baseline网络LeNet、AlexNet、VGGNet、GoogLeNet、ResNet都是大家用的多的CNN网络。其中LeNet、AlexNet、VGGNet这三个都是很古老的CNN线性网络,属于新手喜欢用的VGGlike网络,这些网络结构简单,从输入到输出一条路走到黑,所以工业界对这些网络都有很有效的加速优化,但是在学术界却因为泛化能力有限近年逐渐被淘汰。而
迷川浩浩_ZJU
·
2020-07-09 08:07
深度学习
深度学习笔记
——分类模型(四)Inceptionv3
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefconv2d_bn(x,filters,num_row,num_col,padding='same',strides=(1
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(八)Xception
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefXception(input_shape=(299,299,3),classes=1000):img_input=Inpu
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(七)DenseNet121
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefdense_block(x,blocks,name):foriinrange(blocks):x=conv_block(x
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(六)ResNeXt50
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefGroupConv2D(input,filters,kernel_size,strides=(1,1),padding='
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(五)ResNet50
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefidentity_block(input_tensor,kernel_size,filters,stage,block):
wind_700
·
2020-07-09 07:24
深度神经网络
深度学习笔记
(四)——神经网络和深度学习(浅层神经网络)
1.神经网络概览神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出来的中间那层称为隐藏层或中间层。从计算上来说,神经网络的正向传播和反向传播过程只是比逻辑回归多了一次重复的计算。正向传播过程分成两层,第一层是输入层到隐藏层,用上标[1]来表示;第二层是隐藏层到输出层,用上标[2]来表示。方括号上标[i]表示当前所处的层数;圆括号上标(i)表示第i个样本。同样,反向传播过程也分成
Laura2017
·
2020-07-09 05:31
吴恩达深度学习工程师
吴恩达老师深度学习课程完整笔记
为了方便学习深度学习课程,转载一个吴恩达老师的一个
深度学习笔记
,转载的网站是下面这个https://blog.csdn.net/red_stone1/article/details/80207815从去年
Miracle8070
·
2020-07-09 01:51
深度学习系列
深度学习
机器学习
人工智能
fast.ai
深度学习笔记
:第一部分第三课
原文:DeepLearning2:Part1Lesson3作者:HiromiSuenaga课程论坛学生创建的有用材料:AWS操作方法TMUX第2课总结学习率查找器PyTorch学习率与批量大小误差表面的平滑区域与泛化5分钟搞定卷积神经网络解码ResNet架构另一个ResNet教程我们离开的地方:回顾[08:24]:KaggleCLI:如何下载数据1:从Kaggle下载时,KaggleCLI是一个很
布客飞龙
·
2020-07-09 00:49
机器学习
2020-4-7
深度学习笔记
17 - 蒙特卡罗方法 5 ( 不同的峰值之间的混合挑战)
第十七章蒙特卡罗方法中文英文2020-4-4
深度学习笔记
17-蒙特卡罗方法1(采样和蒙特卡罗方法-必要性和合理性)2020-4-4
深度学习笔记
17-蒙特卡罗方法2(重要采样–采样数量一定,提高准确度,减少方差
没人不认识我
·
2020-07-08 20:14
深度学习
IT
深度学习笔记
4:深度神经网络的正则化
总的来说,监督机器学习的核心原理莫过于如下公式:该公式可谓是机器学习中最核心最关键最能概述监督学习的核心思想的公式了:所有的有监督机器学习,无非就是正则化参数的同时最小化经验误差函数。最小化经验误差是为了极大程度的拟合训练数据,正则化参数是为了防止过分的拟合训练数据。你看,多么简约数学哲学。正如之前所说,监督机器学习是为了让我们建立的模型能够发现数据中普遍的一般的规律,这个普遍的一般的规律无论对于
louwill12
·
2020-07-08 18:33
Coursera deeplearning.ai
深度学习笔记
2-2-Optimization algorithms-优化算法与代码实现
1.优化算法1.1小批量梯度下降(Mini-batchGradientDescent)对于很大的训练集m,可以将训练集划分为T个mini-batch,分批量来学习,这样将第t个mini-batch的参数定义为X{t}、Y{t}。训练流程如下:fort=1,…,TforwardpropagationonX{t},computecostJ{t},backwardpropagationtocompute
tu天马行空
·
2020-07-08 08:55
Coursera
深度学习
深度学习笔记
(四)第四章 数值计算
过大或者过小在计算机中,我们通常会去处小数操作,那么对于过小的数字,在计算机中有可能被表示为0,而对于有些深度学习的函数来说,一个数值为0和这个数值是一个很小的数值,结果会非常不同。比如除0错误或者log0。另外一个情况就是过大。softmax函数通常用来计算多项式概率分布,定义如下:如果xi都为常数c,那么结果应该是1/n。但是如果c是一个无限小的负数,那么c的exp会是过小的数,那么softm
ouyangshixiong
·
2020-07-07 18:56
机器学习
37.Oracle
深度学习笔记
——RAC的相关等待事件
37.Oracle
深度学习笔记
——RAC的相关等待事件欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50891037在性能BENCHMARK
badman250
·
2020-07-07 18:19
Oracle
29.Oracle
深度学习笔记
——分析函数
29.Oracle
深度学习笔记
——分析函数欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/508308861.分析函数分析函数是Oracle
badman250
·
2020-07-07 18:19
27.Oracle
深度学习笔记
——ORACLE审计
27.Oracle
深度学习笔记
——ORACLE审计欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830894审计(Audit)
badman250
·
2020-07-07 18:19
Oracle
28.Oracle
深度学习笔记
——ORACLE自带DBMS函数包
28.Oracle
深度学习笔记
——ORACLE自带DBMS函数包欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/5083088912C
badman250
·
2020-07-07 18:19
Oracle
吴恩达
深度学习笔记
(35)-加快归一化的网络训练方法
归一化输入(Normalizinginputs)训练神经网络,其中一个加速训练的方法就是归一化输入。假设一个训练集有两个特征,输入特征为2维,归一化需要两个步骤:1.零均值2.归一化方差;我们希望无论是训练集和测试集都是通过相同的μ和σ^2定义的数据转换,这两个是由训练集得出来的。第一步是零均值化它是一个向量,x等于每个训练数据x减去μ,意思是移动训练集,直到它完成零均值化。第二步是归一化方差,注
极客Array
·
2020-07-07 07:01
李宏毅
深度学习笔记
(五)分类:概率生成模型(Probabilistic Generative Model)——朴素贝叶斯
朴素贝叶斯的引入假设我们有两个盒子,第一个盒子里有大小形状相同的4颗蓝球,1颗绿球;第二个盒子里有大小形状相同的2颗蓝球,3颗绿球。我们从两个盒子里任取一颗球是蓝球,问这颗蓝球从第一个盒子里面取出的概率是多少?这就是后验概率的问题,根据贝叶斯定理计算如下:P(B1∣Blue)=P(Blue∣B1)P(B1)P(Blue∣B1)+P(Blue∣B2)P(B2)P(B_1|Blue)=\frac{P(
comli_cn
·
2020-07-07 05:49
李宏毅深度学习
2.2)
深度学习笔记
:优化算法
目录1)Mini-batchgradientdescent(重点)2)Understandingmini-batchgradientdescent3)Exponentiallyweightedaverages4)Understandingexponetiallyweightedaverages5)Biascorrectioninexponentiallyweightedaverage6)Gradi
10点43
·
2020-07-07 04:48
深度学习
吴恩达
深度学习笔记
(67)-迁移学习(Transfer learning)
迁移学习(Transferlearning)深度学习中,最强大的理念之一就是迁移学习,有的时候神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中。所以例如,也许你已经训练好一个神经网络,能够识别像猫这样的对象,然后使用那些知识,或者部分习得的知识去帮助您更好地阅读x射线扫描图,这就是所谓的迁移学习。我们来看看,假设你已经训练好一个图像识别神经网络,所以你首先用一个神经网络,并在
极客Array
·
2020-07-07 02:02
RMSprop、动量梯度下降法与Adam优化 [Andrew Ng
深度学习笔记
]
如图:对于蓝色的情况,由于梯度下降时来回摆动,导致收敛很慢若增大学习率,结果可能偏离函数的范围,如紫色的情况。为了避免摆动过大,就必须使用较小的学习率,进一步降低了收敛速度我们希望的是在纵轴上减缓学习,在横轴上加快学习,如红色的情况。有多种方法可以实现动量梯度下降法(Momentum)此处用了指数加权平均的更新方法因为纵轴有许多摆动,在求平均的时候都可以被抵消,最后几乎等于0,所以纵轴的学习被减缓
Originum
·
2020-07-06 23:27
人工智能
理论分析
Andrew
Ng
深度学习笔记
31.Oracle
深度学习笔记
——RMAN备份常用命令
31.Oracle
深度学习笔记
——RMAN备份常用命令欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830867连接到目标数据库
badman250
·
2020-07-06 17:11
Oracle
吴恩达
深度学习笔记
(49)-为超参数选择合适的范围
为超参数选择合适的范围(Usinganappropriatescaletopickhyperparameters)在上一个笔记中,你已经看到了在超参数范围中,随机取值可以提升你的搜索效率。但随机取值并不是在有效范围内的随机均匀取值,而是选择合适的标尺,用于探究这些超参数,这很重要。在这个笔记中,会教你怎么做。假设你要选取隐藏单元的数量n^([l]),假设你选取的取值范围是从50到100中某点,这种
极客Array
·
2020-07-06 09:14
深度学习笔记
4-模型优化算法
「这里记录的是吴恩达AndrewNg在深度学习课程中提到过的优化算法,以及其他受推荐的优化算法。以及日常感谢AndrewNg的视频」梯度下降的优化1.指数加权平均引入概念在讲下面几个优化算法之前,先引出指数加权平均的概念。指数加权平均是一种简称,概念引自统计学中的指数加权移动平均EWMA(ExponentiallyWeightedMovingAverage)。上面这张图是伦敦某一年的气温图,这张图
caoqi95
·
2020-07-06 04:40
深度学习 - 理论笔记总结
深度学习笔记
:1.描述常用3种IOU,分别针对那种情况使用?①交并比:交集/并集。即框和框的重叠的程度。为了删除一些同目标位置重叠的框。
什么都一般的咸鱼
·
2020-07-06 03:09
深度学习
深度学习笔记
之基于InceptionV3架构的深度学习方法进行肺炎诊断
前言X线胸片,通俗地被称为“拍片”,也列为常规体检的检查项目之一。X线摄影的快捷、简便、经济的优势日渐突出,成为胸部检查的优先选择。X线胸片能清晰地记录肺部的大体病变,如肺部炎症、肿块、结核等,利用人体组织的不同密度可观察到厚度和密度差别较小部位的病变。肺炎是由感染性病原体引起的肺组织炎症和实变,在X线胸片上可见双肺斑片状阴影,阴影模糊不清,双肺呈毛玻璃状;传统的阅片方式为医生人工查看,凭借经验进
weixin_41065383
·
2020-07-06 03:45
深度学习
ZYNQ地址分配问题
首先给出一篇很好的文章:Zynq构建SoC系统
深度学习笔记
-05-PL读写DDR3http://www.eefocus.com/antaur/blog/17-08/423773_0818c.html这个博主的一系列文章写的很好
weixin_30481087
·
2020-07-05 21:10
深度学习笔记
:稀疏自编码器(4)——稀疏自编码器代码练习
本文是ufldl稀疏自编码器教程中的练习,详细的练习要求参见Exercise:SparseAutoencoder,笔者将练习中要求实现的三个文件代码记录在此,并作了详细的注释。%sampleIMAGES.mfunctionpatches=sampleIMAGES()%函数返回64*10000的矩阵patches%sampleIMAGES%Returns10000patchesfortraini
aaronwu2
·
2020-07-05 19:44
深度学习
深度学习与卷积神经网络(直观理解)
附上链接:凌风探梅的卷积神经网络(CNN)新手指南http://blog.csdn.NET/real_myth/article/details/52273930;
深度学习笔记
整理系列:http://blog.csdn.Net
2014wzy
·
2020-07-05 18:37
深度学习
【连载】
深度学习笔记
6:神经网络优化算法之从SGD到Adam
从前面的学习中,带大家一起学会了如何手动搭建神经网络,以及神经网络的正则化等实用层面的内容。这些都使得我们能够更深入的理解神经网络的机制,而并不是初次接触深度学习就上手框架,虽然对外宣称神经网络是个黑箱机制,但是作为学习者我们极度有必要搞清楚算法在每个环节到底都干了些什么。今天讲的是深度学习的一个大的主题——优化算法。采用何种方式对损失函数进行迭代优化,这是机器学习的一大主题之一,当一个机器学习问
linux那些事
·
2020-07-05 13:14
深度学习笔记
---卷积特征提取与池化
卷积特征提取与池化一、卷积特征提取全联通网络(FullConnectedNetworks)在稀疏自编码章节中,我们介绍了把输入层和隐含层进行“全连接”的设计。从计算的角度来讲,在其他章节中曾经用过的相对较小的图像(如在稀疏自编码的作业中用到过的8x8的小块图像,在MNIST数据集中用到过的28x28的小块图像),从整幅图像中计算特征是可行的。但是,如果是更大的图像(如96x96的图像),要通过这种
如今我已剑指天涯
·
2020-07-05 13:58
深度学习
深度学习
深度学习笔记
(一):卷积变种(分组卷积、空洞卷积、深度可分离卷积、可形变卷积) 卷积中的不一样的操作
文章目录常规卷积(Convolution)分组卷积(GroupConvolution)原理用途空洞(扩张)卷积(Dilated/AtrousConvolution)深度可分离卷积(depthwiseseparableconvolution)标准卷积与深度可分离卷积的不同深度可分离卷积的过程深度可分离卷积的优点可变形卷积网络背景想法评价卷积神经网络中十大拍案叫绝的操作一、卷积只能在同一组进行吗?--
呆呆象呆呆
·
2020-07-05 08:44
深度学习
吴恩达
深度学习笔记
(32)-Dropout正则化Dropout Regularization
dropout正则化(DropoutRegularization)除了L2正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”,我们来看看它的工作原理。假设你在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,我们复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节点都以抛硬币的方式设置概率,每个节点得
极客Array
·
2020-07-05 07:40
深度学习笔记
(3)数值计算
1.上溢和下溢(1)舍入误差:指运算得到的近似值和精确值之间的差异。如果在一系列运算中的一步或者几步产生了舍入误差,在某些情况下,误差会随着运算次数增加而积累得很大,最终得出没有意义的运算结果。(2)下溢当接近0的数被四舍五入为零时发生下溢。若使用此类数作为除数或取其对数时(会产生无穷大的数,进一步计算)可能会返回非数字的结果。(3)上溢当大量级的数被近似为∞或-∞时发生上溢。进一步的运算会导致这
纳豆哥哥
·
2020-07-05 05:23
机器学习
深度学习笔记
(2) 概率与信息论
1.概率论与信息论概率论使我们能够作出不确定的声明以及在不确定性存在的情况下进行推理,而信息论使我们能够量化概率分布中的不确定性总量2.概率的意义(1)频率派概率:概率与事件发生的频率相联系(频率派把需要推断的参数θ看做是固定的未知常数,即概率θ虽然是未知的,但最起码是确定的一个值,同时,样本X是随机的,所以频率派重点研究样本空间,大部分的概率计算都是针对样本X的分布)(2)贝叶斯派概率:用概率来
纳豆哥哥
·
2020-07-05 05:23
机器学习
基础数学
上一页
22
23
24
25
26
27
28
29
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他