E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
人工智能-
深度学习笔记
2 猫和非猫引起的二分类
在学习神经网络基础知识时,需要注意的是,去实现一个神经网络时,是需要知道一些非常重要的技术和技巧的:例如数据集,该如何表示和处理呢?;选用什么的算法方式呢,激活函数的确定;成本函数和代价函数怎么确定?;多少也得知道前向传播和反向传播的过程以及会产生怎样的结果吧。在学习什么是神经网络时拿线性回归做了示例,此次将以猫和非猫的二分类问题来传达以上的这些想法,逻辑回归是解决二分类(binaryclassi
clyfk
·
2020-07-09 14:48
MachineLearning
人工智能-
深度学习笔记
2 猫和非猫引起的二分类-续
在学习神经网络基础知识时,需要注意的是,去实现一个神经网络时,是需要知道一些非常重要的技术和技巧的:例如数据集,该如何表示和处理呢?;选用什么的算法方式呢,激活函数的确定;成本函数和代价函数怎么确定?;多少也得知道前向传播和反向传播的过程以及会产生怎样的结果吧。在上一篇的学习笔记中,进行到了代价函数的设计技巧,接下来就是通过让代价达到最小来进行神经网络的训练,下面就看看神经网络是怎么做的?1、梯度
clyfk
·
2020-07-09 14:48
MachineLearning
DeepLearning
深度学习笔记
15:ubuntu16.04 下深度学习开发环境搭建与配置
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者:鲁伟,热爱数据,坚信数据技术和代码改变世界。R语言和Python的忠实拥趸,为成为一名未来的数据科学家
R3eE9y2OeFcU40
·
2020-07-09 11:29
深度学习笔记
(5)——学术界的霸主Resnet
前言在当今学术界的论文里,几个baseline网络LeNet、AlexNet、VGGNet、GoogLeNet、ResNet都是大家用的多的CNN网络。其中LeNet、AlexNet、VGGNet这三个都是很古老的CNN线性网络,属于新手喜欢用的VGGlike网络,这些网络结构简单,从输入到输出一条路走到黑,所以工业界对这些网络都有很有效的加速优化,但是在学术界却因为泛化能力有限近年逐渐被淘汰。而
迷川浩浩_ZJU
·
2020-07-09 08:07
深度学习
深度学习笔记
——分类模型(四)Inceptionv3
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefconv2d_bn(x,filters,num_row,num_col,padding='same',strides=(1
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(八)Xception
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefXception(input_shape=(299,299,3),classes=1000):img_input=Inpu
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(七)DenseNet121
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefdense_block(x,blocks,name):foriinrange(blocks):x=conv_block(x
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(六)ResNeXt50
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefGroupConv2D(input,filters,kernel_size,strides=(1,1),padding='
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(五)ResNet50
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefidentity_block(input_tensor,kernel_size,filters,stage,block):
wind_700
·
2020-07-09 07:24
深度神经网络
深度学习笔记
(四)——神经网络和深度学习(浅层神经网络)
1.神经网络概览神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出来的中间那层称为隐藏层或中间层。从计算上来说,神经网络的正向传播和反向传播过程只是比逻辑回归多了一次重复的计算。正向传播过程分成两层,第一层是输入层到隐藏层,用上标[1]来表示;第二层是隐藏层到输出层,用上标[2]来表示。方括号上标[i]表示当前所处的层数;圆括号上标(i)表示第i个样本。同样,反向传播过程也分成
Laura2017
·
2020-07-09 05:31
吴恩达深度学习工程师
吴恩达老师深度学习课程完整笔记
为了方便学习深度学习课程,转载一个吴恩达老师的一个
深度学习笔记
,转载的网站是下面这个https://blog.csdn.net/red_stone1/article/details/80207815从去年
Miracle8070
·
2020-07-09 01:51
深度学习系列
深度学习
机器学习
人工智能
fast.ai
深度学习笔记
:第一部分第三课
原文:DeepLearning2:Part1Lesson3作者:HiromiSuenaga课程论坛学生创建的有用材料:AWS操作方法TMUX第2课总结学习率查找器PyTorch学习率与批量大小误差表面的平滑区域与泛化5分钟搞定卷积神经网络解码ResNet架构另一个ResNet教程我们离开的地方:回顾[08:24]:KaggleCLI:如何下载数据1:从Kaggle下载时,KaggleCLI是一个很
布客飞龙
·
2020-07-09 00:49
机器学习
2020-4-7
深度学习笔记
17 - 蒙特卡罗方法 5 ( 不同的峰值之间的混合挑战)
第十七章蒙特卡罗方法中文英文2020-4-4
深度学习笔记
17-蒙特卡罗方法1(采样和蒙特卡罗方法-必要性和合理性)2020-4-4
深度学习笔记
17-蒙特卡罗方法2(重要采样–采样数量一定,提高准确度,减少方差
没人不认识我
·
2020-07-08 20:14
深度学习
IT
深度学习笔记
4:深度神经网络的正则化
总的来说,监督机器学习的核心原理莫过于如下公式:该公式可谓是机器学习中最核心最关键最能概述监督学习的核心思想的公式了:所有的有监督机器学习,无非就是正则化参数的同时最小化经验误差函数。最小化经验误差是为了极大程度的拟合训练数据,正则化参数是为了防止过分的拟合训练数据。你看,多么简约数学哲学。正如之前所说,监督机器学习是为了让我们建立的模型能够发现数据中普遍的一般的规律,这个普遍的一般的规律无论对于
louwill12
·
2020-07-08 18:33
Coursera deeplearning.ai
深度学习笔记
2-2-Optimization algorithms-优化算法与代码实现
1.优化算法1.1小批量梯度下降(Mini-batchGradientDescent)对于很大的训练集m,可以将训练集划分为T个mini-batch,分批量来学习,这样将第t个mini-batch的参数定义为X{t}、Y{t}。训练流程如下:fort=1,…,TforwardpropagationonX{t},computecostJ{t},backwardpropagationtocompute
tu天马行空
·
2020-07-08 08:55
Coursera
深度学习
深度学习笔记
(四)第四章 数值计算
过大或者过小在计算机中,我们通常会去处小数操作,那么对于过小的数字,在计算机中有可能被表示为0,而对于有些深度学习的函数来说,一个数值为0和这个数值是一个很小的数值,结果会非常不同。比如除0错误或者log0。另外一个情况就是过大。softmax函数通常用来计算多项式概率分布,定义如下:如果xi都为常数c,那么结果应该是1/n。但是如果c是一个无限小的负数,那么c的exp会是过小的数,那么softm
ouyangshixiong
·
2020-07-07 18:56
机器学习
37.Oracle
深度学习笔记
——RAC的相关等待事件
37.Oracle
深度学习笔记
——RAC的相关等待事件欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50891037在性能BENCHMARK
badman250
·
2020-07-07 18:19
Oracle
29.Oracle
深度学习笔记
——分析函数
29.Oracle
深度学习笔记
——分析函数欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/508308861.分析函数分析函数是Oracle
badman250
·
2020-07-07 18:19
27.Oracle
深度学习笔记
——ORACLE审计
27.Oracle
深度学习笔记
——ORACLE审计欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830894审计(Audit)
badman250
·
2020-07-07 18:19
Oracle
28.Oracle
深度学习笔记
——ORACLE自带DBMS函数包
28.Oracle
深度学习笔记
——ORACLE自带DBMS函数包欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/5083088912C
badman250
·
2020-07-07 18:19
Oracle
吴恩达
深度学习笔记
(35)-加快归一化的网络训练方法
归一化输入(Normalizinginputs)训练神经网络,其中一个加速训练的方法就是归一化输入。假设一个训练集有两个特征,输入特征为2维,归一化需要两个步骤:1.零均值2.归一化方差;我们希望无论是训练集和测试集都是通过相同的μ和σ^2定义的数据转换,这两个是由训练集得出来的。第一步是零均值化它是一个向量,x等于每个训练数据x减去μ,意思是移动训练集,直到它完成零均值化。第二步是归一化方差,注
极客Array
·
2020-07-07 07:01
李宏毅
深度学习笔记
(五)分类:概率生成模型(Probabilistic Generative Model)——朴素贝叶斯
朴素贝叶斯的引入假设我们有两个盒子,第一个盒子里有大小形状相同的4颗蓝球,1颗绿球;第二个盒子里有大小形状相同的2颗蓝球,3颗绿球。我们从两个盒子里任取一颗球是蓝球,问这颗蓝球从第一个盒子里面取出的概率是多少?这就是后验概率的问题,根据贝叶斯定理计算如下:P(B1∣Blue)=P(Blue∣B1)P(B1)P(Blue∣B1)+P(Blue∣B2)P(B2)P(B_1|Blue)=\frac{P(
comli_cn
·
2020-07-07 05:49
李宏毅深度学习
2.2)
深度学习笔记
:优化算法
目录1)Mini-batchgradientdescent(重点)2)Understandingmini-batchgradientdescent3)Exponentiallyweightedaverages4)Understandingexponetiallyweightedaverages5)Biascorrectioninexponentiallyweightedaverage6)Gradi
10点43
·
2020-07-07 04:48
深度学习
吴恩达
深度学习笔记
(67)-迁移学习(Transfer learning)
迁移学习(Transferlearning)深度学习中,最强大的理念之一就是迁移学习,有的时候神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中。所以例如,也许你已经训练好一个神经网络,能够识别像猫这样的对象,然后使用那些知识,或者部分习得的知识去帮助您更好地阅读x射线扫描图,这就是所谓的迁移学习。我们来看看,假设你已经训练好一个图像识别神经网络,所以你首先用一个神经网络,并在
极客Array
·
2020-07-07 02:02
RMSprop、动量梯度下降法与Adam优化 [Andrew Ng
深度学习笔记
]
如图:对于蓝色的情况,由于梯度下降时来回摆动,导致收敛很慢若增大学习率,结果可能偏离函数的范围,如紫色的情况。为了避免摆动过大,就必须使用较小的学习率,进一步降低了收敛速度我们希望的是在纵轴上减缓学习,在横轴上加快学习,如红色的情况。有多种方法可以实现动量梯度下降法(Momentum)此处用了指数加权平均的更新方法因为纵轴有许多摆动,在求平均的时候都可以被抵消,最后几乎等于0,所以纵轴的学习被减缓
Originum
·
2020-07-06 23:27
人工智能
理论分析
Andrew
Ng
深度学习笔记
31.Oracle
深度学习笔记
——RMAN备份常用命令
31.Oracle
深度学习笔记
——RMAN备份常用命令欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830867连接到目标数据库
badman250
·
2020-07-06 17:11
Oracle
吴恩达
深度学习笔记
(49)-为超参数选择合适的范围
为超参数选择合适的范围(Usinganappropriatescaletopickhyperparameters)在上一个笔记中,你已经看到了在超参数范围中,随机取值可以提升你的搜索效率。但随机取值并不是在有效范围内的随机均匀取值,而是选择合适的标尺,用于探究这些超参数,这很重要。在这个笔记中,会教你怎么做。假设你要选取隐藏单元的数量n^([l]),假设你选取的取值范围是从50到100中某点,这种
极客Array
·
2020-07-06 09:14
深度学习笔记
4-模型优化算法
「这里记录的是吴恩达AndrewNg在深度学习课程中提到过的优化算法,以及其他受推荐的优化算法。以及日常感谢AndrewNg的视频」梯度下降的优化1.指数加权平均引入概念在讲下面几个优化算法之前,先引出指数加权平均的概念。指数加权平均是一种简称,概念引自统计学中的指数加权移动平均EWMA(ExponentiallyWeightedMovingAverage)。上面这张图是伦敦某一年的气温图,这张图
caoqi95
·
2020-07-06 04:40
深度学习 - 理论笔记总结
深度学习笔记
:1.描述常用3种IOU,分别针对那种情况使用?①交并比:交集/并集。即框和框的重叠的程度。为了删除一些同目标位置重叠的框。
什么都一般的咸鱼
·
2020-07-06 03:09
深度学习
深度学习笔记
之基于InceptionV3架构的深度学习方法进行肺炎诊断
前言X线胸片,通俗地被称为“拍片”,也列为常规体检的检查项目之一。X线摄影的快捷、简便、经济的优势日渐突出,成为胸部检查的优先选择。X线胸片能清晰地记录肺部的大体病变,如肺部炎症、肿块、结核等,利用人体组织的不同密度可观察到厚度和密度差别较小部位的病变。肺炎是由感染性病原体引起的肺组织炎症和实变,在X线胸片上可见双肺斑片状阴影,阴影模糊不清,双肺呈毛玻璃状;传统的阅片方式为医生人工查看,凭借经验进
weixin_41065383
·
2020-07-06 03:45
深度学习
ZYNQ地址分配问题
首先给出一篇很好的文章:Zynq构建SoC系统
深度学习笔记
-05-PL读写DDR3http://www.eefocus.com/antaur/blog/17-08/423773_0818c.html这个博主的一系列文章写的很好
weixin_30481087
·
2020-07-05 21:10
深度学习笔记
:稀疏自编码器(4)——稀疏自编码器代码练习
本文是ufldl稀疏自编码器教程中的练习,详细的练习要求参见Exercise:SparseAutoencoder,笔者将练习中要求实现的三个文件代码记录在此,并作了详细的注释。%sampleIMAGES.mfunctionpatches=sampleIMAGES()%函数返回64*10000的矩阵patches%sampleIMAGES%Returns10000patchesfortraini
aaronwu2
·
2020-07-05 19:44
深度学习
深度学习与卷积神经网络(直观理解)
附上链接:凌风探梅的卷积神经网络(CNN)新手指南http://blog.csdn.NET/real_myth/article/details/52273930;
深度学习笔记
整理系列:http://blog.csdn.Net
2014wzy
·
2020-07-05 18:37
深度学习
【连载】
深度学习笔记
6:神经网络优化算法之从SGD到Adam
从前面的学习中,带大家一起学会了如何手动搭建神经网络,以及神经网络的正则化等实用层面的内容。这些都使得我们能够更深入的理解神经网络的机制,而并不是初次接触深度学习就上手框架,虽然对外宣称神经网络是个黑箱机制,但是作为学习者我们极度有必要搞清楚算法在每个环节到底都干了些什么。今天讲的是深度学习的一个大的主题——优化算法。采用何种方式对损失函数进行迭代优化,这是机器学习的一大主题之一,当一个机器学习问
linux那些事
·
2020-07-05 13:14
深度学习笔记
---卷积特征提取与池化
卷积特征提取与池化一、卷积特征提取全联通网络(FullConnectedNetworks)在稀疏自编码章节中,我们介绍了把输入层和隐含层进行“全连接”的设计。从计算的角度来讲,在其他章节中曾经用过的相对较小的图像(如在稀疏自编码的作业中用到过的8x8的小块图像,在MNIST数据集中用到过的28x28的小块图像),从整幅图像中计算特征是可行的。但是,如果是更大的图像(如96x96的图像),要通过这种
如今我已剑指天涯
·
2020-07-05 13:58
深度学习
深度学习
深度学习笔记
(一):卷积变种(分组卷积、空洞卷积、深度可分离卷积、可形变卷积) 卷积中的不一样的操作
文章目录常规卷积(Convolution)分组卷积(GroupConvolution)原理用途空洞(扩张)卷积(Dilated/AtrousConvolution)深度可分离卷积(depthwiseseparableconvolution)标准卷积与深度可分离卷积的不同深度可分离卷积的过程深度可分离卷积的优点可变形卷积网络背景想法评价卷积神经网络中十大拍案叫绝的操作一、卷积只能在同一组进行吗?--
呆呆象呆呆
·
2020-07-05 08:44
深度学习
吴恩达
深度学习笔记
(32)-Dropout正则化Dropout Regularization
dropout正则化(DropoutRegularization)除了L2正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”,我们来看看它的工作原理。假设你在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,我们复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节点都以抛硬币的方式设置概率,每个节点得
极客Array
·
2020-07-05 07:40
深度学习笔记
(3)数值计算
1.上溢和下溢(1)舍入误差:指运算得到的近似值和精确值之间的差异。如果在一系列运算中的一步或者几步产生了舍入误差,在某些情况下,误差会随着运算次数增加而积累得很大,最终得出没有意义的运算结果。(2)下溢当接近0的数被四舍五入为零时发生下溢。若使用此类数作为除数或取其对数时(会产生无穷大的数,进一步计算)可能会返回非数字的结果。(3)上溢当大量级的数被近似为∞或-∞时发生上溢。进一步的运算会导致这
纳豆哥哥
·
2020-07-05 05:23
机器学习
深度学习笔记
(2) 概率与信息论
1.概率论与信息论概率论使我们能够作出不确定的声明以及在不确定性存在的情况下进行推理,而信息论使我们能够量化概率分布中的不确定性总量2.概率的意义(1)频率派概率:概率与事件发生的频率相联系(频率派把需要推断的参数θ看做是固定的未知常数,即概率θ虽然是未知的,但最起码是确定的一个值,同时,样本X是随机的,所以频率派重点研究样本空间,大部分的概率计算都是针对样本X的分布)(2)贝叶斯派概率:用概率来
纳豆哥哥
·
2020-07-05 05:23
机器学习
基础数学
生成对抗网络入门详解及TensorFlow源码实现--
深度学习笔记
生成对抗网络入门详解及TensorFlow源码实现–
深度学习笔记
一、生成对抗网络(GANs)生成对抗网络是一种生成模型(GenerativeModel),其背后最基本的思想就是从训练库里获取很多的训练样本
Doit_
·
2020-07-05 04:18
学习心得
深度学习(十八):人脸验证(face verification)和人脸识别(face recognition)
编程语言:Python参考资料:吴恩达老师的深度学习系列视频吴恩达老师
深度学习笔记
整理深度学习500问笔记下载:深度学习个人笔记完整版人脸验证(faceverification)和人脸识别(facerecognition
打不死的小黑
·
2020-07-04 18:19
深度学习
计算机视觉
李宏毅
深度学习笔记
(十)Anomaly Detection(异常检测)
什么是异常检测简单来说异常检测就是在一大堆数据中将正常的数据和异常的数据分开,把异常数据检测出来。具体方法就是通过训练集训练出一个可以用来做分类的函数。在进行异常检测的时候所提供的训练集有下面几种类型:1、训练集里面的样本都有标记,如果在测试集里根据分类函数分出来的某个样本不属于训练集里的任何一个类别则判定该样本为未知;2、训练集里所有样本均为正常样本;3、训练集里存在少许异常样本,但大多数均为正
comli_cn
·
2020-07-04 13:13
李宏毅深度学习
深度学习笔记
(1)——神经网络详解及改进
神经网络前言正文step1建立一个神经网络模型一个常见的神经网络——完全连接前馈神经网络本质举例:手写识别step2模型评估step3最佳模型——梯度下降反向传播($BP$)我们取出一个神经元进行分析ForwardPass$\frac{\partialz}{\partialw}$:BackwardPass$\frac{\partiall}{\partialz}$:利用keras建立神经网络深度学习
偶是等一下
·
2020-07-04 03:00
机器学习
ZYNQ DDR读写实验 与 简单的双核共享内存通信(LINUX + BARE METAL)
目录一、参考资料二、裸机下,读写DDR三、LINUX下,读写DDR四、简单的核间通信一、参考资料Zynq构建SoC系统
深度学习笔记
-03-PS读写DDR内存(1)通过devmem访问物理地址ZYNQ有两个
Ta o
·
2020-07-04 03:36
LINUX
ZYNQ-7000
深度学习笔记
(二)第二章 线性代数
标量(Scalars)矢量(Vector)矩阵(matrix)矩阵和矢量乘法C=AB2.4Hadamard积A(B+C)=AB+AC2.6A(BC)=(AB)C2.7单位矩阵单位矩阵和矩阵的逆线性依赖和空间(span)解决公式2.11是否有解的问题。一个有线性依赖的方阵叫奇异矩阵。范数(norms)p=2时叫欧几里得范数||x||p=1时也很重要p=max时也很重要弗罗贝尼乌斯范数特殊的矩阵和矢量
ouyangshixiong
·
2020-07-02 14:20
机器学习
31.Oracle
深度学习笔记
——RAC常用命令
31.Oracle
深度学习笔记
——RAC常用命令欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830875OracleClusterware
badman250
·
2020-07-02 13:38
深度学习笔记
——Word2vec和Doc2vec训练实例以及参数解读
使用的是Python版本的gensim库实现,想要了解Word2vec和Doc2vec的原理可以查看我的上一篇博客(
深度学习笔记
——Word2vec和Doc2vec原理理解并结合代码分析)。
mpk_no1
·
2020-07-02 12:21
deep
learning
深度学习
Word2vec
Doc2vec
深度学习笔记
——Yolo-v4编译,简单使用
参考:https://github.com/AlexeyAB/darknetSystem:Ubuntu16.04Cmake:cmake3.17.1cuda:cuda9.0+cudnn7.6.5没有安装ZED如果没有实验环境,可以参考这篇文章https://blog.csdn.net/king_700/article/details/105752886,安装其中的nvidia驱动,cuda和cudn
wind_700
·
2020-07-02 06:37
深度神经网络
吴恩达
深度学习笔记
(51)-归一化网络的激活函数(重要!)
归一化网络的激活函数(Normalizingactivationsinanetwork)在深度学习兴起后,最重要的一个思想是它的一种算法,叫做Batch归一化,由Sergeyloffe和ChristianSzegedy两位研究者创造。Batch归一化会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定,超参数的范围会更加庞大,工作效果也很好,也会使你的训练更加容易,甚至是深层网络。让我
极客Array
·
2020-07-02 05:52
深度学习笔记
(2)一个简单的分类器
说明在playground上有一些二维数据分类的例子,也比较好玩,本文就是来探讨如何对最简单的数据进行分类。只有一个隐含层1.生成随机数据x1=np.random.rand(100,2)*6x2=np.random.rand(100,2)*-6x_=np.vstack((x1,x2))y1=np.ones((100,1))y2=np.zeros((100,1))y_=np.vstack((np.h
无事扯淡
·
2020-07-02 00:46
上一页
22
23
24
25
26
27
28
29
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他