E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
W1
深度学习——张量概念的引入
如n1=x1*
w1
,等号右边的x1*
w1
miahhrgbfcyur
·
2018-12-28 16:18
王道机考系列——数据结构
构造哈夫曼树的算法描述如下:给定N个权值分别为
w1
,w2,…,Wn的节点。(1)将这N个结点分别作为N棵树仅含一个结点的二叉树,
GorMing
·
2018-12-28 16:41
王道机考系列
数据结构与算法 (七) 哈夫曼树(Huffman)与哈夫曼编码
树的路径长度是从树根到每一结点的路径长度之和,记为WPL=(
W1
*L1+W2*L2+W3*L3+...+Wn*Ln),N个权值Wi(i=1,2,...n)构成一棵有N个叶结点的二叉树,相应的叶结点的路
踏浪归来
·
2018-12-23 17:20
数据结构与算法
机器学习:生成式模型和判别式模型
举个例子,对于一个二分类问题:对于Y=f(x)形式的分类模型,如果输出Y大于某个阈值V就属于类
w1
,否则
_Yucen
·
2018-12-23 11:27
ML&DM
机器学习笔记
pytorch:线性回归实战
直观的看就是一张图上有很多散列的点我们要找一个函数来描述这种关系,而线性回归的话表示我们要找一个形如:f(x)=w∗x+bf(x)=w*x+bf(x)=w∗x+b这样的函数来描述这样关系,也可以写成:f(x)=
w1
sunidol
·
2018-12-22 11:30
深度学习
Self-Attention GAN的一些理解
说白了就是一句话,重新分配权重,比如说现在有一个n维向量[x1,x2,x3...,xn],我觉得x1的值不足以代表其真实情况,所以希望利用x2,...xn的值来对其进行“修补”,然后就是要找到一组权重
w1
Zamirquito
·
2018-12-20 10:07
python
deep
learning
cnn
tensorflow 恢复(restore)模型的两种方式
1.如何恢复模型有两种方式(这两种方式有比较大的不同):1.1重新使用代码构建图举个例子(完整代码):defbuild_graph():
w1
=tf.Variable([1,3,10,15],name='
DRACO于
·
2018-12-18 15:41
Python学习
深度网络压缩-参数剪枝一:Data-Free parameter pruning for deep neural networks
w1
=w4,这样就可以将其中一个去掉,将后面涉及到的权重相加,也就是图中的a1=a1+a4显著度权重向量的相似性度量,就是显著度。
星夜启航
·
2018-12-17 20:11
网络压缩
[tf]完成一个简单的模型
tf.float32,[None,28,28,1])t=tf.placeholder(tf.float32,[None,10])定义变量w=tf.Variable(tf.zeros([784,10]))
w1
VanJordan
·
2018-12-13 19:41
NLP 中的语言模型预训练&微调
在实践中,如果文本的长度较长,P(wi|
w1
,w2,...,wi−1)的估算会非常困难。因此,研究者们提出使用一个简化模型:n元模型(n-grammodel)。
Hi-Cloud
·
2018-12-13 16:23
NLP
python+opencv图像长宽xy和屏幕的对应
importcv2importnumpyasnpimg=cv2.imread('Parthenon.jpg')h,w,l=np.shape(img)(h1,
w1
)=img.shape[:2]#tupleprint
Nicolas Léon Deng
·
2018-12-05 10:42
空间艺术Raumkunst
主成分分析(PCA)
主成分分析的步骤:对所有的样本进行demean处理,我们想求一个轴的方向W=(
W1
,W2),使得我们所有的样本都映射到W方向以后有:主成分分析法的目标是要求一个方向向量W使得下面的式子达到最大:用梯度上升法来解决主成分分析的问题求
生命的呼喊
·
2018-12-02 18:42
装载问题-回溯法
有两艘货船,载重分别为
w1
、w2,物品总重量不超过载重总量w1+w2,问物品是否都可以装下。如,
w1
=w2=10,物品g1=g2=9,g3=2,则无法装下;
w1
=w2=5,w3=10,则可以装下。
塞上名猪
·
2018-12-01 23:43
算法
装载问题
回溯法
算法
自然语言处理(四)神经网络语言模型及词向量
统计语言模型是利用概率统计方法来学习参数p(wi∣
w1
…wi−1)p(w_i|w_1\dotsw_{i-1})p(wi∣
w1
…wi−1),神经网络语言模型则通过神经网络学习参数.统计语言模型的缺点平滑技术错综复杂且需要回退至低阶
JN_rainbow
·
2018-12-01 16:05
深度学习
自然语言处理
TensorFlow学习之LSTM ---语言模型(PTB数据集的处理)
计算perplexity值的公式如下:perplecity(S)=p(
w1
,w2,w3,...wm)=1p(
w1
,w2,w3
CharlesWu123
·
2018-11-30 17:52
自然语言处理
【清华AI自强计划-计算机视觉课程-第三讲课程笔记2】
如果启用隐藏层神经元,同时令
w1
和w2的绝对值相等,符号相反,并且s1和s2设置为不同取值,则就会出现形如方波信号的图像。再扩展一步,隐藏层每2个神经元可以画出一个形似方波信号的函
进击的MsCat
·
2018-11-26 21:03
机器学习
神经网络单层感知器的实现(python)
思路:二维数据,需要两个数据点,将神经元偏置设置成另一个输入点,一共需要三个输入点输入数据:(1,3,3),(1,4,3),(1,1,1)数据对应标签为(1,1,-1)初始化权值为w0,
w1
,w2为-1
ECJTU_ROBOT
·
2018-11-21 16:42
python3
神经网络
TensorFlow入门-06.一个完整的神经网络样例程序
importtensorflowastf#NumPy是一个科学计算的工具包,这里通过NumPy工具包生成模拟数据集fromnumpy.randomimportRandomState#2.定义神经网络的参数
w1
-江郎才尽-
·
2018-11-14 17:38
深度学习
tensorflow保存模型和恢复模型
保存模型
w1
=tf.placeholder("float",name="
w1
")w2=tf.placeholder("float",name="w2")b1=tf.Variable(2.0,name="
upDiff
·
2018-11-14 08:38
tensorflow
PyTorch学习:参数初始化
nn.Linear(2,4),#nn.Linear(2,4)shape为(4,2)nn.ReLU(),nn.Linear(4,5),nn.ReLU(),nn.Linear(5,2))#访问第一层的参数
w1
有点方
·
2018-11-13 17:57
算法
pytorch
pytorch系列6 -- activation_function 激活函数 relu, leakly_relu, tanh, sigmoid及其优缺点
只是将两个或多个线性网络层叠加,并不能学习一个新的东西,接下来通过简单的例子来说明一下:假设输入xxx第一层网络参数:
w1
=3,b1=1w_1=3,b_1=1w1=3,b1=1第二层网络参数:w2=2,
墨氲
·
2018-11-10 10:06
pytorch
记录
python3
pytorch0.4系列教程
神经网络中反向传播算法(backpropagation)的pytorch实现,pytorch教程中的代码解读以及其他一些疑问与解答
,D_in,H,D_out=4,10,8,5x=np.random.randn(N,D_in)#4x10y=np.random.randn(N,D_out)#4x5#print(x)#print(y)
w1
坎幽黑尔弥?
·
2018-11-03 11:43
深度学习
matlab图像操作与空间滤波
img1=imread(path1);img2=imread(path2);[h1,
w1
,i1]=size(img1);[h2,w2,i2]=size(img2);ifh1
Elenore1997
·
2018-11-01 20:50
matlab
图像处理
【机器学习】支持向量机(SVM)算法学习笔记
在样本空间中,超平面可用下面的方程描述:其中,w=(
w1
,w2,...,wd)为法向量,决定了超平面的方向。b为位移项,决定了超平面与原点之间的距离。样本
heiheiya
·
2018-10-25 00:00
机器学习
CTR 预测理论(六):神经网络损失函数与激活函数的选择及各自优缺点
1.梯度消失与梯度爆炸我们设第一层卷积的参数为(
W1
,b1)(W_1,b_1)(
W1
,b1)第二层卷积的参数是,(W2,b2)(W_2,b_2)(W2,b2)依次类推。
dby_freedom
·
2018-10-24 13:35
推荐系统理论进阶
CTR 预测理论(六):神经网络损失函数与激活函数的选择及各自优缺点
1.梯度消失与梯度爆炸我们设第一层卷积的参数为(
W1
,b1)(W_1,b_1)(
W1
,b1)第二层卷积的参数是,(W2,b2)(W_2,b_2)(W2,b2)依次类推。
dby_freedom
·
2018-10-24 13:35
推荐系统理论进阶
手动实现卷积神经网络中的卷积操作(conv2d)
卷积基础概念和操作步骤就不啰嗦了,只讲这张图,大意就是,有in-channel,有out-channel,你需要把in-channel都做卷积操作,然后产出out-channel,所以这个w是要层层拆解,w分拆成w0和
w1
秦伟H
·
2018-10-23 14:08
机器学习
tensorflow
深度学习
轻松上手TensorFlow
Tensor flow实现FCN和linear regression: Y=XW+b
加上偏置b,可以这样实现:x=[x1,x2,...,xN,1]第m列向量w=[
w1
,w2,...,wN,b]代码:X=tf.placeholder(tf.floa
Nicolas Léon Deng
·
2018-10-23 10:07
T型牌坊
医疗影像与人工智能
【TensorFlow】:一个二分类的例子
importtensorflowastffromnumpy.randomimportRandomState#定义训练数据batch的大小batch_size=8#随机初始化神经网络的参数
w1
=tf.Variable
BQW_
·
2018-10-20 22:35
TensorFlow
python学习 装饰器
print('---正在验证---')func()#闭包returninnerdeff1():print('-----f1-----')deff2():print('-----f2-----')f1=
w1
IWTK_wcl
·
2018-10-20 00:57
Pytorch 学习笔记:
--------------------------------------------------------------------w1.grad.zero_(): .zero_()的作用在计算完
w1
wzg2016
·
2018-10-19 17:06
pytorch
Tensorflow 实现迁移学习的例子
神经网络计算图如下,左分支是原始计算图,通过pb文件把该计算图算出来的网络参数和计算图保存,右边是迁移学习的计算图,它把左面学习出来的
w1
,b1读出来,以及
brooknew
·
2018-10-17 13:17
python
tensorflow
0/1背包问题
1.蛮力法伪代码:输入:重量{
W1
,W2,----Wn},价值{V1,V2,---Vn},背包容量C输出:装入背包的物品编号和最大价值1.初始化最大价值maxValue=0;结果子集S=Φ;2.对集合{
7900X
·
2018-10-15 11:07
#
算法
Tensor flow小案例——06识别手势
首先训练并保存模型这里保存模型的方法就是把权重和偏置保存到变量,载入的时候只载入了变量的值保存变量的方法就是,以初值的形式把训练好的权重和偏置的值赋给新定义的变量,并保存新变量,即:
W1
=tf.Variable
小鹏砸
·
2018-10-14 10:11
Tensor
Flow小案例
Python3 获取一大段文本之间两个关键字之间的内容方法
用re或者string.find.以下是re代码importre#文本所在TXT文件file='123.txt'#关键字1,2(修改引号间的内容)
w1
='123'w2='456'f=open(file,
丿灬安之若死
·
2018-10-11 14:20
Pytorch学习记录(二):关于Gradient
>>>importtorch>>>fromtorch.autogradimportVariable>>>
w1
=Variable(torch.Tensor([1.0,2.0
Never-Giveup
·
2018-10-08 22:23
Pytorch框架
[BZOJ2287][POJ Challenge 1009] 消失之物-题解
Descriptionftiasch有N个物品,体积分别是
W1
,W2,…,WN。由于她的疏忽,第i个物品丢失了。“要使用剩下的N–1物品装满容积为x的背包,有几种方法呢?”—这是经典的问题了。
dengping_ss
·
2018-10-07 10:23
动态规划
POJ
python语言特性之装饰器
通过一个例子解释python装饰器:#-*-coding:utf8-*-defw1(func): definner(*args,**kwargs): print'
w1
' func(*args
lovemysea
·
2018-10-07 00:23
python
Tensorflow 中滑动平均恢复到原变量的方法
saver将滑动平均恢复到变量采用这样的方法:saver=tf.train.Saver(ema.variables_to_restore())或用用字典算法:saver=tf.train.Saver({"
w1
brooknew
·
2018-09-29 17:47
tensorflow
【机器学习笔记20】神经网络(链式求导和反向传播)
【参考文献】【1】《面向机器智能的TensorFlow实践》4.7假设存在网络结果如下各个层输出定义L1=sigmoid(
w1
⋅x)L_1=sigmoid(w_1\cdotx)L1=sigmoid(
w1
FredricXU
·
2018-09-28 07:49
机器学习
机器学习笔记
反向传播公式推导
/welcome一、逻辑回归导数(单一样本)逻辑回归导数(单一样本).jpg通过链式求导法则求得损失函数L关于参数w,b的导数dw1=x1*dzdw2=x2*dzdb=dz对参数进行更新,α是学习速率
w1
Simple_isBeauty
·
2018-09-26 21:40
动态规划 - 01背包问题(Java实现)
【问题描述】一个旅行者有一个最多能装m公斤的背包,现在有n中物品,每件的重量分别是
W1
、W2、……、Wn,每件物品的价值分别为C1、C2、……、Cn,需要将物品放入背包中,要怎么样放才能保证背包中物品的总价值最大
Wimb
·
2018-09-25 19:43
Algorithm
大数据----机器学习---神经网络
个体间的信息交互方式是以我们大脑神经元为模板的,我们的大脑神经元如下所示:3.神经网络源头--M-P神经元模型M-P模型问题:•模型不能训练,也就是没有学习的过程:可以说不能称作是机器学习,上图中的w0,
w1
j_ys
·
2018-09-25 16:57
pytorch 损失函数总结
粗线是真实的线性方程,虚线是迭代过程的示意,
w1
是第一次迭代的权重,w2是第二次迭代的权重,w3是第
ShellCollector
·
2018-09-22 14:48
torch
13-tf.nn.batch_normalization(批量归一化)
2.对于两套权重参数,例如(
w1
:0.01,w2:10000,w3:0.01)和(
w1
:1,w
CDBmax数据分析服务:南枫木木
·
2018-09-17 23:39
深度学习
CONV 反向传播
1、输入层到卷积层的前向传播输入层到卷积层,采用的是局部连接,参数共享,卷积操作的方式,进行计算的,有个最好的说明就是cs231n笔记中的gif图,现展示如下:图中有两个卷积核,w0和
w1
,注:这两个卷积核是已经翻转过的
B1009
·
2018-09-17 18:44
机器学习
LSTM
简单的说法就是:RNN的弊端以及针对这一弊端提出的LSTMRNNLSTM:LongShort-TermMemory长短期记忆
w1
梯度爆炸因此RNN无法回忆起久远记忆-------------------
hebi123s
·
2018-09-17 12:15
莫烦
有趣的机器学习
文本相似度之LSI
在使用VSM做文本相似度计算时,其基本步骤是:1)将文本分词,提取特征词s:(t1,t2,t3,t4)2)将特征词用权重表示,从而将文本表示成数值向量s:(
w1
,w2,w3,w4),权重表示的方式一般使用
孤狼18
·
2018-09-15 11:00
LSI
学习很美,一起向前
W1
(电子技术)
时间:2018.9.10-9.14地点:Rohr主题:初识本中心、电子工业技术等摄影师:中德师培学习小组9.139.129.12德国教育体质探讨教师、校长、翻译图片发自App9.12图片发自App图片发自App9.119.149.109.10图片发自App开班第一天图片发自App图片发自App图片发自App图片发自App图片发自App机械实训室参观图片发自App图片发自App校长致欢迎词
张老师_酷
·
2018-09-14 22:01
Python matplotlib pylab 画张图
frompylabimport*
w1
=1w2=25fs=18y=np.arange(-2,2,0.001)x=
w1
*y*log(y)-1.0/w2*exp(-(w2*y-w2/exp(1))**4)plt.title
DarrenXf
·
2018-09-14 10:57
python
matplotlib
上一页
33
34
35
36
37
38
39
40
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他