E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
W1
文本相似度之LSI
在使用VSM做文本相似度计算时,其基本步骤是:1)将文本分词,提取特征词s:(t1,t2,t3,t4)2)将特征词用权重表示,从而将文本表示成数值向量s:(
w1
,w2,w3,w4),权重表示的方式一般使用
孤狼18
·
2018-09-15 11:00
LSI
学习很美,一起向前
W1
(电子技术)
时间:2018.9.10-9.14地点:Rohr主题:初识本中心、电子工业技术等摄影师:中德师培学习小组9.139.129.12德国教育体质探讨教师、校长、翻译图片发自App9.12图片发自App图片发自App9.119.149.109.10图片发自App开班第一天图片发自App图片发自App图片发自App图片发自App图片发自App机械实训室参观图片发自App图片发自App校长致欢迎词
张老师_酷
·
2018-09-14 22:01
Python matplotlib pylab 画张图
frompylabimport*
w1
=1w2=25fs=18y=np.arange(-2,2,0.001)x=
w1
*y*log(y)-1.0/w2*exp(-(w2*y-w2/exp(1))**4)plt.title
DarrenXf
·
2018-09-14 10:57
python
matplotlib
python版本的非极大值抑制(nms)的简单实现
nms代码:#--*--coding:utf8--*--importoperatorimportnumpyasnpdefiou(box1,box2):x1,y1,
w1
,h1,s1=box1x2,y2,w2
Nichopls
·
2018-09-14 10:50
深度学习
神经网络 感知机 Perceptron python实现
importnumpyasnpimportmatplotlib.pyplotaspltimportmathdefcreate_data(
w1
=3,w2=-7,b=4,seed=1,size=30):np.random.seed
DarrenXf
·
2018-09-13 13:55
神经网络
神经网络 感知机 Perceptron python实现
importnumpyasnpimportmatplotlib.pyplotaspltimportmathdefcreate_data(
w1
=3,w2=-7,b=4,seed=1,size=30):np.random.seed
DarrenXf
·
2018-09-13 13:55
神经网络
【基于深度学习的细粒度分类笔记8】深度学习模型参数量(weights)计算,决定训练模型最终的大小
featuremap大小计算输入:N0*C0*H0*W0输出:N1*C1*H1*
W1
输出的featuremap大小:H1=(H0+
马卫飞
·
2018-09-12 14:54
动手实现Logistic Regression
预测时,首先计算其中x为训练样本,x=(x1,x2,…,xn),w为权重矩阵,w=(w0,
w1
,…,wn),x0一般设为1,x0w0称为偏置项(说
Joker_sir5
·
2018-09-09 00:03
AirPods 一周年使用体验:个人最喜欢的苹果产品
光学传感器,加速感应器,麦克风,电池,天线,
W1
芯片一应俱全。正所谓麻雀虽小,五脏俱全。而如此高的集成度,势必会导致维修困难,可以不夸张的说修就别想了
特立独行的猪宝宝
·
2018-09-05 17:22
二分类神经网络
-输出层图1.4输出-激活2源码及解析importtensorflowastffromnumpy.randomimportRandomState#每批训练数据的量(多少)batch_size=8#权重
w1
xdq101
·
2018-09-04 14:22
神经网络
OPPO O-Free:真无线是趋势,它是个注重音质的「偏科」生
尽管AirPods是2016年随iPhone7一起推出的,可凭借苹果自主研发的
W1
芯片,使得AirPods在连接速率、稳定性、续航方面仍在同类产品中处于难以撼动的优势,能与其竞争的产品微乎其微。
ZAEKE知客
·
2018-09-03 10:29
pytorch实现多项式拟合
首先给出真值多项式参考方程:其对应参数形式为:程序实现思路为:根据方程1,给定一些列(假如默认是32个)(x,y)对应点集,及最小均方差为目标,求解最佳参数(
w1
,w2,w3,b)。
The_Matrix_
·
2018-09-02 18:03
Pytorch
tensorflow中卷积方式SAME和VALID特征图大小计算
后特征图大小计算卷积方式:SAME(卷积后的特征图大小跟卷积核大小无关,只跟卷积所用的步长有关,当卷积步长是1时,卷积前后特征图大小保持不变)输入特征图大小:W×H卷积核大小:k×k卷积步长:s×s输出特征图大小:
W1
-牧野-
·
2018-09-02 17:55
tensorflow
数学之美:统计语言模型
一个有意义的句子是由一定顺序的词组成,则一个句子出现的可能性可以使用如下表示:这是典型的条件概率理论,也就是说当我们知道第一词
w1
后,要预测下一个w2的概率时是在基于已知词
w1
的情况下预测的。
青盏
·
2018-08-26 00:47
beautiful
math
数学之美读记
数字图像处理——相关检测
相关值计算公式:Matlab代码:clear,clc;car=imread('car.png');mask=imread('wheel.png');[h1,
w1
]=size(car);[h2,w2]=size
Lee_01
·
2018-08-20 20:45
数字图像处理
【考题 题解】 数字游戏
题目描述HL中学茶余饭后喜欢玩游戏,一个游戏规则如下:共两人参加游戏,若第一个人当前手中的数为
w1
,则下一秒他手上的数将会变成(x1w1+y1)modm;若第二个人当前手中的数为w2,则下一秒他手上的数将会变为
pigzhouyb
·
2018-08-19 15:12
如何输出查看tensorflow内的变量值
print函数打印的只是变量的结构,要想查看tensorflow内的变量值可以用以下方法1.用tf.Session()函数importtensorflowastf#sess=tf.Session()#
w1
sa726663676
·
2018-08-19 09:44
tensorflow
python
神经网络
机器学习(一):快速入门线性分类器
线性关系公式:f(w,x,b)=w^tx+bx=(x1,x2,…xn)代表n维特征列向量,w=(
w1
,w2,…wn)代表对应的权重(系数coeffient),同时为了避免其过坐标原点这种硬性假设,增加一个截距
Cyj2328499
·
2018-08-18 21:31
机器学习
机器学习(一):快速入门线性分类器
线性关系公式:f(w,x,b)=w^tx+bx=(x1,x2,…xn)代表n维特征列向量,w=(
w1
,w2,…wn)代表对应的权重(系数coeffient),同时为了避免其过坐标原点这种硬性假设,增加一个截距
Cyj2328499
·
2018-08-18 21:31
机器学习
Python搭建神经网络
以三层神经网络为例:h1=x.dot(
w1
)+b1,h2=h1.dot(w2)+b2,scores=h2.dot(w3)+b3批量归一化批量归一化这一步骤在线性函数和激活函数之间,将h1=x.dot(
w1
一个小目标everyday
·
2018-08-15 22:19
正则化L1 regularization、L2 regularization、Dropout
L′(θ)=L(θ)+λ∣∣θ∣∣θ={
w1
,w2,...,wn}L'(\theta)=L(\theta)+{\lambda}||\theta||\\\theta=\{w_1,w_2,...,
Saul Zhang
·
2018-08-12 16:33
Pytorch学习
深度学习笔记
upc 6910 洗衣服(贪心 优先队列)
第二行有n个整数
w1
,w2,...,wn。第三行有m个整数d1,d
Destinymiao
·
2018-08-07 21:38
贪心
【PTA】到底是不是太胖了
真实体重与标准体重误差在10%以内都是完美身材(即|真实体重−标准体重|=(
w1
*0.1))&&w=(
w1
*0.1))&&
w1
>w是我用的方法,网上还有许多方法值得参考。
-believe-
·
2018-08-05 00:00
PAT#C语言基础
01背包及其变式 UVA12536 HDU2126
概念:01背包是在M件物品取出若干件放在空间为W的背包里,每件物品的体积为
W1
,W2至Wn,与之相对应的价值为P1,P2至Pn。01背包是背包问题中最简单的问题。
D_HSCheng
·
2018-08-01 16:57
dp
01背包及其变式 UVA12536 HDU2126
概念:01背包是在M件物品取出若干件放在空间为W的背包里,每件物品的体积为
W1
,W2至Wn,与之相对应的价值为P1,P2至Pn。01背包是背包问题中最简单的问题。
D_HSCheng
·
2018-08-01 16:57
dp
TensorFlow 深度学习框架(14) -- 使用 RNN 进行自然语言建模
把句子看做是单词的序列,于是自然语言模型计算的就是p(
w1
,w2,..wn)。利用语音模型,可以确定哪个单词序列出现的可能性更大,或者给定若干个单词,可以预测下一个最可能出现的词语。
ouprince
·
2018-07-31 19:02
TensorFlow
深度学习笔记
文本相似度bm25算法的原理以及Python实现(jupyter notebook)
其实这个算法的原理很简单,就是将需要计算的query分词成
w1
,w2,…,wn,然后求出每一个词和文章的相关度,最后将这些相关度进行累加,最终就可以的得到文本相似度计算结果。
深圳湾刘能
·
2018-07-31 10:54
NLP
机器学习入门-支持向量机
WTX+b=0WTX+b=0其中w=(
w1
;w2;...;wd)w=(
w1
;w2;...;wd)是法向量,决定了超平面的方向。b是位移项,决定了超平面与远点的距离。显然划分超平面可以被法向量w和
CallMeSP
·
2018-07-24 21:41
SVM
支持向量机
机器学习
机器学习入门
吴恩达.深度学习系列-C2神经网络进阶-
W1
神经网络实践
学习目标1.设置你的机器学习程序1.1.训练集/开发(验证)集/测试集1.2.偏差-方差困境1.3.机器学习的基本准则2.Regularizingyourneuralnetwork2.1.范数的介绍2.2.正则化2.3.为什么正则化能减少过拟合?2.4.DropoutRegularization2.5.UnderstandingDropout2.6.Otherregularizationmetho
路飞在福州
·
2018-07-22 19:50
DeepLearning
coursera
吴恩达
深度学习教程学习笔记
使用pytorch内置的自动求导写的BP算法
https://blog.csdn.net/zhaomengszu/article/details/77834845此代码参考上面的文章写的,包括
W1
,W2,H,O,B都一样。
啊罗罗
·
2018-07-19 01:53
pytorch
tensorflow矩阵相乘问题
我想定义一个1行2列的数组x和一个2行3列的数组
w1
相乘:[In]x=np.array([0.7,0.9])x.shape[Out](2,)这里说明定义的x是一个2行的数组而我们原意时想定义一个1行2列的数组
二月七
·
2018-07-18 10:42
Tensorflow
PyTorch (莫烦)中
4.2RNN(一般是用于时间序列的数据)循环神经网络让神经网络有了记忆,对于序列话的数据,循环神经网络能达到更好的效果.几个缺点:[1]梯度弥散(消失)反向传播时
W1
每次误差乘以大于1的数,就会逐渐的趋于无穷大
爬坡少女
·
2018-07-10 16:29
pytorch
机器学习(五)降维
使得降维后的数据与源数据平方误差最小(投影到低维子空间中,使得原始数据在这个子空间的各个方向方差最大化)从最大重构性推导: 假设样本进行了中心化,∑ixi=0∑ixi=0,假设投影变换后得到的新坐标系为{
w1
Dynomite
·
2018-07-09 16:22
机器学习
机器学习(五)降维
使得降维后的数据与源数据平方误差最小(投影到低维子空间中,使得原始数据在这个子空间的各个方向方差最大化)从最大重构性推导: 假设样本进行了中心化,∑ixi=0∑ixi=0,假设投影变换后得到的新坐标系为{
w1
Dynomite
·
2018-07-09 16:22
机器学习
笔记(总结)-神经语言模型和词向量
可以看到,最终对句子的建模为(以二元文法为例):P(S)=p(
w1
)p(w2|
w1
)...p(wn|wn−1)P(S)=p(
w1
)p(w2|
w1
)...p(wn|wn−1)核心问题在于如何计算参数p(wi
ZSYGOOOD
·
2018-07-09 16:36
笔记
科研
算法
论文
机器学习相关
长篇
AI
For
peri
简单神经网络解决二分类问题示例(Tensorflow)
tf.Session)并在训练数据上反复运行反向传播优化算法importtensorflowastffromnumpy.randomimportRandomStatebatch_size=8#定义神经网络参数
w1
鲁班班班七号
·
2018-07-02 21:04
神经网络
《机器学习(周志华)》——第3章 线性模型
1、线性模型基本形式给定有d个属性描述的示例x=(x1,x2,……,xi),其中xi是x在第i个属性上的取值,w=(
w1
,w2,……,wi),则可以表示为线性关系:2、线性回归(linearregression
Zessay
·
2018-06-29 17:12
机器学习
简单背包问题
简单背包问题1000(ms)65535(kb)1438/6830Tags:搜索设有一个背包可以放入的物品重量为S,现有n件物品,重量分别是
w1
,w2,w3,…wn。
CGD_ProgramLife
·
2018-06-28 15:11
背包问题
算法分析
c/c++
算法分析
TensorFlow实战:入门
我们这里详细了解一下计算图的使用.计算图的简单示例通过变量实现神经网络前向传播过程#coding:utf8importtensorflowastf#声明
w1
,w2两个变量,这里还通过seed参数设定随机种子
频率52HZ
·
2018-06-25 20:55
深度学习
tensorflow
模拟数据集上训练神经网络,网络解决二分类问题练习
importtensorflowastffromnumpy.randomimportRandomState#Numpy是一个科学计算工具包,这里用来生成随机数#每批次需要8组数据batch_size=8#声明参数
w1
湾区人工智能
·
2018-06-25 15:09
AI项目
感知器学习算法(PLA)及python实现
LTU计算其输入的加权和(z=
W1
×1+W2×2+…++WN×n=Wt·x),然后将阶跃函数应用于该和,并输出结果:HW
卡布达打小怪兽_Cheer
·
2018-06-24 16:20
多个装饰器,装饰一个函数
("结束")returnnet1defw2(fune):print("----日志2----")defnet2():print("---调用2----")fune()returnnet2@w1#f1=
w1
L冰水混合物
·
2018-06-22 18:58
python实现余弦相似度文本比较
VSM的例子:比如说,一个文档有分词和去停用词之后,有N个关键词(或许去重后就有M个关键词),文档关键词相应的表示为(d1,d2,d3,...,dn),而每个关键词都有一个对应的权重(
w1
,
w1
,...
醉曦
·
2018-06-21 15:00
线性回归、逻辑回归和感知机的区别
训练目标:根据训练数据学习参数(
w1
,w2,...,wn,b)学习策略:要确定参数(w
ZLuby
·
2018-06-20 23:57
机器学习
图
2.广度遍历算法广度优先搜索的思想:①访问顶点vi;②访问vi的所有未被访问的邻接点
w1
,w2,…wk;③依次从这些邻接点(在步
wangdan1
·
2018-06-18 21:00
【USACO4-3-1】追查坏牛奶Pollutant Control 最小割
题目把所有边的权值都乘以一个较大的数mod+1,这样结果求出的最大流ans/mod就是最大流就是最小割,假设最小割的边为w1+w2+w3+w4+……那么ans=
w1
*mod+1+w2*mod+1……所以
Mininda
·
2018-06-18 14:31
USACO
图论-网络流
博客作业06--图
具体有:深度遍历算法:DFS在访问图中某一起始顶点v后,由v出发,访问它的任一邻接顶点
w1
;再从
w1
出发,访问与
w1
邻接但还没有访问过的顶点w2;然后再从w2出发,进行类似的访问,…如此进行下去,直至到达所有的邻接顶点都被访问过的顶点
不是本人
·
2018-06-17 21:00
博客作业06--图
广度遍历的思想:①访问顶点vi;②访问vi的所有未被访问的邻接点
w1
,w2,…wk;③依次从这些邻接点(在
千辰烊烊
·
2018-06-17 19:00
哈夫曼树及哈夫曼编码详解【完整版代码】
假设有n个权值{
w1
,w2,...,wn},如果构造一棵有n个叶子节点的二叉树,而这n个叶子节点的权值是{
w1
,w2,...,wn},则所构造出的带权路径长度最小的二叉树就被称为赫夫曼树。
wardseptember
·
2018-06-17 11:30
机器学习-周志华 学习笔记3
章线性模型3.1基本形式给定由d个属性描述的示例x=(x1;x2;…;xd),其中xi是x在第i个属性上的取值,线性模型(linearmodel)试图学得一个通过属性的线性组合来进行预测的函数,即f(x)=
w1
时间刻沙
·
2018-06-13 16:52
机器学习
上一页
34
35
36
37
38
39
40
41
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他