E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Y_音响技术
Teacher Forcing策略在RNN的应用
RNN模型表示公式P(y1,y2,...,yT)=P(y1)∏t=2TP(yt∣y1,y2,...,yt−1)P(
y_
{1},
y_
{2},...,
y_
{T}
忘泪
·
2019-03-18 13:37
Teacher
Forcing
RNN
Deep
Learning
深度学习基础 - 直线
深度学习基础-直线邵盛松高中教科书《数学2必修》中的《直线的方程》74页点斜式方程k=y2−y1x2−x1k=\frac{
y_
{2}-
y_
{1}}{x_{2}-x_{1}}k=x2−x1y2−y1y2−
flyfish1986
·
2019-03-14 21:56
开源
深度学习基础
深度学习基础 - 导数
深度学习基础-导数邵盛松斜率(图片来自wiki)k=tanθ=y2−y1x2−x1=ΔyΔxk=\tan\theta=\frac{
y_
{2}-
y_
{1}}{x_{2}-x_{1}}=\frac{\Deltay
flyfish1986
·
2019-03-14 21:10
开源
深度学习基础
model.evaluate 和 model.predict 的区别
ntestloss',loss)print('accuracy',accuracy)model.predict输入测试数据,输出预测结果(通常用在需要得到预测结果的时候)#模型预测,输入测试集,输出预测结果
y_
云端浅蓝
·
2019-03-14 14:38
model.evaluate 和 model.predict 的区别
ntestloss',loss)print('accuracy',accuracy)model.predict输入测试数据,输出预测结果(通常用在需要得到预测结果的时候)#模型预测,输入测试集,输出预测结果
y_
云端浅蓝
·
2019-03-14 14:38
搭建神经网络的基本步骤
1搭建神经网络的步骤搭建神经网络,可分为四步完成:准备工作、前向传播、反向传播、循环迭代1-0准备工作导入模块,生成数据集import常量定义生成数据集1-1前向传播定义输入、输出和参数x=,
y_
=w1
倔强的大萝卜
·
2019-03-08 22:14
深度学习
tensorflow——常用损失函数
给定两个概率分布p和q,通过q来表示p的交叉熵为:在tensorflow中交叉熵,实现代码1:cross_entropy=-tf.reduce_mean(
y_
*tf.log(tf.clip_by_value
cherry1307
·
2019-03-07 11:37
TENSORFLOW
机器学习面试必知:XGBoost简介
而XGBoost在决策树构建阶段就加入了正则项即Lt=∑il(yi,Ft−1(xi)+ft(xi))+Ω(ft)L_{t}=\sum_{i}l(
y_
{i},F_{t-1}(x_{i})+f_{t}(x_
Neekity
·
2019-03-06 14:04
机器学习
面试
统计学习
文件定时备份并上传
/bin/shdateTime=`date+%
Y_
%m_%d`#当前系统时间days=7#删除7天前的备份数据sorowner=bakuser#备份到此用户下bakdescdir=/DATA/bakmdata
FunySunny
·
2019-03-04 21:58
运维
目标函数反向求道注意事项
我们会选择一个batch的数据,用其均值求梯度,进行优化#求batch内的均值cross_entropy=tf.reduce_mean(-tf.reduce_sum(
y_
*tf.log(y),reduction_indices
gukedream
·
2019-03-01 10:11
深度学习
机器学习面试必知:SVM回归的泛化
在简单的线性回归模型中,我们最小化一个正则化的误差函数12∑n=1N(yn−tn)2+λ2∣∣w∣∣2\frac{1}{2}\sum_{n=1}^{N}(
y_
{n}-t_{n})^{2}+\frac{\
Neekity
·
2019-02-28 21:14
机器学习
面试
统计学习
回归
李航.统计学习方法笔记+Python实现(2)第二章 感知机(perceptron)
函数:f(x)=sign(w∗x+b)f(x)=sign(w*x+b)f(x)=sign(w∗x+b)损失函数:L(w,b)=−Σyi(w∗xi+b)L(w,b)=-\Sigma{
y_
{i}
geekxiaoz
·
2019-02-25 20:27
机器学习面试必知:Adaboost算法的精确形式
初始化数据加权系数wn=1/Nw_{n}=1/Nwn=1/N对于m=1,...,Mm=1,...,Mm=1,...,M使用训练数据调节一个分类器ym(x)
y_
{m}(x)ym(x),调节的目标是最小化加权的误差函数
Neekity
·
2019-02-23 15:51
机器学习
面试
感知机算法
第2章感知机二分类模型f(x)=sign(w∗x+b)f(x)=sign(w*x+b)f(x)=sign(w∗x+b)损失函数L(w,b)=−Σyi(w∗xi+b)L(w,b)=-\Sigma{
y_
{i
Einstellung
·
2019-02-10 10:34
算法趣题
感知机算法
第2章感知机二分类模型f(x)=sign(w∗x+b)f(x)=sign(w*x+b)f(x)=sign(w∗x+b)损失函数L(w,b)=−Σyi(w∗xi+b)L(w,b)=-\Sigma{
y_
{i
Einstellung
·
2019-02-10 10:34
算法趣题
交叉熵 和 softmax 公式及 python 实现
(np.nan_to_num(-y*np.log(a)-(1-y)*np.log(1-a)))#tensorflowversionloss=tf.reduce_mean(-tf.reduce_sum(
y_
Xu Liu
·
2019-02-07 12:58
SecureCRT配置屏幕内容输出到log文件
SecureCRT看不到前几分钟操作的内容,或者想把通过vi命令查看的日志输出到log文件(在懒得下载日志文件的情况下),所以接下来就这样操作:文件保存路径C:\secureCRT\logs\session_%
Y_
haijiege
·
2019-01-17 18:37
工具使用
考研数学之高等数学知识点整理——12.空间解析几何与向量代数
1向量运算及其性质1.1向量的运算设a={x1,y1,z1},b={x2,y2,z2},c={x3,y3,z3}a=\{x_1,y_1,z_1\},b=\{x_2,y_2,z_2\},c=\{x_3,
y_
邻居家的二狗子
·
2019-01-15 22:30
考研数学
sklearn.metrics.r2_score
总体平方和(TotalSumofSquares):TSS=∑i=1n(yi−yiˉ)2TSS=\sum_{i=1}^{n}\left(
y_
{i}-\bar{
y_
{
Dear_D
·
2019-01-09 13:02
sklearn
sklearn.metrics.r2_score
总体平方和(TotalSumofSquares):TSS=∑i=1n(yi−yiˉ)2TSS=\sum_{i=1}^{n}\left(
y_
{i}-\bar{
y_
{
Dear_D
·
2019-01-09 13:02
sklearn
date命令&错误
=date+%Y+%m+%d[root@oldboy56-201~]#date+%F#这里是有空格的2018-12-28date+%Y+%m+%d[root@oldboy56-201~]#date+%
Y_
blackBrock
·
2018-12-28 21:19
liunx基础
cross_entropy = -tf.reduce_mean(
y_
* tf.log(tf.clip_by_value(y,1e-10,1.0)))#交叉熵含义
转载:https://blog.csdn.net/weixin_38195506/article/details/75302445神经网络模型的效果以及优化目标是通过损失函数(lossfunction)来定义的。分类问题和回归问题有很多经典的损失函数。分类问题和回归问题是监督学习的两大种类。分类问题希望解决的是将不同的样本分到事先定义好的类别中。再这种问题下,需要将样本二分类(多分类)。手写字体识
qq_1410888563
·
2018-12-15 23:49
tensorflow 笔记(3):神经网络优化
有效避免仅适用线性组合,提高了模型的表达力,使模型有更好的区分力.神经网络复杂度:多用NN层数和NN参数的个数表示.层数=隐藏层的层数+1个输出层总参数=总W+总b损失函数(loss):预测值(y)与已知答案(
y_
Jaykie_
·
2018-12-11 00:48
tensorflow笔记
差分方程基础知识备注
以二阶差分为例:yt+2+a(t)yt+1+b(t)yt=f(t)
y_
{t+2}
FredricXU
·
2018-11-13 17:36
数学
RNN中梯度消失和爆炸的问题公式推导
RNN简单公式定义ht=W∗f(ht−1)+W(hx)∗x[t]h_t=W*f(h_{t-1})+W^{(hx)}*x_{[t]}ht=W∗f(ht−1)+W(hx)∗x[t]yt=W(S)∗f(ht)
y_
alwaysRememberrr
·
2018-11-08 12:03
神经网络
【Tensorflow】 tf.equal(tf.argmax(y, 1),tf.argmax(
y_
, 1))用法
【Tensorflow】tf.equal(tf.argmax(y,1),tf.argmax(
y_
,1))用法作用:输出正确的预测结果利用tf.argmax()按行求出真实值
y_
、预测值y最大值的下标,用
ZHANGHUIHUIA
·
2018-11-06 11:30
TensorFlow
深度学习
人工智能
opencv
X
Y_
数据集 深度学习
#-*-coding:utf-8-*-"""CreatedonThuNov112:24:342018@author:Administrator"""importtensorflowastfimportnumpyasnpnp.set_printoptions(threshold=np.inf)#全部输出SEED=23455rdm=np.random.RandomState(SEED)#基于seed产
weixin_33595571
·
2018-11-05 00:54
代码
X
Y_
数据集
TensorFlow神经网络(三)神经网络优化
ce=tf.reduce_mean(
y_
*tf.log(tf.clip
petSym
·
2018-11-02 12:54
python
tensorflow
machine
learning
时间序列笔记
.+(−1)nCnnyx\Delta^{n}
y_
{x}=(-1)^{0}C_{n}^{0}
y_
{x+n}+(-1)^{1}C_{n}^{1}
y_
{x+n-1}+(-1)^{2}C_{n}^{2}
y_
{x
ArchonGum
·
2018-10-26 10:20
时间序列
时间序列
ML--广义线性回归(线性回归、逻辑回归)
1.线性回归1.1线性模型(LinearModel)给定数据集D={(x1,y1),(x2,y2),(x3,y3),...,(xm,ym)}D=\left\{\left(x_{1}\mathbf{},
y_
no0758
·
2018-10-08 16:07
机器学习
linux使用date命令获取系统时间
date用法:date[OPTION]…[+FORMAT]date[-u|–utc|–universal][MMDDhhmm[[CC]YY][.ss]]直接输入datedate指定格式显示时间:date+%
Y_
tinysakurac
·
2018-09-30 15:30
linux
机器学习笔记 tensorflow mnist上实现CNN网络
importtensorflowastfimportinput_datamnist=input_data.read_data_sets("MNIST_data/",one_hot=True)x=tf.placeholder("float",[None,784])
y_
Avlon
·
2018-09-05 14:51
机器学习
CNN神经网络优化常用函数范式一览(损失函数loss,学习率learning_rate,滑动平均ema,正则化regularization)
###一.损失函数(loss):预测值y与已知答案
y_
的差距神经网络优化目标即找到适合的w以减小loss,有三种减小loss的方法1.均方误差mse(MeanSquaredError)2.自定义损失函数
dolor_059
·
2018-08-27 00:06
tensorflow
tensorflow (2) 简单的回归问题
3.用tf定义一个线性模型,其中w,b随机生成4.根据输入x,得到输出
y_
,再根据y和
y_
求出损失值loss,梯度反向优化w,b#-*-coding:UTF-8-*-importtensorflowastfimportnumpyasnpimportmatplot
摸愚校尉
·
2018-08-16 17:00
deep
learning
用原生Tensorflow编写的Inception-ResNet-V1网络(想了解模型实现细节的看)
128IMAGE_WID=128IMAGE_CHA=3CLASS_NUM=2X=tf.placeholder(tf.float32,[None,IMAGE_HEI,IMAGE_WID,IMAGE_CHA])
Y_
guoyunfei20
·
2018-08-15 18:18
机器学习
深度学习基础理论
SecureCRT配置操作日志及自动输出
详细图解记录一下如何实现自动记录日志详细图解选项->全局选项->常规->默认会话->编辑默认设置设置log文件属性,保存位置日志文件名:D:\SecureCRTSecureFXPortable\log\%
Y_
ymxowgk
·
2018-08-12 23:10
经验分享
Linux运维学习之路
Linux运维学习之路
python文件路径拼接日期以换名
/data/a%s.log"%time.strftime("%
Y_
%m_%d_%H_%M_%S")print(file_name)
magiczero
·
2018-08-10 23:06
gym 自动打包脚本
/bin/bash#计时SECONDS=0#假设脚本放置在与项目相同的路径下project_path=$(pwd)#取当前时间字符串添加到文件结尾now=$(date+"%
Y_
%m_%d_%H_%M_%
iOS大叔
·
2018-08-04 18:06
mac
工具
神经网络优化----正则化 (正则化损失函数)
在神经网络优化中,通过对损失函数进行正则化来缓解过拟合方法:通过在损失函数中引入模型复杂度指标,利用给W加权值,弱化了训练数据的噪声公式为:loss=loss(y与
y_
)+regularizer*loss
摒除杂念
·
2018-08-01 09:01
深度学习
Monkey,重定向,结果没加2>&1 &,造成哥哥的monkey都不开心了,CRASH日志没有重定向进去,差点气疯我
importosimporttimeimportdatetimenowTime=time.strftime('%
Y_
%m_%d_%H_%M_%S',time.localtime(time.time())
叫我王员外就行
·
2018-07-31 19:55
Android
Monkey
神经网络优化-------自定义损失函数
神经网络优化中,自定义损失函数更灵活例如酸奶销售,生产多了损失成本,生产少了,损失利润,假设生产成本COST为1元,利润PROFIT为9元,实际生产数量为y,市场需求量为
y_
则损失为分段函数,损失为loss
摒除杂念
·
2018-07-30 09:46
深度学习
使用TensorFlow卷积网络对MNIST进行分类
占位符x的含义为训练图像,
y_
为对应训练
BruceCheen
·
2018-07-19 18:44
学习笔记
定时备份mysql数据库压缩文件
/bin/bash#设置文件名中的时间格式date=`date+%
Y_
%m_%d`#mysqldump命令需使用绝对路径否则无法正确执行/usr/local/mysql/bin/mysqldump-uusername-ppassworddatabase
懒驴打滚
·
2018-07-19 12:53
MySQL
备份
crontab
[ MOOC课程学习 ] 人工智能实践:Tensorflow笔记_CH4_4 正则化
使用正则化后,损失函数loss变为两项之和:loss=loss(y与
y_
)+REGULARIZER*loss(w)其中,第一项是预测结果与标准答案之间的差距,如交叉熵、均方误差等;第二项是正则化
一颗Lychee
·
2018-07-18 11:46
tensorflow
成都丰田汉兰达汽车音响改装_小炸弹隔音_丹拿236
成都九戈汽车音响改装店对丰田各个品牌的车型都有着丰富的汽车音响改装经验以及改装实例,拥有汽车音响改装技术实力雄厚的
音响技术
改装团队,车主经过网络咨询相关的音响改装问题,也曾到店试听过不同产品的出声效果,
成都九戈汽车音响隔音改装
·
2018-07-11 15:08
python实现基本的机器学习算法系列(2):logstic回归
fromsklearn.datasetsimportmake_blobsfromsklearn.model_selectionimporttrain_test_splitimportmatplotlib.pyplotaspltimportnumpyasnpX,
y_
Kerrwy
·
2018-06-28 23:09
python
机器学习
神经网络实现mnist_详细注释版(附数据集下载地址)
importinput_dataimporttensorflowastfsess=tf.InteractiveSession()x=tf.placeholder("float",shape=[None,784])
y_
CoderLife_
·
2018-06-27 18:03
Tensorflow
TensorFlow学习5:神经网络优化
损失函数用来预测表示预测值(y)与已知答案(
y_
)的差距。在训练神经网络时,通过不断改变神经网络中的所有参数,使损失函数不断减小,从而训练出更高准确率的神经网络模型。
崔业康
·
2018-06-14 15:37
曲线切线的定义和导数(极限)
\(P(x_{0},
y_
{0})\)和\(Q(x_{0}+\Deltax,
y_
{0}+\Deltay)\)分别是上图曲线上不同的两点(这意味着\(\Deltax\neq0\)),Q可以选在P的右边也可以选在左边
iMath
·
2018-05-13 10:00
Tensorflow 神经网络搭建
迭代优化NN参数NN反向传播算法->优化参数训练模型4.使用训练好的模型预测和分类神经网络搭建八股0.准备import相关模块常量定义有些时候需要生成数据集1.前向传播:定义输入、参数和输出输入x=标准答案
y_
BeautyJingJing
·
2018-05-06 19:05
tensorflow
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他