E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
MLE
2019/8/23 第一场网络赛 总结
00--17:00结果:一道题目没有今天没有按照教练的意思自己队伍做自己的,而是整个实验室一起做的,因为签到题我们出的比较慢,就没有再看签到题,然后每支队伍选道题目开始做,我们选的题目开始题意读错后来又
MLE
sdau_fangshifeng
·
2020-08-04 18:12
ACM训练日记
八天集训心得
每天去吉大早8点到晚9点感觉略有疲惫,但是还是有所收获.首先先总结一些我和童鞋们常犯的错误吧.1.freopen没注释2.忘删调试信息3.多组数据没有换行与空格4.读题的漏洞与失误5.注意
MLE
6.答题时把握好策略
zyq_20030305
·
2020-08-04 10:55
总结
算法
HDOJ-1010(DFS + 奇偶剪枝)
刚开始忘了判断是否在过程中路过终点(这也是要剪枝的,因为所有点只能访问一次),各种TLE,然后试图加路径记录用map存储,结果各种
MLE
,也不知道怎么的,突然想起来终点必须要最后访问,加上这条判断就A了
还有多远
·
2020-08-04 03:45
DFS
每天A一道题
【2019暑假集训】07.06比赛总结
但是我枚举的方式有问题导致常数很大,居然
MLE
了!!!T2(沼泽鳄鱼):一眼就是矩阵乘法,直接暴力模拟矩阵即可。将12作为一个周期。T3(项链工厂):显然可以线段树,翻转
YiPeng_Deng
·
2020-08-03 23:28
总结反思
Generative Adversarial Network for Abstractive Text Summarization∗ AAAI2018
挑战:神经序列到序列模型往往会产生琐碎的、通用的总结,通常涉及高频短语生成的摘要语法性和可读性有限在大多数以前的工作中,标准的序列到序列模型被训练来使用最大似然估计(
MLE
昕晴
·
2020-08-03 23:54
论文笔记
每日论文
hdu 1251 字典树,指针版
这题内存需求很大,我用静态数组写的trie总
MLE
,看discuss说50w的数组才过,但我一开50w的就
MLE
了啊……想不通这是链表版的trie,1个case,所以也不用考虑内存释放什么的#include
iteye_9368
·
2020-08-03 18:50
【The 18th Zhejiang University Programming Contest Sponsored by TuSimple - C】Mergeable Stack(list)
栈的个数n和操作次数p最大为3e5.分析:当时就直接用stack,
MLE
,改vector来模拟,也是
MLE
,然后想到的是手动建立栈(用数组模拟)https://blo
feng_zhiyu
·
2020-08-03 16:31
ACM_STL
ACM_训练赛
EM算法---基于隐变量的参数估计
EM算法算是机器学习中有些难度的算法之一,也是非常重要的算法,曾经被誉为10大数据挖掘算法之一,从标题可以看出,EM专治带有隐变量的参数估计,我们熟悉的
MLE
(最大似然估计)一般会用于不含有隐变量的参数估计
XGBoost
·
2020-08-03 05:49
机器学习
cf888G Xor-MST 异或最小生成树
ai≤230Solution不妨从高到低贪心,我们把最高位按01分开两半分治,跨越两半的就在trie上贪心,这样做是O(nlog2n)O(n\log^2n)O(nlog2n)的一开始分治结束条件漏了
MLE
olahiuj
·
2020-08-01 12:22
c++
分治
贪心
trie
最小生成树
EM和PCA和LDA和Ensemble Learning
EM琴生不等式JensenInequality参考下图黑洞传送门
MLE
最大似然估计一个数据集出现了,我们就最大化这个数据集的似然概率。数据集中每个点都是独立出现的,因此可以概率连乘。
大宝贝儿的波妞
·
2020-08-01 10:20
机器学习
pca降维
机器学习
监督学习
文章目录1.监督学习特点2、线性模型2.1线性回归2.2逻辑回归3.支持向量机SVM3.1最优间隔分类器3.2核函数4.贝叶斯分类器4.1极大似然估计
MLE
4.2朴素贝叶斯分类器5.集成学习5.1装袋算法
分别,是为了更好的相遇。
·
2020-08-01 09:43
深度学习笔记
hdu5412--CRB and Queries(整体二分)
题目链接:点击打开链接题目大意:给出n个数的初始序列,有两种操作,1lv将第l个数换成v,2lrk问在区间[l,r]内的第k大是多少,并输出经典的题目,但是树状数组+主席树(TLE)伸展树(
MLE
),听说他们用的块状链表
刀刀狗0102
·
2020-08-01 02:01
求解策略
数据结构
hdu 4906——Our happy ending
没有优化空间导致
MLE
了一次。在求可以到达的状态的时候,一位一位来求没有直接一次位移解决TLE了一次。。。代码如下:#inclu
ACM_Nestling
·
2020-08-01 01:46
dp
HDU
A. Remove a Progression
*///一开始用map开了个
MLE
了//然后弄了一个1到n的循环,超时了//后来才找到规律,真的是wa了好几发#include#includ
YoRoll_町
·
2020-07-31 13:38
codeforces
[jzoj NOIP2018模拟 11.01]
想必是比上次惨的,考场上就写了两题而这两题都因为
MLE
爆零了。而且我T2还码了7k自信满满可以A掉,但实际上因为常数太大解决掉
MLE
的锅之后也只有50分,以后大概要失去在考场上码300多行的勇气了。
weixin_30598225
·
2020-07-30 02:53
数据结构与算法
第十四届黑龙江省大学生程序设计竞赛游记 队伍名:可持久化金清树
挖坑填坑2019.05.13热身赛忘记测环境了真是尴尬问学长知道如果
MLE
会返回RE然后正式赛赛前失眠只睡了3个小时早上起床还留了好多鼻血开场前说了几句策略感觉没啥问题然后比赛就开始了开始翻题面的时候我翻到了
ljq--linuxer
·
2020-07-29 10:45
比赛游记
ACM
心路历程
主席树/函数式线段树/可持久化线段树
我们当然可以对每个状态都造一棵完整的线段树,但是显然会
MLE
啊,怎么办?
linkfqy
·
2020-07-29 05:11
算法
数据结构心得
我的OI历程
2018年清华大学软件学院夏令营机试题解
我觉得作为一道正常的题目,a到1e7就够了吧,硬要卡
MLE
就是狗了思路:我的想法是,因为凸函数的任何极小值也是最小值。严格凸函数最多有一个最小
oj让我卡过一条吧
·
2020-07-28 23:58
算法训练
Ceres优化
Cartographer的优化模块中均使用了CeresSolver.有关为何SLAM问题可以建模为最小二乘问题,进而使用最优化方法来求解,可以理解这一段话:Maximumlikelihoodestimation(
MLE
weixin_33744854
·
2020-07-28 17:18
常用的机器学习&数据挖掘知识(点)总结
Basis(基础):MSE(MeanSquareError均方误差),LMS(LeastMeanSquare最小均方),LSM(LeastSquareMethods最小二乘法),
MLE
(MaximumLikelihoodEstimation
初仔仔
·
2020-07-28 16:22
SLAM中边缘化与一致性
文章目录基于图的SLAM[^1]马尔科夫毯上通过边缘化移除节点边缘化后的先验分布相对
MLE
公式备注边的稀疏化在线确定稀疏拓扑构建一致稀疏因子解耦稀疏化和边缘化VO中的滑窗介绍[^2]滑窗VOBA旧状态边缘化估计的一致性物理解释性能改进办法举例
啊啦啦工业
·
2020-07-27 16:23
论文笔记
万字总结复杂而奇妙的高斯过程!
手动实现使用`Scikit-learn`实现高斯过程小结高斯过程GaussianProcess高斯过程的理论知识非参数方法的基本思想在监督学习中,我们经常使用包含参数的参数模型:来解释数据,并通过最大似然估计(
MLE
Sim1480
·
2020-07-16 02:09
最大似然估计理解
最大似然估计:MaximumLikelihoodEstimation,简称
MLE
;要理解此概念首先要看下什么叫贝叶斯公式,如下:P(θ|D)=P(D|θ)P(θ)P(D)我们把D看作是样本,θ看作是这个样本所服从分布的参数
freenl
·
2020-07-15 23:11
概率论与数理统计
EM算法推导详解
Expectation-Maximizationalgorithm,EM),或Dempster-Laird-Rubin算法,是一类通过迭代进行极大似然估计(MaximumLikelihoodEstimation,
MLE
邱之涵0
·
2020-07-15 16:23
机器学习
#
算法
【hdu2896】病毒侵袭
AC自动机模板题一开始给每个叶子开了26个儿子,后来RE了,发现没有规定必须是小写字母,然后改成130,突然觉得这道题卡内存啊,写完之后果真
MLE
了,看了别人的博客发现跟我开同样大的数组大小没有事,猛然想到去掉
黑猫black
·
2020-07-15 12:55
字符串
AC自动机
CodeForces - 839C Journey 期望 dfs
首先这个题很简单n个结点,n-1条边,不会出现环我写
MLE
了,因为我很自信的在dfs里面判v的父结点的时候判成了第1个结点,所以,,GG要是说求期望的话推一下就能发现答案就是到每个结点的概率之和#include
冰冰的小宝贝
·
2020-07-15 10:48
codefoces
DFS
EM算法、变分推断(VBEM)、F函数的极大极大算法(EM算法的推广)
那么一般的
MLE
存在的问题就是当likelihood-function存在log-sum项时,变得极难求解,这时候就要换一种思路,引入隐变量Z,和Z的某种分布q(Z)。
InceptionZ
·
2020-07-15 08:22
传统机器学习算法
力扣周赛189
因为scala在做竞赛题时,会出现
MLE
,优化会浪费很多时间。
lizju
·
2020-07-15 07:38
leetcode周赛
python3
模式识别与机器学习笔记(二)机器学习的基础理论
一、极大似然估计(MaximamLikelihoodEstimation,
MLE
)在了解极大似然估计之前,我们首先要明确什么是似然函数(likelihoodfunction),对于p(x∣θ)p(x|θ
BJ_BUPT_Cai
·
2020-07-15 06:06
并查集与路径压缩
哇
MLE
(爆内存)!于是我们有一种新的方法——并查集。分析一下这道题,我们发现题
weixin_30609287
·
2020-07-15 03:58
1856-More is better-基础并查集
【水过代码下面是正经的AC代码,其实这道题不用离散化,因为即使离散化还是要开多两个10^7的数组,之前就是因为酱紫
MLE
了,后来只是改变了路径压缩的方式,把原本的记录高度改成记录树里的节点数,道理是一样的
candy糖酱
·
2020-07-15 00:52
Union-find
Water
Problem
water
Union-Find
搞笑的文本集合
TLE,亦我所欲也,
MLE
,亦我所欲也,二者不可得兼,舍其而CE者也Codinglifeby童话镇听说津津为课程烦恼金明一家住进了新房听说丁丁玩数字游戏火柴棒能搭出新天地听说校门外正在砍树大家一起做靶形数独听说旅行者在赚差价潜伏者正在破译着密码只有无尽的代码知道津津摆脱了学习的烦恼金明开心地走进商店挑选着书桌和电脑总有一种算法
eternal风度
·
2020-07-14 20:45
HDU - 5390 tree 线段树套字典树 (看题解)
这样还会被卡
MLE
。。需要分层优化一下。#pragmaGCCoptimize(2)#pragmaGCCoptimize(3)#includ
weixin_30266885
·
2020-07-13 16:07
原创 | 常见损失函数和评价指标总结(附公式&代码)
损失函数1.1回归问题1.2分类问题二、评价指标2.1回归问题2.2分类问题参考资料一、损失函数1.1回归问题1.平方损失函数(最小二乘法):回归问题中常用的损失函数,在线性回归中,可以通过极大似然估计(
MLE
数据派THU
·
2020-07-13 14:27
Gibbs Sampling不完全攻略
MLE
代表观察值最有可能出现次数的情况。先自定义一个抛掷硬币的场景,我们想要知道出现head的概率是多少?
workerwu
·
2020-07-12 15:16
[机器学习]线性回归(Linear regression)及代码实现
MLE
+高斯分布(误差满足均值为0,方差为斯塔平方的正太分布)能推出目标函数为误差平方和.具体推到如下图.对数似然取对数仅仅是一种求解手段而已.线性回归可以对样本非线性.只要对参数斯塔线性就行.例如Y=
chaowu1993
·
2020-07-12 11:43
机器学习
02 EM算法 - K-means算法回顾、EM概述
01EM算法-大纲-最大似然估计(
MLE
)、贝叶斯算法估计、最大后验概率估计(MAP)K-means算法回顾:03聚类算法-K-means聚类K-means算法,也称为k-均值聚类算法,是一种非常广泛使用的聚类算法之一
白尔摩斯
·
2020-07-12 07:09
一种改进的逻辑斯蒂回归
LogisticRegression的本质不是
MLE
嘛LR的一个很大的缺点就是单个trainingexample的likelihood很小时它的cost可能会很大,这样的话,单个trainingexample
瓜瓜_
·
2020-07-12 02:38
脑洞大开
POJ3624---01背包入门 dp+滚动数组+重复利用一维数组
题意:01背包入门题(入门必做)思路:dp,用二维数组会
MLE
(超内存),由于每个状态只与前一状态有关,故可开滚动数组压缩空间,也可以重复利用一个一维数组。
Soar-
·
2020-07-11 22:15
动态规划
2018年同等学力申硕临床医学17924
.<500mlB.500~1000mlC.1000~1500mlD.1500~2000
mlE
.2000~2500ml3.★★★男,50岁。
学苑教育
·
2020-07-11 21:12
数据挖掘习题汇总:线性回归、KNN、K-means、决策树、关联规则
文章目录作业清单(4/20)作业清单(4/22)csv、线性回归【3】思考最大似然估计
MLE
和最小二乘之间的关系?
步步咏凉天
·
2020-07-11 19:30
数据挖掘
数据挖掘
聚类
决策树
POJ 2279
线性DP本题的正解是杨氏矩阵与钩子定理但是这道题用DP的思想非常好但是这样会
MLE
...
aiwa6731
·
2020-07-11 01:55
HashMap通过value反查key
这是今天做了一道字符串的问题,一直
MLE
,所以想到了减少Map里对应关系数量来降低内存开销。随手谷歌,整理出了如下资料。如果效率优先的话还是写俩Map吧。
weixin_34112181
·
2020-07-10 08:45
贝叶斯网的R实现( Bayesian networks in R)bnlearn(3)
4.1参数学习的基本方法bnlearn包的参数学习函数是bn.fit,其参数method给出了两种具体的方法:“
mle
”为极大似然估计;"bayes"为贝叶斯后验估计(采用无信息先验分布)。
junli_chen
·
2020-07-09 18:44
贝叶斯分类算法
uniform机器学习极简入门1--极大似然法
1极大似然法的通俗理解最大似然估计法(
MLE
:maxlikelihoodestimation)其实就是希望通过样本来估计总体的参数。已知一个袋子,里面分别装
uniform斯坦
·
2020-07-09 16:36
频率派vs贝叶斯派 ——
MLE
(最大似然估计) vs MAP(最大后验估计)
代表就是
MLE
和MAP两种概率估计的方法频率派vs贝叶斯派在概率估计或者机器学习里的参数估计上,有两个方法,
MLE
(最大似然估计)和MAP(最大后验估计),其实代表了概率论里的两个派别,频率派和贝叶斯派往大里说
OldBibi
·
2020-07-08 22:25
基础算法
数据预处理之缺失值处理
数据预处理.1缺失值处理删除法删除小部分样本,在样本量大时(删除部分所占比例小于5%时)可以使用插补法—均值插补:分为定距型(插入均值)和非定距型(众数或者中值)—回归插补:线性和非线性回归—极大似然估计
MLE
陈嘉琪
·
2020-07-08 20:04
MATLAB
【Abee】吃掉西瓜——西瓜书学习笔记(六)
贝叶斯分类器目录【内容包含第七章】贝叶斯决策论(Bayesdecisiontheory)极大似然估计(MaximumLikelihoodEstimation,
MLE
)朴素贝叶斯分类器(naiveBayesclassifier
AnnieBee
·
2020-07-08 19:03
python
机器学习
TOJ题目部分题解
某些词语解释:ac->Accepted通过;wa->WrongAnswer错误答案;tle->TimeLimitExceeded超时;
mle
->MemoryLimitExceeded超
weixin_30376323
·
2020-07-08 13:01
【图解例说机器学习】参数估计 (
MLE
and MAP)
下面,我们介绍在机器学习中常用的参数估计:极大似然估计(MaximumLikelihoodEstimation,
MLE
),最大后验概率估计(MaximumAPosterior
nineheaded_bird
·
2020-07-08 07:27
图解例说机器学习
Python
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他