用最优分类面分割正负样本。
多分类时:1)一对多,取k个分类结果得分最高; 2)一对一,取k(k-1)/2;
损失函数的特点,详情见 我的blog文章。
LSTM 的关键就是细胞状态,水平线在图上方贯穿运行。
典型的LSTM包含:遗忘门、输入门、输出门。
描述结构(包括维度)。详情见 我的blog文章。
讲清楚背景、方法流程、最后的模型结构(包括维度)。
问:在没有其他大量语料的情况下,如何在一堆问题里面找出100个常用问题?
答:
1、sentense embedding(多关注语义层面,这样不仅关注字符串层面)
2、迁移学习(但本质也是一种embedding)
最后再聚类。
意义:为什么要使用BatchNorm,因为效果好。经过这么简单的变换,不仅仅极大提升了训练速度,收敛过程大大加快,还提升效果。
详情见 我的blog文章。
Attention原理
Attention代码实现运算(需要用numpy能手撕一个attention出来)
Self-Attention本身就可以保留句子中单词的位置信息?
描述清楚
xgboost入门与实战(原理篇)
xgboost的原理没你想像的那么难
XGboost是一个工具,里面有多种模型,GBDT只是其中一个。
xgboost工具支持并行。boosting不是一种串行的结构吗?怎么并行的?注意xgboost的并行不是tree粒度的并行,xgboost也是一次迭代完才能进行下一次迭代的(第t次迭代的代价函数里包含了前面t-1次迭代的预测值)。xgboost的并行是在特征粒度上的。我们知道,决策树的学习最耗时的一个步骤就是对特征的值进行排序(因为要确定最佳分割点),xgboost在训练之前,预先对数据进行了排序,然后保存为block结构,后面的迭代中重复地使用这个结构,大大减小计算量。这个block结构也使得并行成为了可能,在进行节点的分裂时,需要计算每个特征的增益,最终选增益最大的那个特征去做分裂,那么各个特征的增益计算就可以开多线程进行。
详情见参考blog。
softmax和logistic区别,如何互相推导。
softmax的代价函数是
其中,
logistic的代价函数是
因此,softmax是logistic的推广。
Softmax回归与Logistic 回归的关系
当类别数 K = 2 K=2 K=2 时,softmax 回归退化为 logistic 回归。这表明 softmax 回归是 logistic 回归的一般形式。具体地说,当 K = 2 K=2 K=2 时,softmax 回归的假设函数为:
利用softmax回归参数冗余的特点,我们令 ψ = θ 1 \psi=\theta_1 ψ=θ1 ,并且从两个参数向量中都减去向量 θ 1 \theta_1 θ1 ,得到:
因此,用 θ ′ \theta' θ′ 来表示 θ 2 − θ 1 \theta_2-\theta_1 θ2−θ1 ,我们就会发现 softmax 回归器预测其中一个类别的概率为 1 1 + e x p ( θ ′ T x ( i ) ) \frac{1}{1+exp(\theta'^T x(i))} 1+exp(θ′Tx(i))1,这与 logistic回归是一致的。
**[注]**那当我们遇到Softmax 回归 vs. k 个二元分类器时该如何做选择呢?
一般来讲,当几个类别是互斥的时候我们选择前者比较合适,当几个类别可以多选共存时应该选择后者。
常用应对过拟合的方法有:
L1正则更加容易产生稀疏解、L2正则倾向于让参数w趋向于0。(都是让模型更加简单)
利用惩罚系数加入loss function中。
突出亮点特征
以及F值
ROC的意义:
横坐标是“假阳性比例”,纵坐标是“真阳性比例”(也可以是“假阴性”),描述了对正样本正确分类和错误分类的关系。(雷达兵的误报和漏报关系)
ROC曲线越靠近左上角,试验的准确性就越高。最靠近左上角的ROC曲线的点是错误最少的最好阈值,其假阳性和假阴性的总数最少。
AUC指的就是ROC曲线下的面积大小占总面积的比例。
当真阳性和假阳性权重相同时,ROC曲线上最好的点就是45°切线,即 y = x + b y=x+b y=x+b。
当真阳性和假阳性权重不同时,则需要根据不同的权重设计一个 y = k x + b y=kx+b y=kx+b 的斜线,改变 b b b 的过程中和ROC曲线相切的点所对应的阈值就是最佳阈值。
统计下表中各商品的数量:
客户序号 | 购物内容 |
---|---|
1001 | 电脑,手机,手表 |
1002 | 手机,手表 |
1003 | 手表,马桶 |
详情见blog。
循环是强制赋值的
for i in range(5):
print(i)
i=10
try和finally的用法
def fun()
try:
return 1
finally:
return 0
1、hashmap
2、堆
1、遍历(轻微优化)
2、动态规划
[1] softmax与logistic关系 http://www.mamicode.com/info-detail-1779752.html
[2] python中try和finally的应用 https://www.cnblogs.com/xuanmanstein/p/8080629.html