2019-04-05派森学习第137天

SUMMERIZE

3月-4月总结

3月开始了学习机器学习。

现在4月5日,需要总结一下,要不然又是乱成一团麻了。

先列出这一个月学习过的内容吧

1 科研方面

看了两篇文章:

A 地区用电类型聚类的文章,主要是运用K-means算法先分类,再结合DBSCAN算法把分类细化,从而达到好的聚类效果。

Aa

K-means:K代表设置的聚类的个数,即簇数(术语记不清楚了!),即K个随机选取的初始的聚类中心,然后根据K的个数开始初始化聚类,计算各个点到K个聚类中心的距离,离哪个聚类中心近就归为哪一簇,然后找出该类的中心点,并不断调整聚类中心,再重复执行以上步骤,直到不再变化为止。劣势是对于特殊形状的聚类效果不好,比如笑脸。


Ab DBSCAN:不需要提前设置分类个数,先设置好半径epsilon和minPts后开始执行算法,如果随机的初始点满足在半径epsilon范围内,有大于等于minPts个节点,则发展下线,再以被包围的这些点为圆心,重复上一步骤,直到不能再发展下线,如果还有其他的点没有被分类,则从这些点中随机再选取一个点执行半径和minPts的步骤,一直到全部点都被分类。优势是可以应对任意形状的聚类问题,而且效果符合预期。


B OFDM系统中应用深度神经网络Deep Neural Network的性能分析

Ba 文章先通过已知的信道数据,仿真出了信源x和恢复译码出的y,并以此作为训练数据,训练DNN模型,之后运用训练后的DNN模型直接译码,避免了传统OFDM系统接收端复杂的反向过程,并且误码率性能与MMSE和LS检测算法相比,具有明显优势,而且在不加CP、没有导频、改变信道的最大频移等不利的情况下,OFDM-DNN具有最好的误码率性能和鲁棒性。

Bb 深度神经网络:指的是隐藏层比较多的神经网络。Neural Network包括输入层(input)、隐藏层(hidden layer)以及输出层(output),每一层都含有不同个数的神经元。最重要的两个参数是weights和biases,通过大量的训练数据,模型不断的调整weights和biases的取值,使模型达到可以近乎准确的预测效果。

Bc 神经网络的搭建流程:?

Bd 神经网络python实现:?


2 工作方面

或深或浅的学过,好像没有深入学过什么啊!因为感觉没有掌握到什么东西!太可怕了!一定不再这样了!这样就是在浪费生命啊!

先回忆一下大致看过学过什么吧!

A k-learning错了! 应该是sklearn,强化学习

A Q-learning、scikit-learn,在python库中是sklearn

莫烦的视频用sklearn库做了什么?字符串寻宝的游戏

B Q什么?记混淆了!Q-learning

用Q-learning算法进行了在4*4地图上有陷阱有宝藏的情况下找到到达宝藏的最短路径

C 聚类算法:

Cak-means

Cb DBSCAN

D 唐宇迪视频中的numpy

E 神经网络的搭建

F 构造一个分配维修任务的demo,先用matlab写了一部分,接下去要继续写。

3 自学内容

A 数据库视频

要接着学习下去,不要忘记了,搁置了!


3-4月接触了这么多内容,到底学习到了多少呢?

你可能感兴趣的:(2019-04-05派森学习第137天)