4月27日
SVM(ang的课,七月算法,matlab机器学习课程) -> matlab初级知识 和 七月算法班前面的课程 ->神经网络 和 svm进阶,试图解决一元非线性回归问题
任务艰巨
4月25日,这月总结
1.机器学习刚开始入门,进度到了支持向量机
2.Python基本熟悉了.numpy pandas sklearn这些不太熟练.很多函数不太了解
3.matlab不太熟悉,最优化这部分不太明白,只会简单应用
接下来5天的打算:
1.机器学习 结束SVM
2.Python重新写一遍cnsoft比赛的代码,
3.安卓部分开个头,在五一期间要开始学习了.
4.梳理下这月的思维,准备下月的计划
[*keng*] Python 文本分析
kaggle视频课
拟定一周两节课,尽量5月假期结束前结束这部分
====================
中国软件杯-民航机票-比赛
刚开始统计,以后每天一个环节.(4.7)
岭回归 支持向量回归 多项式回归 (4.25)
===================
书籍 统计思维 程序员数学之概率统计
参考博客:
http://blog.csdn.net/can183164868/article/details/63683677
第一章:基本概念 数据集介绍 与第一个py程序
第二章:描述性统计量
停更好几天了..4.7
======================================
书籍 数据科学入门
第一部分,python基础
lambda
lambda函数的语法只包含一个语句: lambda [arg1 [,arg2,.....argn]]:expression
使用如下:
1 square = lambda x : x**2 2 print(square(3)) # 9 3 4 sum = lambda x, y : x + y 5 print(sum(2, 3)) # 5
排序 sort 与sorted
http://www.cnblogs.com/sysu-blackbear/p/3283993.html
sorted(...)
sorted(iterable, cmp=None, key=None, reverse=False) --> new sorted list
sort(...)
L.sort(cmp=None, key=None, reverse=False) -- stable sort *IN PLACE*
列表解析
a = range(10)
b = [x*x for x in a if x%2==0]
print b
第三章:可视化工具
主要是matpltlib.pyplot的使用
第七章:梯度下降 (*****重点*****)
这部分已经完成了.主要是吴恩达讲的好,已经基本明白了
(这本书价值不大,没有必要读第二遍,适合啥都不懂的时候看看)(4.7)
=================================
书籍:利用Python进行数据分析
第二章:炫技~~ 都是后面的高级功能
第三章:ipython
第四章(4.5):numpy基础,数组与矢量计算 把基础部分看完了,以后遇到随查随用
第五章: pandas 基础
pandas 下标访问补足(4.7)
http://blog.csdn.net/alanguoo/article/details/52331901
第六章:文件读取与存储
第七章:groupBy 4.7日看完,但是里面具体还不是特别熟,用到再查看
=================================
斯坦福机器学习课程 吴恩达
第一周:完成
开始第二周
4.7第二周 测试题没有完成,明天继续看,明天就能看完第二周,然后要用Python matlab octave 分别实现 线性回归算法(梯度下降/正规方程法)分别实现,预计两天内完成
4.10 一元线性回归作业已经完成,今天完成收尾工作,明天开始逻辑回归
暂停学习视频学习 台大 机器学习基石
主要参考 很棒的学习笔记 http://www.cnblogs.com/ymingjingr/p/4271761.html
课后习题 http://blog.csdn.net/a1015553840/article/details/51085129
第一节
基本概念之类的东西
第二节 - 第八节
暂时放弃.太偏统计学的讲法
第九节 --线性规划
矩阵是怎么转化的?[*keng*]
http://blog.csdn.net/xiazdong/article/details/7950084
Python 调用sklearn库实现
一元 http://blog.csdn.net/lulei1217/article/details/49385531
多元 http://blog.csdn.net/lulei1217/article/details/49386295
===================
Perceptron Learning Algorithm (PLA)
感知器学习算法。
证明pla会停下来 关于数学证明部分没有看懂,先挖个坑[*keng*]
学习笔记 pla 红黑联盟 http://www.2cto.com/kf/201607/525566.html
pla Python实现 http://blog.csdn.net/chenxiqilin/article/details/50395905
加法法则A1+A2=[(a1+b1),(a2+b2),.,(an+bn)]
减法法则A1-A2=[(a1-b1),(a2-b2),.,(an-bn)]
关于数学
每天5个小视频,一个月内温习一遍概率论 与 统计