非科班python入门

原岗位做信息化系统运维,刚开始干的活儿都特杂没啥突出的,时间一长就明显发现自己尤其在数据治理方面好像是要比别人做的快且准~
大致的工作流程就是用plsql写一些查询脚本,把你想要的数据规则转换成sql语句,从oracle数据库里把问题数据导出到excel里,或者把xml文件内容粘到excel里,然后再利用excel里各种公式、函数提取自己需要的数据,排版,分析,统计,归类,最后再写报告列出问题种类、贴数据贴柱状图、提供解决方案,发给专责评估定稿后开展治理工作。
干活时不可避免总会遇到一些问题,影响效率但又没法即时解决,会在之后不忙的时候思考琢磨、上网搜索一些解决方法持续改进,这样积累的sql函数越来越多,写的查询脚本也越来越精简实用,人工干预程度自然降低,excel公式会的也越来越多,处理数据更加得心应手,效率自然就提高了。
可是当有一天,需要分析处理的数据量太大,大到保存一下excel卡特么半分钟我可真是一点辙没有,而且别的项目组每次提供的xml文件我都要花好长时间先提取有用的删掉没用的也是很瞎。这个时候我就开始思考有没有更高级的分析方法+工具,从网上搜啊搜就了解到python……我不是计算机专业但我大学是考过C二级了,对工科生来讲,语法跟逻辑总该没问题吧?于是就抱着这样弱弱的自信,开始了python学习。但其实学了python对我现在的数据治理工作也不会有太大帮助,我就是恰好兴趣来了就开始了。

1、安装python。按网上的教程下载安装了python2.7还有学习手册,用python自带IDE先学习练习基础的赋值、表达式、打印、if测试、for/while循环语法。后来科班朋友推荐安装Anaconda2,可以看做Python的一个集成安装,安装它后就默认安装了python、IPython、Spyder和众多的包和模块,非常方便。
2、选择编辑器。后来还专门下载了notepad++用来编辑代码,用了一天发现不方便,不能直接执行代码需要保存后import,决定弃了装pycharm,配置一下就可以修改代码直接执行了,用了几天后发现卡的不行、慢,科班朋友推荐sublime,目前还没来得及换,不知道用起来怎么样,回头用完再评价吧。
3、直接实战吧,等不及慢慢学基础想先看看爬虫怎么工作。参考的崔庆才大神的python爬虫学习系列教程,还有廖雪峰的python教程。过程中学习安装了一些必要的库、工具。我用到的安装方式主要有3种:
下载安装程序直接运行安装:MySQLdb;
下载包python setup.py install:beautifulsoup;
直接conda/pip install xxx:Selenium、pyspider、html5lib、pyOpenSSL(.whl文件)、scrapy;
phantomjs是下载压缩包解压后将可执行文件放在python/script文件夹中并设置环境变量。
相比pip install 个人比较推荐conda install,会检查你在安装该库时需要安装别的其他哪些库且一并安装。
pyspider和scrapy都是爬虫框架,pyspider上手简单,scrapy自定义程度高,科班朋友推荐scrapy。
PhantomJS 用来渲染解析JS;Selenium 用来驱动以及与 Python 的对接;Python+Selenium+PhantomJS爬取动态网页。
beautifulsoup+html5lib,妈妈再也不用担心我记不住正则表达式了。
navicat+mysql数据库客户端及服务,建表查表。MySQLdb是Python连接MySQL的模块。
4、浏览器。建议同时保留chrome和firefox,因为有的时候出问题你来回的查代码就是查不出到底哪不对,那就可能是浏览器的问题,你可以换下试试,个人觉得还是firefox好用点。
5、设置环境变量设置环境变量设置环境变量,重要的事说三遍。
6、蓦然回首,我发现我目前只会套用别人代码,代码原理倒是能看懂,但理解的还是不够透彻。别人要是只写一半代码放上来,我是没办法补充完善的。这个时候就得回头深化学习编程基础了,对我这个没啥基础的人来说难点就是OOP、类、实例、方法、继承等,需要多花时间理解、练习、消化。

总结:想学习python想知道他长什么样,首先要准备的最基本工具推荐:Anaconda2+scrapy+beautifulsoup,这也是科班朋友推荐的。

你可能感兴趣的:(python学习)