python整理excel数据-利用python整理需要的excel报表(上)

一、背景

目前公司的项目管理采用开源项目redmine,对于redmine本文不多做介绍,有兴趣的可以自行百度了解下。

在每周周会汇报任务进度时,需要我们准备各组的项目进度,按照一定的excel模板整理,然而我们的数据,任务情况,任务进度都在redmine中体现,因此每周相当于我们有这样一个工作:

将readmine中数据导出->确认开发的进度->整理样式->统计出固定模板的Excel。

可是我想偷偷懒,不想每次都整理这个Excel,因此想用Python搞定它。

二、需求分析

目前已知的是redmine中的任务id(每次建任务时会记录在excel中)。

接下来的就是根据id去获取对应信息,包括开发人,完成时间,上线版本等等,

然后根据固定的模板保存生成Excel。

整体的需求还是比较简单明确的。

三、所要的第三方Python组件

1.Requests

有http请求,肯定需要用到Requests库啦,方便好用。

2.BeautifulSoup

需要简单的从网页上爬去一些数据,BeautifulSoup还是比较方便的

3.xlrd,xlsxwriter

excel的读写操作,通常用xlrd读,用xlsxwriter写(效率高),但对于我们这种的数据量其实用xlwt也是可以的啦。

四、正式开发

做好了相应的准备工作,现在要正式开发啦。

由于才学Python没多久,当中遇到的坑还是挺多的,下面一步一步来看吧。

1. redmine网页的攻破

遇到的第一个困难就是如何获取页面上的数据了,也算是想学爬虫的入门吧,正好可以利用这次"偷懒’去学习一下。

首先利用Chrome分析一下redmine的登录页:

在点击登录时,FormData中除了常规的username,passw之外有个authenticity_token,想必也是为了防止CSRF。

这个authenticity_token值在哪呢?只能继续分析登录页面,还好,找authenticity_token不是特别困难,名字取的一样,全局搜一下就找到了。

这样的话,貌似问题就解决的差不多了,开始编写代码。

利用requests.session()方法保持cookie

模拟伪造下hearder头

利用Requests获取请求

利用BeautifulSoup获取页面上所要的authenticity_token

模拟构造登录的PostData,实现登陆操作

尝试请求个页面你,看下是否登录成功

可以看到,对应的页面已经返回:

五、总结

今天就总结到这里,有空再写下半段,上半段主要发现了现实工作中反复工作的事情可以利用Python进行自动化,在分析完需求和所要的技术之后进行实践。

目前已经完成redmine的模拟登陆,并且能获取到我想要的页面。之后需要对获取的页面进行筛选,取到我们所要的数据,然后整理之后保存到Excel中,这样就大功告成了。

你可能感兴趣的:(python整理excel数据-利用python整理需要的excel报表(上))