用C/C 扩展Python语言
Python是一门功能强大的脚本语言,它的强大不仅表现在功能上,还表现在其扩展性上。她提供大量的API以方便程序员利用C/C++对Python进行扩展。因为执行速度慢几乎是所有脚本语言的通病,Python通过一个巧妙的方法,使得程序员可以利用C/C++编写执行速度比较慢的模块,从而获得与C/C++差不多的执行性能。本文给出一个例子说明怎样用C来扩展Python。
1、在C和Python之间进行数据类型转化
Python有六种基本数据类型:整型,浮点型,字符串,列表,字典,元组。在进行介绍之前,我们先了解一下怎么在C和Python之间转化几种常用的数据类型。
整型转化
PyObject *pInt = Py_BuildValue(“i”, 2007);
浮点型转化
PyObject *pFloat = Py_BuildValue(“f”, 3.14);
字符串转化
PyObject *pString = Py_BuildValue(“s”, “I am Yan.Dingcheng”);
2、用C扩展Python
在了解了常用的数据类型转化以后,我们就可以编写一些C程序来扩展Python了。比如下面有个C文件exam.c,我们要在Python里调用它里面的函数。int power(int a)
{
return a * a;
}
int add_int(int a, int b)
{
return a + b;
}
void my_print(const char *s)
{
if (!s) {
return;
}
printf(“%s \n”, s);
}
void whoami(void)
{
printf(“I am plusboy. \n”);
}
那么我们首先要将其实现为Python的一个模块,这需要编写一个封装接口,我们把它保存为wrap_exam.c,示例如下:#include
PyObject *wrap_power(PyObject *self, PyObject *args)
{
int result, n;
/*这里args包含Python解释器要传递给C函数的参数列表,
“i:power”表示要给power函数传递一个整数,
n保存从Python脚本里传过来的参数*/
if (!PyArg_ParseTuple(args, “i:power”, &n)) {
return NULL;
}
result = power(n);
return Py_BuildValue(“i”, result);
}
PyObject *wrap_add_int(PyObject *self, PyObject *args)
{
int result, a, b;
/*这里args包含Python解释器要传递给C函数的参数列表,
“ii:power”表示要给add_int函数传递两个整数,
a, b保存从Python脚本里传过来的参数*/
if (!PyArg_ParseTuple(args, “ii:add_int”, &a, &b)) {
return NULL;
}
result = add_int(a, b);
return Py_BuildValue(“i”, result);
}
转载请注明:数据分析 » 用C/C 扩展Python语言_python 调用c语言
python实现简单爬虫功能_python实现简单爬虫
python实现简单爬虫功能
在我们日常上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材。
我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度。好吧~!其实你很厉害的,右键查看页面源代码。
我们可以通过python来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看看如何使用python来实现这样一个功能。
一,获取整个页面数据
首先我们可以先获取要下载图片的整个页面信息。
getjpg.py
#coding=utf-8import urllibdef getHtml(url): page = urllib.urlopen(url) html = page.read() return htmlhtml = getHtml("http://tieba.baidu.com/p/2738151262")print html
Urllib模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取www和ftp上的数据。首先,我们定义了一个getHtml()函数:
urllib.urlopen()方法用于打开一个URL地址。
read()方法用于读取URL上的数据,向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。
二,筛选页面中想要的数据
Python提供了非常强大的正则表达式,我们需要先要了解一点python正则表达式的知识才行。
假如我们百度贴吧找到了几张漂亮的壁纸,通过到前段查看工具。找到了图片的地址,如:src=”http://imgsrc.baidu.com/forum……jpg”pic_ext=”jpeg”
修改代码如下:
import reimport urllibdef getHtml(url): page = urllib.urlopen(url) html = page.read() return htmldef getImg(html): reg = r'src="(.+\.jpg)" pic_ext' imgre = re.compile(reg) imglist = re.findall(imgre,html) return imglist html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)
我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片连接。re模块主要包含了正则表达式:
re.compile()可以把正则表达式编译成一个正则表达式对象.
re.findall()方法读取html中包含imgre(正则表达式)的数据。
运行脚本将得到整个页面中包含图片的URL地址。
三,将页面筛选的数据保存到本地
把筛选的图片地址通过for循环遍历并保存到本地,代码如下:
#coding=utf-8import urllibimport redef getHtml(url): page = urllib.urlopen(url) html = page.read() return htmldef getImg(html): reg = r'src="(.+\.jpg)" pic_ext' imgre = re.compile(reg) imglist = re.findall(imgre,html) x = 0 for imgurl in imglist: urllib.urlretrieve(imgurl,'%s.jpg' % x) x+=1html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)
这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。
通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。
程序运行完成,将在目录下看到下载到本地的文件。
转载请注明:数据分析 » python实现简单爬虫功能_python实现简单爬虫