什么是php采集程序?
php采集程序,也叫php小偷,主要是用于自动搜集网络上web页里特定内容,用php语言写的web程序,运行于支持php的平台上。谈到“自动搜集”,你可能联想到百度goole,联想到搜索引擎所做的事情。php采集程序,正是做类似的工作。
为什么要采集?
互联网正以飞快的速度在发展,web数据每天以几何级数据量递增,面对这庞大的数据,作为一个网站管理员的你,该如何搜集自己所需要的信息呢?特别对某个 或某几个同类网站,你需要它们的大量信息,来充实你的网站内容,难道就只能复制粘贴的过日子吗?一个网站管理员,你真的就得花大量时间去搞原创内容,而与整个互联网信息量的发展速度脱节吗?这些问题的解决方法只有一个:采集。如果有那么一个程序,你帮你的网站自动或半自动的采集你所需要的特定内容,即时更 新你网站的信息,是否是你梦寐以求的呢?这就是采集程序出现的原因所在。
采集些什么?
这要看你做的什么类型的网站了。如果你做图片站,就采集图片;做音乐站,就采集mp3,做新闻站,就采集新闻等等。一切根据你网站的内容架构需要而定。确定你要采集的东西,才好写出相应的采集程序。
如何采集?
通常采集程序,都是有的放矢的。也就是需要有目标网站,搜集一些你需要的采集内容的网站,分别对其html代码进行分析,找出规律性的东西,依据你要采集 的特定内容,写出php代码。采集到你要的东西以后,你可以选择自己需要的存放方式。比如直接生成html页面,或是放进数据库,作进一步处理或是存放成 特定的形式,以备后用。
采集思路
采集程序的思路很简单大体可以分为以下几个步骤:
1. 获取远程文件源代码(file_get_contents或用fopen).
2.分析代码得到自己想要的内容(这里用正则匹配,一般是得到分页)。
3.跟根得到的内容进行下载入库等操作。
在这里第二步有可能要重复的操作好几次,比如说要先分析一下分页地址,在分析一下内页的内容才能取得我们想要的东西。
LibreOffice<?php
/****获?取?远?程?文?件?源?代?码?常?用?三?种?方?法?***/
/***方?法?一?、? fopen(),?stream_context_create()方?法?****/
$opts = array(
'http'=>array(
'method'=>"GET",
'header'=>"Accept-language: en\r\n" .
"Cookie: foo=bar\r\n"
)
);
$context = stream_context_create($opts);
$fp = fopen('http://www.example.com', 'r', false, $context);
fpassthru($fp);
fclose($fp); /******方?法?二?、? socket*******/
function get_content_by_socket($url, $host){
$fp = fsockopen($host, 80) or die("Open ". $url ." failed");
$header = "GET /".$url ." HTTP/1.1\r\n";
$header .= "Accept: */*\r\n";
$header .= "Accept-Language: zh-cn\r\n";
$header .= "Accept-Encoding: gzip, deflate\r\n";
$header .= "User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; Maxthon; InfoPath.1; .NET CLR 2.0.50727)\r\n";
$header .= "Host: ". $host ."\r\n";
$header .= "Connection: Keep-Alive\r\n";
//$header .= "Cookie: cnzz02=2; rtime=1; ltime=1148456424859; cnzz_eid=56601755-\r\n\r\n";
$header .= "Connection: Close\r\n\r\n";
fwrite($fp, $header);
while (!feof($fp)) {
$contents .= fgets($fp, 8192);
}
fclose($fp);
return $contents;
}
/******方?法?三?、?file_get_contents (),?stream_context_create() 方?法?三?********/
$opts = array(
'http'=>array(
'method'=>"GET",
'header'=>"Content-Type: text/html; charset=utf-8"
)
);
$context = stream_context_create($opts);
$file = file_get_contents('http://www.sohu.com/', false, $context);
/******方?法?四?、? PHP的?cURL http://www.chinaz.com/program/2010/0119/104346.shtml*******/
$ch = curl_init();
// 2. 设?置?选?项?,?包?括?URL
curl_setopt($ch, CURLOPT_URL, "http://www.sohu.com");
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
curl_setopt($ch, CURLOPT_HEADER, 0);
curl_setopt($ch,CURLOPT_HTTPHEADER,array ("Content-Type: text/xml; charset=utf-8","Expect: 100-continue"));
// 3. 执?行?并?获?取?HTML文?档?内?容?
$output = curl_exec($ch);
var_dump($output);
// 4. 释?放?curl句?柄?
curl_close($ch);
/*注?意?
.使?用?file_get_contents和?fopen必?须?空?间?开?启?allow_url_fopen。?方?法?:?编?辑?php.ini,?设?置? allow_url_fopen = On,?allow_url_fopen关?闭?时?fopen和?file_get_contents都?不?能?打?开?远?程?文?件?。?
. 使?用?curl必?须?空?间?开?启?curl。?方?法?:?windows下?修?改?php.ini,?将?extension=php_curl.dll前?面?的?分?号?去?掉?,?而?且?需? 要?拷?贝?ssleay32.dll和?libeay32.dll到?C:/WINDOWS/system32下?;?Linux下?要?安?装?curl扩?展?。?
*/
?>
采集范例程序
LibreOffice/*一?个?图?片?下?载?函?数?*/
function getimg($url,$filename){
? ? ? ?/*判?断?图?片?的?url是?否?为?空?,?如?果?为?空?停?止?函?数?*/
? ? ? ?if($url==""){
? ? ? ? ? ? ? ?return false;
? ? ? ?}
? ? ? ?/*取?得?图?片?的?扩?展?名?,?存?入?变?量?$ext中?*/
? ? ? ?$ext=strrchr($url,".");
? ? ? ?/*判?断?是?否?是?合?法?的?图?片?文?件?*/
? ?if($ext!=".gif" && $ext!=".jpg"){
? ? ? ? ? ? ? ?return false;
? ? ? ?}
? ? ? ?/*读?取?图?片?*/
? ? ? ?$img=file_get_contents($url);
? ? ? ?/*打?开?指?定?的?文?件?*/
? ? ? ?$fp=@fopen($filename.$ext,"a");
? ? ? ?/*写?入?图?片?到?指?点?的?文?件?*/
? ? ? ?fwrite($fp,$img);
? ? ? ?/*关?闭?文?件?*/
? ? ? ?fclose($fp);
? ? ? ?/*返?回?图?片?的?新?文?件?名?*/
? ? ? ?return $filename.$ext;
}
LibreOfficeView Code <?php
/**
* 采?集?图?片?php程?序?
*
* Copyright(c) 2008 by 小?超?(ccxxcc) All rights reserved
*
* To contact the author write to {@link mailto:[email protected]}
*
* @author ccxxcc
* @version $Id: {filename},v 1.0 {time} $
* @package system
*/
set_time_limit(0);
/**
* 写?文?件?
* @param string $file 文?件?路?径?
* @param string $str 写?入?内?容?
* @param char $mode 写?入?模?式?
*/
function wfile($file,$str,$mode='w')
{
$oldmask = @umask(0);
$fp = @fopen($file,$mode);
@flock($fp, 3);
if(!$fp)
{
Return false;
}
else
{
@fwrite($fp,$str);
@fclose($fp);
@umask($oldmask);
Return true;
}
}
function savetofile($path_get,$path_save)
{
@$hdl_read = fopen($path_get,'rb');
if($hdl_read == false)
{
echo("<span style='color:red'>$path_get can not get</span>");
Return ;
}
if($hdl_read)
{
@$hdl_write = fopen($path_save,'wb');
if($hdl_write)
{
while(!feof($hdl_read))
{
fwrite($hdl_write,fread($hdl_read,8192));
}
fclose($hdl_write);
fclose($hdl_read);
return 1;
}
else
return 0;
}
else
return -1;
}
function getExt($path)
{
$path = pathinfo($path);
return strtolower($path['extension']);
}
/**
* 按?指?定?路?径?生?成?目?录?
*
* @param string $path 路?径?
*/
function mkDirs($path)
{
$adir = explode('/',$path);
$dirlist = '';
$rootdir = array_shift($adir);
if(($rootdir!='.'||$rootdir!='..')&&!file_exists($rootdir))
{
@mkdir($rootdir);
}
foreach($adir as $key=>$val)
{
if($val!='.'&&$val!='..')
{
$dirlist .= "/".$val;
$dirpath = $rootdir.$dirlist;
if(!file_exists($dirpath))
{
@mkdir($dirpath);
@chmod($dirpath,0777);
}
}
}
}
/**
* 从?文?本?中?取?得?一?维?数?组?
*
* @param string $file_path 文?本?路?径?
*/
function getFileListData($file_path)
{
$arr = @file($file_path);
$data = array();
if(is_array($arr) && !empty($arr))
{
foreach($arr as $val)
{
$item = trim($val);
if(!empty($item))
{
$data[] = $item;
}
}
}
Return $data;
}
//采?集?开?始?
//传?入?自?己?的?需?要?采?集?的?图?片?url列?表?文?本?文?件? 每?个?图?片?url写?一?行?
$url_file = isset($_GET['file'])&&!empty($_GET['file'])?$_GET['file']:null;
$txt_url = "txt/".$url_file;
$urls = array_unique(getFileListData($txt_url));
if(empty($urls))
{
echo('<div style="color:red">无?链?接?地?址?</div>');
die();
}
$save_url = "images/".date("y_m_d",time())."/";
mkDirs($save_url); //按?日?期?建?立?文?件?夹?
$i = 1;
if(is_array($urls)&&count($urls))
{
foreach($urls as $val)
{
savetofile($val,$save_url.date("His",time())."_".$i.".".getExt($val));
echo($i.".".getExt($val)." got\n");
$i++;
}
}
echo('<div style="color:green">finish</div>');
?>
除了以上方法还可以用Snoopy,也不错。
Snoopy是什么? (下载snoopy)
Snoopy是一个php类,用来模仿web浏览器的功能,它能完成获取网页内容和发送表单的任务。
Snoopy的一些特点:
* 方便抓取网页的内容
* 方便抓取网页的文本内容 (去除HTML标签)
* 方便抓取网页的链接
* 支持代理主机
* 支持基本的用户名/密码验证
* 支持设置 user_agent, referer(来路), cookies 和 header content(头文件)
* 支持浏览器转向,并能控制转向深度
* 能把网页中的链接扩展成高质量的url(默认)
* 方便提交数据并且获取返回值
* 支持跟踪HTML框架(v0.92增加)
* 支持再转向的时候传递cookies (v0.92增加)
采集心得
共享一下个人的采集心德:
1.不采那些作防盗链了的站,其实可以作假来路但是这样的站采集成本太高
2.采集尽量快的站,最好在本地进行采集
3.采集时有很多时候可以先把一部分数据存入数据库,等以后进行下一步的处理。
4.采集的时候一定要作好出错处理,我一般都是如果采集三次没有成功就跳过。以前经常就因为一条内容不能采就卡在那里一直的采。
5.入库前一定要作好判断,检查内容的合法,过滤不必要的字符串。