libcurl开源库实现C++爬虫

libcurl是一个免费且易于使用的客户端URL传输库,是一个轻量级的HTTP编程库,很好使用,curl也是Linux下一个非常著名的下载库,通过这个库,可以很简单的实现文件的下载等操作。当然我们可以用它来实现一个简易的C++爬虫(不是Python才能爬虫的哦=_=)

一.安装libcurl库

sudo wget http://curl.haxx.se/download/curl-7.35.0.tar.gz

二.解压下载下来的软件包

tar -zxvf curl-7.35.0.tar.gz

三.执行编译安装

./configure --prefix=/usr/local/libcurl                //这里可以自行设置路径
make
make install

如上,libcurl库就已经安装好了,非常的方便,当然在编译的时候别忘了加上链接的选项哦

g++ -o  spider spider.cc -w -std=c++11 -lcurl           //最后一个选项-lcurl必须加上

四.libcurl的基本编程流程

1. 调用curl_global_init()初始化libcurl
2. 调用 curl_easy_init()函数得到 easy interface型指针
3. 调用curl_easy_setopt设置传输选项
4. 根据curl_easy_setopt设置的传输选项,实现回调函数以完成用户特定任务
5. 调用curl_easy_perform()函数完成传输任务
6. 调用curl_easy_cleanup()释放内存

具体的操作细节,可以看下面的代码就知道了。

五.实现简易爬虫

这个爬虫要爬的主要信息是新浪新闻首页相应主题下的所有新闻的信息,包括作者,标题和内容

当然如果不需要处理数据的话,只要看spider.hpp 和spider.cc的main函数就可以知道流程了。

spider.hpp

#pragma once 

#include 
#include 
#include 
#include 
#include 
#include 

using namespace std;

//ibcurl主要提供了两种发送http请求的方式,分别是Easy interface方式和multi interface方式
//前者是采用阻塞的方式发送单条数据,后者采用组合的方式可以一次性发送多条数据

//Easy interface方式最基本的用法如下
//1、在主线程中调用curl_global_init(CURL_GLOBAL_ALL)初始化
//2、调用curl_easy_init获取一个句柄;
//3、调用curl_easy_setopt函数设置此次传输的一些基本参数,如url地址、http头、cookie信息、发送超时时间等,其中,CURLOPT_URL是必设的选项;
//4、设置完成后,调用curl_easy_perform函数发送数据;
//5、数据发送完毕后,调用curl_easy_cleanup清空句柄;
//6、调用curl_global_cleanup()做清理工作。
class HttpCurl
{
public:
    HttpCurl()
        :conn(NULL)
    {}

    ~HttpCurl(){
        //调用该函数清空句柄
        curl_easy_cleanup(conn);                                            
    }

    bool HttpCurlInit(string& context){
        CURLcode code;

        //1、在主线程中调用curl_global_init(CURL_GLOBAL_ALL)初始化
        code = curl_global_init(CURL_GLOBAL_ALL);
        if(CURLE_OK != code){
            cout << "Failed to global init default" << "\n";
            return false;
        }                   
        //2、调用curl_easy_init获取一个句柄;
        conn = curl_easy_init();
        if(NULL == conn){
            cout << "Failed to create CURL" << "\n";
            return false;
        }

        //3、调用curl_easy_setopt函数设置此次传输的一些基本参数
        
        //CURLOPT_WRITEFUNCTION 第三个参数表明的函数将在libcurl接收到数据后被调用,因此函数多做数据保存的功能
        //第三个参数回调函数原型为:size_t function( void *ptr, size_t size, size_t nmemb, void *stream ); 
        code = curl_easy_setopt(conn,CURLOPT_WRITEFUNCTION,HttpCurl::Write);
        if(CURLE_OK != code){
            cout << "Failed to set write" << "\n";
            return false;
        }
        // CURLOPT_WRITEDATA 用于表明CURLOPT_WRITEFUNCTION函数中的第三个参数stream的来源
        // 因此调用完该函数以后,收到的数据就被放到了context中
        code = curl_easy_setopt(conn,CURLOPT_WRITEDATA,&context);
        if(CURLE_OK != code){
            cout << "Failed to set write data" << "\n";
            return false;
        }
        return true;
    }
    
    bool SetUrl(string& url){
        CURLcode code;
        //CURLOPT_URL 用于设置访问的url
        code = curl_easy_setopt(conn,CURLOPT_URL,url.c_str());
        if(CURLE_OK != code){
            cout << "Failed to set URL" << "\n";
            return false;                                                                                                                        
        }
        return true;
    }
                                             
    bool GetHttpResponse(){
        CURLcode code;
        // curl_easy_perform函数完成curl_easy_setopt指定的所有选项
        code = curl_easy_perform(conn);
        if(CURLE_OK != code){
            cout << "Failed to get response" << "\n";
            return false;                                                                                                                                                
        }
        return true;                                                                                                                        
    }
                                                 
    static size_t Write(void* data,size_t size,size_t nmemb,string& context){
       long sizes = size*nmemb;
       string temp((char*)data,sizes);
       context += temp;
       return sizes;
    }

private:
    CURL* conn;
};

filter.hpp(这个文件主要是用来设置爬取的信息格式,注意需要用到boost库,没安装的可以去看下这个boost库的安装)

#pragma once

#include 
#include 
using namespace std;
#include 
#include 

class filter{
public:
    //该函数用来设置正则表达式匹配
    void SetReg(string reg){
        _reg = reg;
    }

    //该函数将匹配的结果连成一个字符串放在一起
    string filterUrlString(string url){
        string::const_iterator begin = url.begin();
        string::const_iterator end = url.end();

        string results;
        while(regex_search(begin,end,_what,_reg)){

            string result(_what[0].first,_what[0].second);
            results += result;
            
            begin = _what[0].second;
        }       

        return results;
    }

    //该函数将匹配的结果放到vector中
    vector filterUrlVector(string url){
        string::const_iterator begin = url.begin();
        string::const_iterator end = url.end();

        vector results;
        while(regex_search(begin,end,_what,_reg)){

            string result(_what[0].first,_what[0].second);
            results.push_back(result);
            
            begin = _what[0].second;
        }       

        return results;
    }

private:
    boost::regex _reg;
    boost::smatch _what;
};

spider.cc(这个源文件用来爬取新浪首页的内容,当然不可能所有的新闻页眉都是可以被我们设置的正则表达式匹配,只是大多是的页面,不匹配的大不了我们不要了嘛=_=)

#include "spider.hpp"
#include "../HTTP_server/cgi/operate.hpp"   //这个文件是我自己写的一个数据库交互库,下面在用到的时候会说明
#include "filter.hpp"
#include 


//将新闻信息存放到一个结构体中
struct NewsInfo{
    string _topic;
    string _title;
    string _author;
    string _content;

    NewsInfo(string topic,string title,string author,string content)
        :_topic(topic),
         _title(title),
         _author(author),
         _content(content)
    {}
};

//替换结果中的标签部分,取出文字部分
//该函数只使用于在文字一边<>成对出现的情况
//比如

xxx

//不适用与这种情况 void Replace(string& src){ while(src.find('<') != string::npos){ boost::regex expr("<.*?>"); src = boost::regex_replace(src,expr,""); } } //获取网页的html源码 bool GetHtml(HttpCurl curl,string& context,string url){ curl.HttpCurlInit(context); curl.SetUrl(url); //调用完GetHttpResponse函数以后,响应的body部分就在context中了 return curl.GetHttpResponse(); } //获取相应主题的新闻链接 map GetTopicLinks(string context,filter ft,MYSQL* conn){ //下面这个函数用来取出我的数据库中的所有主题 vector topics = OperateTopic::AllTopic(conn); //我们要匹配到新浪首页对应标签栏的部分的内容 //这个部分不是固定的,是根据你要爬的网页自己找出共性,自己分析的 ft.SetReg("");; flag = "cul"; }else if(i.first == "体育"){ ft.SetReg("
.*?
"); flag = "sports"; }else if(i.first == "NBA"){ ft.SetReg("
    .*?
"); flag = "sports"; }else if(i.first == "国际"){ ft.SetReg("
.*?
"); flag = "news"; }else if(i.first == "股票"){ ft.SetReg("
    .*?
"); flag = "finance"; }else if(i.first == "娱乐"){ ft.SetReg("
    .*?
"); flag = "ent"; }else if(i.first == "教育"){ ft.SetReg("
    .*?
"); flag = "edu"; }else if(i.first == "科技"){ ft.SetReg("
    .*?
"); flag = "tech"; } string result = ft.filterUrlString(context); string tmp = "http://" + flag + ".*?shtml"; ft.SetReg(tmp); vector links = ft.filterUrlVector(result); //有些网页会有些错误,比如说下面这种 //http://tech.sina.cn/digi/nb/2018-07-09/detail-ihezpzwt8158157.d.html" target="_blank">新老冰箱保鲜效果大比拼 结果让人大吃一惊a>li> //
  • reg = {"

    .*?

    ",".*?") Replace(title); else{ //这两个函数用于替换中文标题两边的所有内容为空 boost::algorithm::replace_all(title,".*?

    ","article:author\" content=\".*?\""}; string author; for(auto i : reg){ ft.SetReg(i); author = ft.filterUrlString(context); if(author.empty()) continue; else{ if(i == "

    .*?

    ") Replace(author); else{ boost::algorithm::replace_all(author,"article:author\" content=\"",""); boost::algorithm::replace_all(author,"\"",""); } break; } } if(author.empty()){ //认为没有作者,则放弃这个新闻,不要了 cout << item.first << ":" << item.second << ":" << "no author" << endl; return NULL; } //取出新闻内容题 //基本上的新闻的内容都是下面两个格式之一 reg = {".*?"}; string result; for(auto i : reg){ ft.SetReg(i); result = ft.filterUrlString(context); if(result.empty()) continue; else break; } if(result.empty()){ //认为没有内容,则放弃这个新闻,不要了 cout << item.first << ":" << item.second << ":" << "no content" << endl;; return NULL; } //

    包含着的部分就是新闻正文部分 ft.SetReg(""); vector paragraphs = ft.filterUrlVector(result); if(paragraphs.empty()){ //认为没有内容,则放弃这个新闻,不要了 cout << item.first << ":" << item.second << ":" << "no content" << endl;; return NULL; } string content = ""; for(size_t i = 0; i < paragraphs.size();++i){ Replace(paragraphs[i]); content += paragraphs[i] + '\n';//在每一个段落末尾加上一个\n换行 } NewsInfo* info = new NewsInfo(item.first,title,author,content); return info; } int main(){ string context; HttpCurl curl; //找新浪是因为新浪的网页编码是utf8 string url = "http://news.sina.com.cn/"; if(!GetHtml(curl,context,url)){ cout << "The link is error!" << endl; return 0; } //下面两个函数用于连接数据库 //具体爬下来的数据怎么处置,由你自己定,只是我这里是放到数据库里罢了 MYSQL* conn; DataBaseInit(conn); filter ft; map topicLinks = GetTopicLinks(context,ft,conn); vector> newsLinks = GetNewsLinks(topicLinks,ft); int count = newsLinks.size(); //这个count表示我们拿到的所有链接数 cout << count << endl; for(auto i:newsLinks){ NewsInfo* info = GetNewsInfo(i,ft); if(info == NULL){ //返回空表示给的链接是错误的 count--; continue; } //将数据放到数据库中 int topicid = OperateTopic::IdOfTopic(conn,i.first); OperateNews::AddNews(conn,topicid,info->_title,info->_author,info->_content); } //这个count表示我们实际获取到的匹配到的新闻数 cout << count << endl; return 0; }

  • 你可能感兴趣的:(c++,Linux,项目)