PHP 对中文进行分词的两种方法

  • 第一种方法:使用 PHPAnalysis

  • 第二种方法:安装扩展之结巴

    • 结巴是一个php拓展,使用过程中需要自己编译安装拓展,遇到的问题是在编译安装拓展的时候要使用 phpize ,这个是个什么东西...看看官方怎么说的:Installation of PECL extensions,原来phpize命令是用来为PHP扩展准备构建环境。明白是什么了,那么问题来了。。。官方没有说明是要怎么安装的,其实很简单,只要执行 apt install php7.0-dev 就搞定啦,不过要重新启动 php7.0-fpm 才可以生效咧。

    • 然后按着github上的说明完成配置 结巴中文分词之php扩展
      [结巴中文分词之php扩展,适用php5,php7] ,完成之后就可以愉快的玩耍啦~~

    git clone https://github.com/jonnywang/phpjieba.git
    cd phpjieba/cjieba
    make
    
    cd ..
    phpize
    ./configure
    make
    make install
    

    然后在php.ini中添加

    extension=jieba.so
    jieba.enable=1
    jieba.dict_path=/opt/phpjieba/cjieba/dict (这是我编译时的文件路径,你需要换成你自己的)
    
    • 安装完之后的使用可以说是相当简单了,想要分词的时候只要结巴一下就好了:
     用了 [1] => 结巴 [2] => 一下 )
    
    $result = jieba('结巴一下,就可以用了!', 1);
    print_r($result);
    //Array ( [0] => 结巴 [1] => 一下 [2] => , [3] => 就 [4] => 可以 [5] => 用了 [6] => ! )
    
    $result = jieba('结巴一下,就可以用了!', 2);
    print_r($result);
    // Array ( [结巴] => n [一下] => m [,] => x [就] => d [可以] => c [用了] => x [!] => x )
    
    $result = jieba('结巴一下,就可以用了!');
    print_r($result);
    // Array ( [0] => 用了 [1] => 结巴 [2] => 一下 )
    
    • jieba 的时候可以传入两个参数,第一个参数是 string 类型的,一个中文的字符串,第二个参数是选择结巴的类型,有三个参数可以选, 0、1、2,其中 0 是提取关键字,1 是切字分词, 2 是获取词性标注。
      可以看出默认的时候是进行提取关键词的操作。

    • 缺点

      • 会降低php的性能,可以明显感觉到第一次配置好拓展之后开启 PHP-FPM 的速度会慢很多。不过不影响之后使用的性能。
      • 因为加载的字典文件过大,从而占用过多,可能会造成php-fpm进程被迫中止,需要添加swap交换内存。附上添加swap内存的方法。这里添加的是1G的内存(count=1024)
      /bin/dd if=/dev/zero of=/var/swap.1 bs=1M count=1024
      /sbin/mkswap /var/swap.1
      /sbin/swapon /var/swap.1
      

你可能感兴趣的:(PHP 对中文进行分词的两种方法)