python自然语言处理01--搭建环境

入门学习使用的是《python自然语言处理》,书中是用python2.4或者2.5,但是因为安装Anaconda2总是失败,于是换成了Anaconda3。Anaconda是一款很好用的python开发集成环境。
首先安装nltk,Anaconda已经默认下载了,所以只需要打开Anaconda prompt,输入命令行

conda install nltk

然后按照提示选择y,等待数分钟,如果没有错误的话,就安装完成了。
接下来打开ipython进行测试,输入

In [1]: import nltk

In [2]: nltk.download()

如果出现下面这个图,说明已经安装成功了
python自然语言处理01--搭建环境_第1张图片
接下来修改安装路径(Download Directory),默认是安装在C盘的,我换成了Anaconda所在的路径Anaconda/nltk_data。
点击book标记所在行,一键安装《python自然语言处理》所需要的数据,下载过程会比较慢,而且有些会显示out of date(在Corpora中查看),但是下载中途一定不要去点击任何文件试图逐个下载,会导致卡机。
下载的过程中你会发现自己太天真了,毕竟是国外的网,下的不仅慢还容易出问题。我上传了百度云链接:http://pan.baidu.com/s/1pKWv5MV 密码:655i(2016年年底的包,已经足够使用了),使用方法:IE浏览器打开后,右击选择迅雷下载全部链接,可以批量下载,速度很快,有2.5G,其中2.1G是panlex_lite.zip。
我们先把除了panlex_lite.zip的文件夹解压缩到nltk_data文件夹下,然后按照以下目录安排好

├─chunkers #这一级为nltk_data下的文件夹
│ └─maxent_ne_chunker #这一级为相对应文件夹下的数据文件
├─corpora      #这一级为nltk_data下的文件夹
│ ├─abc        #这一级为相对应文件夹下的数据文件
│ ├─alpino
│ ├─basque_grammars
│ ├─biocreative_ppi
│ ├─book_grammars
│ ├─brown
│ ├─brown_tei
│ ├─cess_cat
│ ├─cess_esp
│ ├─chat80
│ ├─city_database
│ ├─cmudict
│ ├─comtrans
│ ├─conll2000
│ ├─conll2002
│ ├─conll2007
│ ├─dependency_treebank
│ ├─europarl_raw
│ │ 
│ ├─floresta
│ ├─gazetteers
│ ├─genesis
│ ├─gutenberg
│ ├─hmm_treebank_pos_tagger
│ ├─ieer
│ ├─inaugural
│ ├─indian
│ ├─jeita
│ ├─kimmo
│ ├─knbc
│ │ 
│ ├─langid
│ ├─large_grammars
│ ├─machado
│ │ 
│ ├─mac_morpho
│ ├─maxent_ne_chunker
│ ├─maxent_treebank_pos_tagger
│ ├─movie_reviews
│ │ 
│ ├─names
│ ├─nombank.1.0
│ │ 
│ ├─nps_chat
│ ├─oanc_masc
│ │ 
│ ├─paradigms
│ ├─pe08
│ ├─pil
│ ├─pl196x
│ ├─ppattach
│ ├─problem_reports
│ ├─propbank
│ │ 
│ ├─ptb
│ ├─punkt
│ ├─qc
│ ├─reuters
│ │ 
│ ├─rslp
│ ├─rte
│ ├─sample_grammars
│ ├─semcor
│ │ 
│ ├─senseval
│ ├─shakespeare
│ ├─sinica_treebank
│ ├─smultron
│ ├─spanish_grammars
│ ├─state_union
│ ├─stopwords
│ ├─swadesh
│ ├─switchboard
│ ├─tagsets
│ ├─timit
│ │
│ ├─toolbox
│ │ 
│ ├─treebank
│ │ 
│ ├─udhr
│ ├─udhr2
│ ├─unicode_samples
│ ├─verbnet
│ ├─webtext
│ ├─wordnet
│ ├─wordnet_ic
│ ├─words
│ └─ycoe
├─grammars
│ ├─basque_grammars
│ ├─book_grammars
│ ├─large_grammars
│ ├─sample_grammars
│ └─spanish_grammars
├─help
│ └─tagsets
├─stemmers
│ └─rslp
├─taggers
│ ├─hmm_treebank_pos_tagger
│ ├─maxent_ne_chunker
│ └─maxent_treebank_pos_tagger
└─tokenizers
│ └─punkt

然后就可以边做书中的实验,边等待panlex_lite.zip下载好后放入相应目录。

测试:

In [1]: from nltk.book import *
*** Introductory Examples for the NLTK Book ***
Loading text1, ..., text9 and sent1, ..., sent9
Type the name of the text or sentence to view it.
Type: 'texts()' or 'sents()' to list the materials.
text1: Moby Dick by Herman Melville 1851
text2: Sense and Sensibility by Jane Austen 1811
text3: The Book of Genesis
text4: Inaugural Address Corpus
text5: Chat Corpus
text6: Monty Python and the Holy Grail
text7: Wall Street Journal
text8: Personals Corpus
text9: The Man Who Was Thursday by G . K . Chesterton 1908

有需要的同学可以更改jupyter默认打开的目录,修改方式参照https://www.zhihu.com/question/31600197

你可能感兴趣的:(自然语言处理)