SpaCy v2.0(五)实例 - 训练分析模型PARSER

训练dependency parser

在example/training中有spaCy提供的几个模型训练样例,直接拷贝一个train_parser.py到spaCy的根目录,然后修改代码中的训练语料,修改为中文训练语料:

TRAIN_DATA = [

    ("他们进行抵押贷款交易。", {

        'heads': [1, 1, 3, 4, 1,  1, 333, 333, 333, 333, 333],

        'deps': ['nsubj',  'ROOT', 'compound', 'nmod', 'dobj', 'punct', 'depdep', 'dep', 'dep', 'dep',  'dep']

    }),

    ("我喜欢伦敦和柏林。", {

        'heads': [1, 1, 1, 2, 2,  1, 333, 333, 333],

        'deps': ['nsubj',  'ROOT', 'dobj', 'cc', 'conj', 'punct', 'dep', 'dep', 'dep']

    }),

    ("你在找些什么?",  {

        'heads': [2, 2, 2, 2, 2,  333, 333],

        'deps': ['nsubj',  'advmod', 'ROOT', 'obj', 'punct', 'dep', 'dep']

    }),

    ("我喜欢北京的秋天。", {

        'heads': [1, 1, 3, 4, 1,  1, 333, 333, 333],

        'deps': ['nsubj',  'ROOT', 'nmod', 'case', 'dobj', 'punct', 'dep', 'dep', 'dep']

    })

]

其中,heads和deps的规则如下:

例句:我喜欢北京的秋天。

首先,spaCy引入了结巴分词,例句首先通过结巴进行分词,分词结果为:我  喜欢  北京  的  秋天  。接下来是句子结构,我--喜欢 喜欢--秋天 北京--的 的--秋天

heads:输入各分词所依赖的分词的索引号(索引号为:我-0喜欢-1 北京-2 的-3 秋天-4 。-5)

在这个例句中的核心词是  喜欢,那么句中各分词的heads定义为:

我:1(喜欢的索引)

喜欢:1(自己)

北京:3(的)

的:4(秋天)

秋天:1(喜欢)

。:1(喜欢)

对应的索引号是每个分词按句子结构中对应的分词的序号,核心词对应的是自己,标点对应标点前句子的核心词。

deps:

我:nsubj

喜欢:ROOT

北京:nmod

的:case

秋天:dobj

。:punct

详细的label编码参见 https://spacy.io/api/annotation#section-dependency-parsing

需要注意的是:在本样例中,spaCy是按照汉字的字数来计算heads和deps中的参数数量的,而进行标注时是以分词为单位标注和计算序号的,所以训练数据中的写法为:

("我喜欢北京的秋天。",{

        'heads': [1, 1, 3, 4, 1, 1, 333, 333,333],

        'deps': ['nsubj', 'ROOT', 'nmod','case', 'dobj', 'punct', 'dep', 'dep', 'dep']

    })

heads中前六位为有效序号,而句子的实际字数加标点是9个,需要有9个数字,所以后面三个333是随意填充的。

deps同理,前六个是有效标记,后面三个是填充的。

接下来运行

python train_parser.py -mzh_model -o zh_model

test_text = "我喜欢北京的秋天。"

输出结果为:

Dependencies [

('我', 'nsubj', '喜欢'), 

('喜欢', 'ROOT', '喜欢'), 

('北京', 'nmod', '的'), 

('的', 'case', '秋天'), 

('秋天', 'dobj', '喜欢'), 

('。', 'punct', '喜欢')]

在zh_model目录中可以看到生成了parser目录,目录结构如下:

zh_model

└──parser

    ├──cfg

    ├──lower_model

    ├──moves

    ├──tok2vec_model

    └──upper_model

打开cfg文件查看,可以看到其中的labels已经有了nsubj、dobj、cc、punct等等labels。

到此,中文的parser模型就训练完成了,对于精度提升,需要准备至少几百条标注语料才能达到一定的好结果,准备好语料后重新运行训练代码即可。

文中完整代码可参考 https://github.com/jeusgao/spaCy-new-language-test-Chinese

你可能感兴趣的:(SpaCy v2.0(五)实例 - 训练分析模型PARSER)