crf_lstm代码阅读

LSTM-CRF代码记录

def main(_):    if FLAGS.train:        if FLAGS.clean:clean(FLAGS)#清除之前所有的训练模型时生成的文件        train()    else:        evaluate_line()

看代码时候我们先从main函数开始看起

这里涉及三个部分1.train() 2.clean() 3.evaluate_line()

Clean()  

这个函数很简单,里面代码结构主要如下:

if os.path.isfile(params.vocab_file):    os.remove(params.vocab_file)

如果存在这些文件就要先删除,防止之前的文件对现在训练的影响


Train()

如果参数输入train为True,那么将运行train函数


首先是加载数据集(训练集,测试集,验证集)

train_sentences = load_sentences(FLAGS.train_file, FLAGS.lower, FLAGS.zeros)dev_sentences = load_sentences(FLAGS.dev_file, FLAGS.lower, FLAGS.zeros)test_sentences = load_sentences(FLAGS.test_file, FLAGS.lower, FLAGS.zeros)

load_sentences()

参数:文件名,是否大小写转换,是不是将数字0化

返回值:[[[],[],[],[]....],[],[],[]]每个句子都是一个list,然后将每个句子中的所有的字\s标签 写入每一个句子的list中,也就是3层list嵌套







update_tag_scheme()

更新标注体系函数,标注体系是iob还是iobes,最后转换由这个函数实现,而且这个函数也实现可纠错功能。就标注中明显错误的进行纠正。

注:开始时候都是用的bio标注,但是根据参数进行改成对应的标注体系

flags.DEFINE_string("tag_schema",   "iobes",    "tagging schema iobes or iob")表明是BMES标注体系

# Use selected tagging scheme (IOB / IOBES)update_tag_scheme(train_sentences, FLAGS.tag_schema)update_tag_scheme(test_sentences, FLAGS.tag_schema)



之后是产生maps

打包(char_to_id,id_to_char,tag_to_id,id_to_tag) or pickle.load()


主要代码如下:

# create maps if not existif not os.path.isfile(FLAGS.map_file):    # create dictionary for word    if FLAGS.pre_emb:        dico_chars_train = char_mapping(train_sentences, FLAGS.lower)[0]        dico_chars, char_to_id, id_to_char = augment_with_pretrained(            dico_chars_train.copy(),            FLAGS.emb_file,  #预训练的词典            list(itertools.chain.from_iterable(                [[w[0] for w in s] for s in test_sentences])  #test words            ))#加入了预训练的词    else:        _c, char_to_id, id_to_char = char_mapping(train_sentences, FLAGS.lower)    # Create a dictionary and a mapping for tags    _t, tag_to_id, id_to_tag = tag_mapping(train_sentences)    with open(FLAGS.map_file, "wb") as f:pickle.dump([char_to_id, id_to_char, tag_to_id, id_to_tag], f)   #如果存在预训练的词,char和tag是不对称的else:    with open(FLAGS.map_file, "rb") as f:

char_to_id, id_to_char, tag_to_id, id_to_tag = pickle.load(f)


以上代码实现:如果map_file存在,就直接load,如果不存在,就需要dump一个map_file文件,这个文件里面存有char_to_id, id_to_char, tag_to_id, id_to_tag



如果预训练词向量文本存在,首先对训练集数据进行建立映射关系对item_to_id, id_to_item如下实现:

Char_mapping()

输入:一个词典,以字为键,以字出现的数目为值

输出:item_to_id, id_to_item (两个词典,分别根据词出现的次数进行排序由高到低进行排序之后,item_to_id为以词为键,以词的顺序值为值的词典,id_to_item更好与之相反)


augment_with_pretrained()

输入:三个参数

训练集数据的词典(根据词频从高到低排序),预训练的向量文档,装有字的测试集的list

输出:根据测试集是不是存在,以不同的方式扩充源训练集词典,然后由该词典进行获取word_to_id,id_to_word


如果预训练向量不存在,则直接使用训练集词典获取word_to_id,id_to_word



下面代码实现:获取tag_to_id,id_to_tag

# Create a dictionary and a mapping for tags    _t, tag_to_id, id_to_tag = tag_mapping(train_sentences)    with open(FLAGS.map_file, "wb") as f:pickle.dump([char_to_id, id_to_char, tag_to_id, id_to_tag], f)   #如果存在预训练的词,char和tag是不对称的else:    with open(FLAGS.map_file, "rb") as f:        char_to_id, id_to_char, tag_to_id, id_to_tag = pickle.load(f)


以下代码实现:

准备数据,统一数据格式

# prepare data, get a collection of list containing indextrain_data = prepare_dataset(    train_sentences, char_to_id, tag_to_id, FLAGS.lower)dev_data = prepare_dataset(    dev_sentences, char_to_id, tag_to_id, FLAGS.lower)test_data = prepare_dataset(    test_sentences, char_to_id, tag_to_id, FLAGS.lower)


Prepare_dataset()

你可能感兴趣的:(crf_lstm代码阅读)