【论文代码】① STIOCS: Active learning-based semi-supervised training framework for IOC extraction

【论文代码】① STIOCS: Active learning-based semi-supervised training framework for IOC extraction

  • 写在最前面
  • DataDeal.py
    • `getToken`方法
    • `clean_sentences`方法
    • `getEmbedding`方法
    • 全部代码

【论文代码】① STIOCS: Active learning-based semi-supervised training framework for IOC extraction_第1张图片

你好呀!我是 是Yu欸
2024每日百字篆刻时光,感谢你的陪伴与支持 ~
欢迎一起踏上探险之旅,挖掘无限可能,共同成长!

写在最前面

论文 STIOCS: Active learning-based semi-supervised training framework for IOC extraction
代码解读:https://github.com/MuscleFish/SeqMask.

【论文代码】① STIOCS: Active learning-based semi-supervised training framework for IOC extraction_第2张图片

DataDeal.py

FastTextDeal

getToken方法

getToken方法接受一个参数words,默认值为空字符串。这个方法的目的是将输入的字符串或字符串列表进行分词处理。如果输入的words是一个字符串,那么它会被cut_sentences函数处理,并将结果作为一个列表返回。如果输入的words是一个列表,那么列表中的每个元素都会被cut_sentences函数处理,并将所有结果作为一个列表返回。如果输入的words既不是字符串也不是列表,那么这个方法将返回一个空列表。

    def getToken(self, words=""):
        if isinstance(words, str):
            return [cut_sentences(words)]
        if isinstance(words, list):
            return [cut_sentences(w) for w in words]
        return []

clean_sentences方法

clean_sentences方法接受一个参数max_sentence,它的目的是清理paper_emb_list列表中的每个元素。这个方法首先创建一个空列表clear_pem,然后遍历paper_emb_list中的每个元素。对于每个元素,它首先获取其形状,然后检查形状的长度。如果形状的长度为3,那么它会使用numpy.pad函数对元素进行填充,以使其第一维度的长度等于max_sentence,然后将填充后的元素重塑为一个新的形状,并将其添加到clear_pem列表中。如果形状的长度不为3,那么它会创建一个全零的新元素,并将其添加到clear_pem列表中。最后,这个方法使用numpy.concatenate函数将clear_pem列表中的所有元素沿着第0轴连接起来,并返回结果。

    def clean_sentences(self, max_sentence):
        clear_pem = []
        for pem in self.paper_emb_list:
            pem_shape = pem.shape
            if len(pem_shape) == 3:
                npem = np.pad(pem, ((0, max_sentence - pem.shape[0]), (0, 0), (0, 0)), 'constant',
                              constant_values=(0, 0))
                npem = np.reshape(npem, (1, npem.shape[0], npem.shape[1], npem.shape[2]))
                clear_pem.append(npem)
            else:
                clear_pem.append(
                    np.zeros((1, max_sentence, self.paper_emb_list[0].shape[1], self.paper_emb_list[0].shape[2])))
        return np.concatenate(clear_pem, axis=0)

getEmbedding方法

getEmbedding方法是FastTextDeal类的一部分,它的目的是获取输入词汇的嵌入表示。

这个方法接受三个参数:words(默认为空字符串)、tokens(默认为None)和max_len(默认为512)。如果没有提供tokens,那么它会使用getToken方法获取words的分词。

如果tokens的长度为0,那么这个方法将返回None。如果tokens的第一个元素的长度小于或等于1,那么它会使用FastTextModelembedding方法获取tokens的嵌入表示,并将结果返回。

如果tokens的第一个元素的长度大于1,那么这个方法将对tokens中的每个元素进行处理。对于每个元素,它首先将其转换为一个列表,然后使用FastTextModelembedding方法获取这个列表的嵌入表示,并将结果添加到paper_emb_list列表中。同时,它还会更新max_sentence的值,使其等于paper_emb_list中所有元素的第一维度的最大长度。最后,这个方法使用clean_sentences方法清理paper_emb_list,并将结果返回。

    def getEmbedding(self, words="", tokens=None, max_len=512):
        if not tokens:
            tokens = self.getToken(words)
        if len(tokens) <= 0:
            return None
        if len(tokens[0]) <= 1:
            return self.FastTextModel.embedding(tokens, max_row=max_len)
        else:
            max_sentence = 0
            self.paper_emb_list = []
            for i, paper in enumerate(tokens):
                paper_text = [[w] for w in paper]
                print(i + 1, '/', len(tokens))
                paper_emb = self.FastTextModel.embedding(paper_text, max_row=max_len)
                max_sentence = max(paper_emb.shape[0], max_sentence)
                self.paper_emb_list.append(paper_emb)
                print(self.paper_emb_list[-1].shape, max_sentence)
            return self.clean_sentences(max_sentence)

全部代码

from DataPreprocess import cut_sentences
import joblib
import numpy as np

class FastTextDeal(object):
    def __init__(self):
        self.FastTextModel = joblib.load("./FastTextModels/fastText_20210126.model")
        self.paper_emb_list = []

    def getToken(self, words=""):
        if isinstance(words, str):
            return [cut_sentences(words)]
        if isinstance(words, list):
            return [cut_sentences(w) for w in words]
        return []

    def clean_sentences(self, max_sentence):
        clear_pem = []
        for pem in self.paper_emb_list:
            pem_shape = pem.shape
            if len(pem_shape) == 3:
                npem = np.pad(pem, ((0, max_sentence - pem.shape[0]), (0, 0), (0, 0)), 'constant',
                              constant_values=(0, 0))
                npem = np.reshape(npem, (1, npem.shape[0], npem.shape[1], npem.shape[2]))
                clear_pem.append(npem)
            else:
                clear_pem.append(
                    np.zeros((1, max_sentence, self.paper_emb_list[0].shape[1], self.paper_emb_list[0].shape[2])))
        return np.concatenate(clear_pem, axis=0)

    def getEmbedding(self, words="", tokens=None, max_len=512):
        if not tokens:
            tokens = self.getToken(words)
        if len(tokens) <= 0:
            return None
        if len(tokens[0]) <= 1:
            return self.FastTextModel.embedding(tokens, max_row=max_len)
        else:
            max_sentence = 0
            self.paper_emb_list = []
            for i, paper in enumerate(tokens):
                paper_text = [[w] for w in paper]
                print(i + 1, '/', len(tokens))
                paper_emb = self.FastTextModel.embedding(paper_text, max_row=max_len)
                max_sentence = max(paper_emb.shape[0], max_sentence)
                self.paper_emb_list.append(paper_emb)
                print(self.paper_emb_list[-1].shape, max_sentence)
            return self.clean_sentences(max_sentence)

你可能感兴趣的:(科研笔记与实践,论文阅读,笔记,经验分享,论文笔记,python)