【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE

背景

了解知识图谱的友友应该都知道,知识图谱的构建可以从已有的非结构化、半结构化以及结构化的数据进行构建。对于结构化的数据,通常是数据库中的表,可以使用一些工具如R2RML语言。对于非结构化的数据,通常处理的对象是文本,但是随着研究领域的发展图片,视频等(多模态)也开始成为构建知识的来源。

相关技术也在不断发展,技术的可靠性可以通过有没有落地来验证。今天就介绍一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE。后续会根据情况对代码进行研读,并分享出来。

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第1张图片

DeepKE是由浙江大学知识引擎实验室开发的中文关系抽取开源工具,官方网址:http://deepke.zjukg.org/CN/index.html,源码Github地址:https://github.com/zjunlp/DeepKE。DeepKE是一个开源和可扩展的知识图谱抽取工具,支持常规全监督、低资源少样本、长篇章文档和多模态场景,覆盖各种信息抽取任务包括命名实体识别、关系抽取和属性抽取。通过一个统一的框架,DeepKE 允许开发人员和研究人员自定义数据集和模型,并根据他们的需求从非结构化文本中抽取信息。DeepKE针对不同的功能和场景提供了各种功能模块和模型实现,以保持足够的模块化和可扩展性。此外,DeepKE还为初学者提供了全面的文档和 Google Colab 教程。用户可以通过“pip install deepke”安装 DeepKE。作者们也将长期提供维护以满足新的请求,支持新任务,和修复Bug。

如果对NLP中这个几个任务不熟的可以阅读源码,加深在该领域的理解。

功能介绍

官网提供了工具效果演示的网站页面,如下:http://deepke.zjukg.cn/CN/re_doc_show.html.

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第2张图片
主要功能分为三个类别:单句、篇章级、多模态。

对于单句支持常用的:实体抽取、属性抽取、关系抽取三个任务。如实体抽取效果:
【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第3张图片
篇章级、多模态则主要是关系抽取任务。

使用简介

具体使用可以参考官方文档:https://zjunlp.github.io/DeepKE/.该工具设计的框架如下:
【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第4张图片
DeepKE包含命名实体识别、关系抽取和属性抽取三个模块,分别是三个任务。每个模块都有自己的子模块。例如,关系抽取模块中有标准的、少样本、文档级和多模态子模块。每个子模块由三部分组成:一组可用作tokenizer的工具、数据加载器、训练和预测时使用编码的一种处理模块。

项目也提供了多种使用方式,如pip安装到环境中,或者将源码下载到所需要使用的项目中,类似于项目的一个模块,然后再使用。以下载源码以及标注的NER任务为例,

  1. 我这里使用源码下载方式,如下:
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第5张图片

  2. 进入对于案例使用文件夹路径,cd DeepKE/example/ner/standard,然后配置该案例运行所需要的包:

    pytorch-transformers==1.2.0
    torch==1.5.0
    hydra-core==1.0.6
    seqeval==0.0.5
    tqdm==4.31.1
    matplotlib==3.4.1
    deepke
    

    根据文档中的案例,我也创建了python3.8的环境:conda create -n deepke python=3.8,然后激活conda activate deepke。安装依赖包:pip install -r requirments.txt

  3. 第二步:获取标准的样例数据,通过wget 120.27.214.45/Data/ner/standard/data.tar.gz下载,然后tar -xzvf data.tar.gz解压,数据集和参数可以分别在data文件夹和conf文件夹中自定义。Dataset需要输入的是txt文本类型数据,文件数据格式需符合以下要求: 杭 B-LOC ‘\n’ 州 I-LOC ‘\n’ 真 O ‘\n’ 美 O ‘\n’。将对应的数据放到

  4. 模型训练,执行python run.py即开始训练,当然事情没有那么一帆风顺,我遇到了这个问题:
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第6张图片
    根据提示,我卸载了protobuf,然后安装pip install protobuf==3.20。除此之外,可以通过wandb offline取消在线训练监控。再重新执行训练命令。又发现了一个问题:
    在这里插入图片描述
    经过一番折腾,我查看了通过pip install deepke 到系统中的源码。:
    在这里插入图片描述
    对应程序写死了,应该是版本不统一。当前pip install deepke 安装的最新版本是2.0.2版本,当前在的程序是主分支上代码。那么这时需要考虑下载成对应tag为2.0.2这个分支上的代码。或者将当前程序切换到对应分支上即可:
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第7张图片
    在切换分支之前,确保不要对该项目进行改动,否则就会出现这种情况:
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第8张图片
    调整后,就可以切换过去了:
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第9张图片
    切换分支后,可以看到对应代码无须传参了:
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第10张图片
    再根据原来的情况,设置相关的参数。再次执行python run.py即可:
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第11张图片
    当然,这里未使用GPU去训练。虽然电脑的GPU是GTX 950M 4G显存,但是性能跟不上,调整训练使用batch_size为4,以及使用GPU(gpu_id:0,use_gpu:True),当然,我也将环境中安装的pytorch版本换成GPU版本的了,因为默认安装的pytorch是cpu版本的,然后重新运行。但愿晚上下班后能看到训练好的结果。
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第12张图片
    这速度着实感人,希望早停机制尽快训练完毕。训练还挺快,晚上回来发现下午两点多就跑玩了,还不错。
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第13张图片
    在测试集上的效果也不错。

  5. 数据预测,数据预测执行python predict.py,阳光总在风雨后,没有什么能够随随便便成功,果不其然事情不是那么一帆风顺,
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第14张图片
    根据网上资料:AttributeError:module ‘distutils‘ has no attribute ‘version,降低setuptools包的版本即可。然后再次执行如下:
    【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE_第15张图片
    识别效果还可以哟。

总结

让机器从感知智能到认知智能发展,业界普遍认为知识图谱是非常不错的选择。在知识图谱构建过程中就少不了进行知识抽取。现在有这么一个开源工具对业界的发展以及相关技术的普及发挥着比较大的积极作用。具体的技术实现也值得我们去探索以及优化。

当然,这个工具在某种程度上还不成熟,不过总体还是不错的。后面有时间的话,我将会对其源码实现进行研究并分享,敬请期待哦。

你可能感兴趣的:(Artificial,Intelligence,(AI),知识图谱,自然语言处理,知识图谱,人工智能)