基于自然语言中多模态融合

多模态融合学习路程

  • 一、主体内容
设定一种新知识的输入形式,单张图片(利用卷积和神经网络设计一种图片相似性检测模型,高于权重属于同类图片、处于一定权重区间则属于该图片结点的父节点、低于一定权重则无关);单段文本可以直接沿用段落文本三元组抽取工具抽取和融合,或者自己改进一下;多模态的另一个图谱则集成结点语义消歧融合、知识链匹配对齐这些算法实现。如果要用迁移学习你肯定得需要两个数据集,为了进行文本的三元组提取。你需要自己找一种深度学习模型实现文本三元组提取,在文本数据集上进行三元组抽取,然后利用简单的迁移学习思想把这个模型在你要融合的小样本文本数据集上再自适应训练一次(基于之前的代码加加几行就就能实现),然后利用这个模型对你的数据集进行三元组提取,这样就算是融合了迁移学习

文本处理模块

  • 实践之前需要掌握的理论知识

    • 语义网络, 语义网, 链接数据, 知识图谱是什么。

    • RDF, RDFS, OWL, Protege, 本体构建。

    • MySQL 数据库, pymysql。

    • D2rq, Jena, fuseki, SPARQL

1、数据清洗

  • 电影信息包括电影 id、图片链接、名称、导演名称、编剧名称、主演名称、类型、制片国家、语言、上映日期、片长、季数、其他名称、剧情简介、评分、评分人数,共 67245 条数据信息。虽说是电影信息,但其中也包括电视剧、综艺、动漫、纪录片、短片。
  • 电影演员信息包括演员 id、姓名、图片链接、性别、星座、出生日期、出生地、职业、更多中文名、更多外文名、家庭成员、简介,共 89592 条数据信息。这里所指的演员包括电影演员、编剧、导演。
  • 书籍信息包括书籍 id、图片链接、姓名、子标题、原作名称、作者、译者、出版社、出版年份、页数、价格、内容简介、目录简介、评分、评分人数,共 64321 条数据信息。
  • 书籍作者信息包括作者 id,姓名、图片链接、性别、出生日期、国家、更多中文名、更多外文名、简介,共 6231 条数据信息。这里作者包括书籍作者和译者。
  • 上述为我们爬取的数据类别,但数据有很多噪音,比如中文电影名称会外接英文电影名称、某些类型数据严重缺失、数据格式不统一等等,这就需要我们根据具体数据进行具体分析。此处需要多搬搬砖,没什么技术,不多讲。

2、jsonMysql

  • 首先我们将 JSON 类型的数据存储到 MySQL 之中,这里共构建了 13 个表,包含

3、RDB2RDF

  • 我们已经将 JSON 类型的数据导入到关系型数据库 RDB 之中,现在问题是怎么将 RDB Data 转换成 RDF。转换之前,我们先根据数据构建本体。

    • 3.1本体的构建

      什么是本体?本体有点哲学的含义,在计算机领域,可以理解为一种模型,用于描述由一套对象类型(概念或者说类)属性以及关系类型所构成的世界。此处我们使用 Protege 进行本体建模。

      首先下载 protege,下载链接为 https://protege.stanford.edu/。安装完成之后,新建 class,如果没有的话,在 window->Tabs->Classes 寻找。根据 MySQL 之中构建的表,此处构建相应的类,如下所示。红色箭头表示的是构建子类,右边图标指的是构建兄弟类,最右边指的是删除当前类。
      基于自然语言中多模态融合_第1张图片

  • 类构建完成之后,进行构建对象属性,共包含

    • has_movie_genre: domains 为 movie_info, ranges 为 movie_genre,表示某电影有某类别。

    • has_book_genre: domains 为 book_info, ranges 为 book_genre,表示某书籍有某类别。

    • has_actor: domains 为 movie_info, ranges 为 movie_actor,表示某电影有某演员。和 has_acted_in 为互逆关系。

    • has_acted_in: domains 为 movie_actor, ranges 为 movie_info,表示某演员出演了某电影。和 has_actor 为互逆关系。

    • 同理 has_writer, has_writed_in, has_director, has_directed_in, has_author, has_authored_in, has_translator, has_translator_in 构建方法相同。

    基于自然语言中多模态融合_第2张图片

构建完成之后,可以通过 OntoGrap 看到关系图。可以去 window->Tabs->OntoGrap 寻找 OntoGrap。

基于自然语言中多模态融合_第3张图片

​ 最后通过 File->Save as 保存成 Turtle Syntax 形式,命名为 douban_kgqa_ontology.owl

  • 3.2 D2RQ

    RDB 转换成 RDF 有两种方式,一是 direct mapping,即直接映射。规则为

    • 数据库的表作为本体中的类(Class)。
    • 表的列作为属性(Property)。
    • 表的行作为实例/资源。
    • 表的单元格值为字面量。
    • 如果单元格所在的列是外键,那么其值为 IRI,或者说实体/资源。
  • 但实际中,我们很少使用这种方法,因为不能把 RDB 中数据映射到我们定义的本体上面。因此我们采用另外一种方法,R2RDF(RDB to RDF Mapping Language),链接为 https://www.w3.org/TR/r2rml/。下面我们使用 D2RQ 工具将 RDB 数据转换到 RDF 形式。D2RQ 提供了自己的 mapping language,其形式和 R2RML 类似,具体语法链接为 https://www.w3.org/TR/2004/REC-owl-features-20040210/。D2RQ 有一个比较方便的地方,可以根据已定义的数据库自动生成预定义的 mapping 文件,用户可以在 mapping 文件上修改,把数据映射到自己的本体上。

  • mac, Linux 系统命令为

    ./generate-mapping -u root -p 123456 -o douban_kgqa_mapping.ttl jdbc:mysql:///douban_kgqa

    windows 系统命令为

    generate-mapping.bat -u root -o douban_kgqa_mapping.ttl jdbc:mysql:///douban_kgq

  • 参数解读:douban_kgqa_mapping.ttl 是我们修改后的 mapping 文件,其支持导出的 RDF 格式有 TURTLE, RDF/XML, RDF/XML-ABBREV, N3, N-TRIPLE,N-TRIPLE 是默认的输出格式。

    利用下列命令,我们能够在 http://localhost:2020/ 上进行 SPARQL 数据查询,有兴趣的读者可以尝试一下。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Nq1JjrkE-1587824716777)(https://ftp.bmp.ovh/imgs/2020/04/8ce75895c07cef13.png#pic_center)]

  • 最后查看一下我们生成的 RDF 数据,可以看到共 298 万行,前 10 行的数据格式。其实我们爬虫只运行了两天,数据还是太少,以后有空闲时间再更新更多数据。

基于自然语言中多模态融合_第4张图片

4.总结

本篇文章主讲了如何将 JSON 数据存储到关系型数据库之中,Protege 构建本体方法,如何将 RDB 数据转换成 RDF 类型数据。篇幅有限,下篇文章再讲如何将 RDF 数据转换成 TDB 数据并存储到 Jena 之中,如何利用 Fuseki, SPARQL 进行查询,如何自定义推理规则。

如何将 RDB 数据转换成 RDF 类型数据。篇幅有限,下篇文章再讲如何将 RDF 数据转换成 TDB 数据并存储到 Jena 之中,如何利用 Fuseki, SPARQL 进行查询,如何自定义推理规则。

你可能感兴趣的:(基于自然语言中多模态融合)