中国综合性科技类核心期刊(北大核心)

中国科学引文数据库来源期刊(CSCD)

美国《化学文摘》(CA)收录

美国《数学评论》(MR)收录

俄罗斯《文摘杂志》收录

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

面向初等数学的知识点关系提取研究

杨东明 杨大为 顾航 洪道诚 高明 王晔

杨东明, 杨大为, 顾航, 洪道诚, 高明, 王晔. 面向初等数学的知识点关系提取研究[J]. 华东师范大学学报(自然科学版), 2019, (5): 53-65. doi: 10.3969/j.issn.1000-5641.2019.05.004
引用本文: 杨东明, 杨大为, 顾航, 洪道诚, 高明, 王晔. 面向初等数学的知识点关系提取研究[J]. 华东师范大学学报(自然科学版), 2019, (5): 53-65. doi: 10.3969/j.issn.1000-5641.2019.05.004
YANG Dong-ming, YANG Da-wei, GU Hang, HONG Dao-cheng, GAO Ming, WANG Ye. Research on knowledge point relationship extraction for elementary mathematics[J]. Journal of East China Normal University (Natural Sciences), 2019, (5): 53-65. doi: 10.3969/j.issn.1000-5641.2019.05.004
Citation: YANG Dong-ming, YANG Da-wei, GU Hang, HONG Dao-cheng, GAO Ming, WANG Ye. Research on knowledge point relationship extraction for elementary mathematics[J]. Journal of East China Normal University (Natural Sciences), 2019, (5): 53-65. doi: 10.3969/j.issn.1000-5641.2019.05.004

面向初等数学的知识点关系提取研究

doi: 10.3969/j.issn.1000-5641.2019.05.004
基金项目: 

国家重点研发计划 2016YFB1000905

国家自然科学基金 U1811264

国家自然科学基金 61672234

国家自然科学基金 61502236

国家自然科学基金 61877018

国家自然科学基金 61977025

上海市科技兴农推广项目 T20170303

详细信息
    作者简介:

    杨东明, 男, 硕士研究生, 研究方向为面向新硬件的大数据系统.E-mail:y1271752959m2@yahoo.com

    通讯作者:

    王晔, 男, 研究员, 研究方向为Web数据管理、海量数据挖掘、分布式系统等.E-mail:ywang@dase.ecnu.edu.cn

  • 中图分类号: TP301.6

Research on knowledge point relationship extraction for elementary mathematics

  • 摘要: 随着互联网技术的发展,在线教育已经改变了学生的学习方式.但由于缺乏完整的知识体系,在线教育存在着智能化程度低和“信息迷航”的问题.因此,构建知识体系成为在线教育平台的核心技术.知识点间的关系提取是知识体系构建的主要任务之一,目前比较高效的关系提取算法主要是监督式的.但是这类方法受限于文本质量低、语料稀缺、标签数据难获取、特征工程效率低、难以提取有向关系等挑战.为此,基于百科语料和远程监督思想,研究了知识点间的关系提取算法.提出了基于关系表示的注意力机制,该方法能够提取知识点间的有向关系信息.结合了GCN和LSTM的优势,提出了GCLSTM,该模型更好地提取了句子中的多点信息.基于Transformer架构和关系表示的注意力机制,提出了适用于有向关系提取的BTRE模型,降低了模型的复杂度.设计并实现了知识点关系提取系统.通过设计3组对比实验,验证了模型的性能和效率.
  • 图  1  GCLSTM模型架构图

    Fig.  1  GCLSTM Model Architecture

    图  2  BTRE模型

    Fig.  2  BTRE model

    图  3  关系提取系统架构

    Fig.  3  Relationship Extraction System Architecture

    图  4  BTRE、GCLSTM、PCNN的准确率-召回率曲线

    Fig.  4  BTRE, GCLSTM, PCNN accuracy-recall rate curve

    图  5  BTRE、GCLSTM、PCNN、Attn_BiLSTM时间消耗对比图

    Fig.  5  Comparison of time consumption for BTRE, GCLSTM, PCNN, and Attn_BiLSTM

    表  1  关系样例

    Tab.  1  Relationship example

    共现句$s$ 知识点$e_{1}$ 知识点$e_{2}$ 关系$r$
    两个整数的最大公因子可用于计算两数的最小公倍数 最小公倍数 整数 依赖
    求几个整数的最大公因数, 只要把它们所有共有的质因数连乘 质因数 最大公因数 被依赖
    代数式根据它所包含的运算可以分为有理式和无理式, 术语
    而有理式又可以分为整式和分式 整式 有理式
    正比例函数为特殊的一次函数 一次函数 正比例函数 包含
    实数根也经常被称为实根 实数根 实根 同义
    分数分为两类:真分数和假分数 真分数 假分数 反义
    直角三角形的外心在三角形斜边中点 直角三角形 外心 拥有
    二元二次方程是含有两个未知数且未知数的最高次数为2的整式方程 未知数 二元二次方程 被拥有
    下载: 导出CSV

    表  2  自注意力机制、循环结构、卷积操作复杂度对比

    Tab.  2  Comparison of self-attention mechanism, circulation mechanism, and convolution operation complexity

    运算方式 计算复杂度 串行化操作数 最大路径长度
    自注意力机制 $O(l\cdot d^{x})$ $O($1) $O($1)
    循环结构 $O(l\cdot (d^{x})^{2})$ $O(l)$ $O(l)$
    卷积操作 $O(k\cdot l\cdot (d^{x})^{2})$ $O($1) $O($log$_{k}(l))$
    下载: 导出CSV

    表  3  BTRE模型与GCLSTM模型、PCNN模型实验结果对比

    Tab.  3  Comparison of BTRE model with GCLSTM model and PCNN model

    模型名称 准确率 召回率 F1 AUC
    PCNN 74.15% 65.83% 69.74% 0.548
    GCLSTM 74.73% 69.33% 71.93% 0.569
    BTRE 75.35% 70.07% 72.61% 0.623
    下载: 导出CSV

    表  4  BTRE模型中不同子层数量结果对比

    Tab.  4  Comparison of the number of different sub-layers in the BTRE model

    子层数量N 准确率 召回率 F1 AUC 训练集F1
    1 68.78% 64.84% 66.75% 0.543 91.35%
    2 75.35% 70.07% 72.61% 0.624 93.26%
    3 71.05% 67.33% 69.14% 0.602 95.33%
    4 69.90% 68.33% 69.10% 0.573 95.78%
    下载: 导出CSV
  • [1] LIU H, MA W, YANG Y, et al. Learning concept graphs from online educational data[J]. Journal of Artificial Intelligence Research, 2016, 55:1059-1090. doi:  10.1613/jair.5002
    [2] NOVAK J D, BOB GOWIN D, JOHANSEN G T. The use of concept mapping and knowledge vee mapping with junior high school science students[J]. Science education, 1983, 67(5):625-645. doi:  10.1002/sce.3730670511
    [3] MIWA M, BANSAL M. End-to-End Relation Extraction using LSTMs on Sequencesand Tree Structures[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2016: 1105-1116.
    [4] MINTZ M, BILIS S, SNOW R, et al. Distant supervision for relation extraction without labeled data[C]//Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP: Volume 2, Association for Computational Linguistics, 2009: 1003-1011.
    [5] ZHOU P, SHI W, TIAN J, et al. Attention-based bidirectional long short-term memory networks for relation classification[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), 2016: 207-212.
    [6] LIN Y, SHEN S, LIU Z, et al. Neural relation extraction with selective attention over instances[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2016: 2124-2133.
    [7] LUONG M T, PHAM H, MANNING C D. Effective approaches to attention-based neural machine translation[C]//Empirical Methods in Natural Language Processing, 2015: 1412-1421.
    [8] NGUYEN T H, GRISHMAN R. Relation extraction: Perspective from convolutional neural networks[C]//Proceedings of the 1st Workshop on Vector Space Modeling for Natural Language Processing, 2015: 39-48.
    [9] ZHANG D, WANG D. Relation classification via recurrent neural network[J]. CoRR abs/1508.01006, 2015.
    [10] HASHIMOTO K, MIWA M, TSURUOKA Y, et al. Simple customization of recursive neural networks for semantic relation classification[C]//Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, 2013: 1372-1376.
    [11] EBRAHIMI J, DOU D. Chain based RNN for relation classification[C]//Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2015: 1244-1249.
    [12] SUNDERMEYER M, SCHLÜTER R, NEY H. LSTM neural networks for language modeling[C]//Thirteenth annual conference of the international speech communication association, 2012.
    [13] XU Y, MOU L, LI G, et al. Classifying relations via long short term memory networks along shortest dependency paths[C]//Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, 2015: 1785-1794.
    [14] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural computation, 1997, 9(8):1735-1780. doi:  10.1162/neco.1997.9.8.1735
    [15] ZENG D, LIU K, LAI S, et al. Relation classification via convolutional deep neural network[C]//25th International Conference on Computational Linguistics, Proceedings of the Conference: Technical Papers, August 23-29, 2014: 2335-2344.
    [16] DAUPHIN Y N, FAN A, AULI M, et al. Language modeling with gated convolutional networks[C]//Proceedings of the 34th International Conference on Machine Learning-Volume 70, 2017: 933-941.
    [17] KINCHIN I M, HAY D B, ADAMS A. How a qualitative approach to concept map analysis can be used to aid learning by illustrating patterns of conceptual development[J]. Educational research, 2000, 42(1):43-57. doi:  10.1080/001318800363908
    [18] BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[C]//International Conference on Learning Representations, 2015.
    [19] ZENG D, LIU K, CHEN Y, et al. Distant supervision for relation extraction via piecewise convolutional neural networks[C]//Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, 2015: 1753-1762.
    [20] MNIH V, HEESS N, GRAVES A. Recurrent models of visual attention[C]//Advances in neural information processing systems, 2014: 2204-2212.
  • 加载中
图(5) / 表(4)
计量
  • 文章访问数:  165
  • HTML全文浏览量:  165
  • PDF下载量:  1
  • 被引次数: 0
出版历程
  • 收稿日期:  2019-07-29
  • 刊出日期:  2019-09-25

目录

    /

    返回文章
    返回