咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >融合TuckER嵌入和强化学习的知识推理 收藏

融合TuckER嵌入和强化学习的知识推理

Knowledge Reasoning Combining TuckER Embedding and Reinforcement Learning

作     者:于铁忠 罗婧 王利琴 董永峰 YU Tie-Zhong;LUO Jing;WANG Li-Qin;DONG Yong-Feng

作者机构:河北工业大学人工智能与数据科学学院天津300401 石家庄学院计算机科学与工程学院石家庄050035 河北省大数据计算重点实验室天津300401 河北省数据驱动工业智能工程研究中心天津300401 

出 版 物:《计算机系统应用》 (Computer Systems & Applications)

年 卷 期:2022年第31卷第9期

页      面:127-135页

学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金(61806072) 天津市自然科学基金(19JCZDJC40000) 河北省高等学校科学技术研究项目(QN2021213) 河北省自然科学基金(F2020202008) 

主  题:知识图谱 知识推理 TuckER嵌入 强化学习 路径搜索 路径规划 

摘      要:知识推理是补全知识图谱的重要方法,旨在根据图谱中已有的知识,推断出未知的事实或关系.针对多数推理方法仍存在没有充分考虑实体对之间的路径信息,且推理效率偏低、可解释性差的问题,提出了将TuckER嵌入和强化学习相结合的知识推理方法TuckRL(TuckER embedding with reinforcement learning).首先,通过TuckER嵌入将实体和关系映射到低维向量空间,在知识图谱环境中采用策略引导的强化学习算法对路径推理过程进行建模,然后在路径游走进行动作选择时引入动作修剪机制减少无效动作的干扰,并将LSTM作为记忆组件保存智能体历史动作轨迹,促使智能体更准确地选择有效动作,通过与知识图谱的交互完成知识推理.在3个主流大规模数据集上进行了实验,结果表明TuckRL优于现有的大多数推理方法,说明将嵌入和强化学习相结合的方法用于知识推理的有效性.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分