时间差分算法(Temporal difference methods,TD)是一类模型无关的强化学习算法.该算法拥有较低的方差和可以在线(On-line)学习的优点,得到了广泛的应用.但对于一种给定的TD算法,往往只能通过调整步长参数或其他超参数来加速收敛,这也就造成了加速TD算法收敛的方法匮乏.针对此问题提出了一种利用蒙特卡洛算法(Monte Carlo methods,MC)来加速TD算法收敛的方法(Accelerate TD by MC,ATDMC).该方法不仅可以适用于绝大部分的TD算法,而且不需要改变在线学习的方式.为了证明方法的有效性,分别在同策略(On-policy)评估、异策略(Off-policy)评估和控制(Control)三个方面进行了实验.实验结果表明ATDMC方法可以有效地加速各类TD算法.
针对传统关系抽取模型依赖特征工程等机器学习方法,存在准确率较低且规则较繁琐等问题,提出一种BERT+BiLSTM+CRF方法.首先使用BERT(bidirectional encoder representations from transformers)对语料进行预训练;然后利用BERT根据上下文...
详细信息
针对传统关系抽取模型依赖特征工程等机器学习方法,存在准确率较低且规则较繁琐等问题,提出一种BERT+BiLSTM+CRF方法.首先使用BERT(bidirectional encoder representations from transformers)对语料进行预训练;然后利用BERT根据上下文特征动态生成词向量的特点,将生成的词向量通过双向长短期记忆网络(BiLSTM)编码;最后输入到条件随机场(CRF)层完成对因果关系的抽取.实验结果表明,该模型在SemEval-CE数据集上准确率比BiLSTM+CRF+self-ATT模型提高了0.0541,从而提高了深度学习方法在因果关系抽取任务中的性能.
暂无评论