咨询与建议

限定检索结果

文献类型

  • 125 篇 期刊文献
  • 3 篇 会议

馆藏范围

  • 128 篇 电子文献
  • 0 种 纸本馆藏

日期分布

学科分类号

  • 118 篇 工学
    • 103 篇 计算机科学与技术...
    • 87 篇 软件工程
    • 58 篇 控制科学与工程
    • 11 篇 机械工程
    • 2 篇 仪器科学与技术
    • 2 篇 信息与通信工程
    • 1 篇 生物医学工程(可授...
    • 1 篇 生物工程
    • 1 篇 网络空间安全
  • 65 篇 管理学
    • 64 篇 管理科学与工程(可...
    • 1 篇 图书情报与档案管...
  • 6 篇 理学
    • 4 篇 数学
    • 1 篇 物理学
    • 1 篇 系统科学
  • 2 篇 文学
    • 2 篇 新闻传播学
  • 1 篇 教育学
    • 1 篇 教育学
  • 1 篇 军事学
    • 1 篇 军队指挥学

主题

  • 28 篇 强化学习
  • 11 篇 深度强化学习
  • 7 篇 数据挖掘
  • 7 篇 深度学习
  • 4 篇 函数逼近
  • 4 篇 人工智能
  • 4 篇 支持向量机
  • 4 篇 策略梯度
  • 4 篇 行动者评论家
  • 4 篇 连续空间
  • 4 篇 经验回放
  • 4 篇 深度q网络
  • 4 篇 循环神经网络
  • 4 篇 卷积神经网络
  • 3 篇 最小二乘
  • 3 篇 遗传算法
  • 3 篇 数据结构
  • 3 篇 梯度下降
  • 3 篇 目标检测
  • 3 篇 算法

机构

  • 104 篇 吉林大学
  • 53 篇 苏州大学
  • 25 篇 软件新技术与产业...
  • 12 篇 符号计算与知识工...
  • 9 篇 辽宁大学
  • 7 篇 常熟理工学院
  • 5 篇 江苏省计算机信息...
  • 4 篇 清华大学
  • 3 篇 吉林财经大学
  • 2 篇 江苏省软件新技术...
  • 2 篇 大连理工大学
  • 2 篇 内蒙古民族大学
  • 2 篇 苏州城市学院
  • 2 篇 昆明理工大学
  • 2 篇 上海大学
  • 2 篇 东北师范大学
  • 2 篇 北京化工大学
  • 1 篇 中国科学院长春光...
  • 1 篇 苏州科技大学
  • 1 篇 苏州工业职业技术...

作者

  • 44 篇 刘全
  • 14 篇 周春光
  • 11 篇 傅启明
  • 11 篇 伏玉琛
  • 11 篇 朱斐
  • 8 篇 张永刚
  • 8 篇 徐红艳
  • 8 篇 刘大有
  • 8 篇 冯勇
  • 7 篇 王嵘冰
  • 7 篇 凌兴宏
  • 7 篇 王喆
  • 6 篇 欧阳丹彤
  • 5 篇 刘亚波
  • 5 篇 季怡
  • 5 篇 刘纯平
  • 4 篇 肖飞
  • 4 篇 齐红
  • 4 篇 闫岩
  • 4 篇 左万利

语言

  • 128 篇 中文
检索条件"基金资助=教育部重点实验室资助项目“符号计算与知识工程教育部重点实验室”资助的成果"
128 条 记 录,以下是31-40 订阅
排序:
融合TF-IDF和LDA的中文FastText短文本分类方法
收藏 引用
应用科学学报 2019年 第3期37卷 378-388页
作者: 冯勇 屈渤浩 徐红艳 王嵘冰 张永刚 辽宁大学信息学院 沈阳110036 吉林大学符号计算与知识工程教育部重点实验室 长春130012
FastText文本分类模型具有快速高效的优势,但直接将其用于中文短文本分类则存在精确率不高的问题.为此提出一种融合词频-逆文本频率(term frequency-inverse document frequency, TF-IDF)和隐含狄利克雷分布(latent Dirichlet allocatio... 详细信息
来源: 评论
一种带自适应学习率的综合随机梯度下降Q-学习方法
收藏 引用
计算机学报 2019年 第10期42卷 2203-2215页
作者: 金海东 刘全 陈冬火 苏州大学计算机科学与技术学院 江苏苏州215006 软件新技术与产业化协同创新中心 南京210000 吉林大学符号计算与知识工程教育部重点实验室 长春130012 苏州大学江苏省计算机信息处理技术重点实验室 江苏苏州215006
在线强化学习中,值函数的逼近通常采用随机梯度下降(Stochastic Gradient Descent,SGD)方法.在每个时间步,SGD方法使用强化学习算法获取随机样本,计算损失函数的局梯度,单次模型参数更新的计算量小,适合在线学习.但是,由于目标函数不... 详细信息
来源: 评论
基于重要性采样的优势估计器
收藏 引用
通信学报 2019年 第5期40卷 108-116页
作者: 刘全 姜玉斌 胡智慧 苏州大学计算机科学与技术学院 江苏苏州215006 苏州大学江苏省计算机信息处理技术重点实验室 江苏苏州215006 吉林大学符号计算与知识工程教育部重点实验室 吉林长春130012 软件新技术与产业化协同创新中心 江苏南京210093
在连续动作任务中,深度强化学习通常采用高斯分布作为策略函数。针对高斯分布策略函数由于截断动作导致算法收敛速度变慢的问题,提出了一种重要性采样优势估计器(ISAE)。该估计器在通用优势估计器(GAE)的基础上,引入了重要性采样机制,... 详细信息
来源: 评论
融合潜在狄利克雷分布与元路径分析的用户相关性度量方法
收藏 引用
计算机应用 2019年 第11期39卷 3288-3292页
作者: 徐红艳 王丹 王富海 王嵘冰 辽宁大学信息学院
用户相关性度量是异构信息网络研究的基础与核心。现有的用户相关性度量方法由于未充分开展多维度分析和链路分析,其准确性尚存在提升空间。为此,提出了一种融合狄利克雷分布(LDA)与元路径分析的用户相关性度量方法。首先利用LDA进行主... 详细信息
来源: 评论
基于多重门限机制的异步深度强化学习
收藏 引用
计算机学报 2019年 第3期42卷 636-653页
作者: 徐进 刘全 章宗长 梁斌 周倩 苏州大学计算机科学与技术学院 江苏苏州215006 软件新技术与产业化协同创新中心 南京210000 吉林大学符号计算与知识工程教育部重点实验室 长春130012
近年来,深度强化学习已经成为人工智能领域一个新的研究热点.深度强化学习在如Atari 2600游戏等高维度大状态空间任务中取得了令人瞩目的成功,但仍存在训练时间太长等问题.虽然异步深度强化学习通过利用多线程技术大幅度减少了深度强化... 详细信息
来源: 评论
基于生成对抗网络的多视图学习与重构算法
收藏 引用
自动化学报 2018年 第5期44卷 819-828页
作者: 孙亮 韩毓璇 康文婧 葛宏伟 大连理工大学计算机科学与技术学院 大连116023
同一事物通常需要从不同角度进行表达.然而,现实应用经常引出复杂的场景,导致完整视图数据很难获得.因此研究如何构建事物的完整视图具有重要意义.本文提出一种基于生成对抗网络(Generative adversarial networks,GAN)的多视图学习与重... 详细信息
来源: 评论
一种解决连续空间问题的真实在线自然梯度AC算法
收藏 引用
软件学报 2018年 第2期29卷 267-282页
作者: 朱斐 朱海军 刘全 陈冬火 伏玉琛 苏州大学计算机科学与技术学院 江苏苏州215006 江苏省计算机信息处理技术重点实验室(苏州大学) 江苏苏州215006 符号计算与知识工程教育部重点实验室(吉林大学) 吉林长春130012 常熟理工学院计算机科学与工程学院 江苏常熟215500
策略梯度作为一种能够有效解决连续空间决策问题的方法得到了广泛研究,但由于在策略估计过程中存在较大方差,因此,基于策略梯度的方法往往受到样本利用率低、收敛速度慢等限制.针对该问题,在行动者-评论家(actor-critic,简称AC)算法框架... 详细信息
来源: 评论
一种采用模型学习和经验回放加速的正则化自然行动器评判器算法
收藏 引用
计算机学报 2019年 第3期42卷 532-553页
作者: 钟珊 刘全 傅启明 龚声蓉 董虎胜 苏州大学计算机科学与技术学院 江苏苏州215006 常熟理工学院计算机科学与工程学院 江苏常熟215500 吉林大学符号计算与知识工程教育部重点实验室 长春130012 苏州科技大学江苏省建筑智慧节能重点实验室 江苏苏州215006 软件新技术与产业化协同创新中心 南京210000 苏州科技大学电子与信息工程学院 江苏苏州215006
行动器评判器(Actor Critic,简称AC)算法是强化学习连续动作领域的一类重要算法,其采用独立的结构表示策略,但更新策略时需要大量样本导致样本效率不高.为了解决该问题,提出了基于模型学习和经验回放加速的正则化自然AC算法(Regularized... 详细信息
来源: 评论
一种最大置信上界经验采样的深度Q网络方法
收藏 引用
计算机研究与发展 2018年 第8期55卷 1694-1705页
作者: 朱斐 吴文 刘全 伏玉琛 苏州大学计算机科学与技术学院 江苏苏州215006 江苏省计算机信息处理技术重点实验室(苏州大学) 江苏苏州215006 符号计算与知识工程教育部重点实验室(吉林大学) 长春130012 常熟理工学院计算机科学与工程学院 江苏常熟215500
由深度学习(deep learning,DL)和强化学习(reinforcement learning,RL)结合形成的深度强化学习(deep reinforcement learning,DRL)是目前人工智能领域的一个热点.深度强化学习在处理具有高维度输入的最优策略求解任务中取得了很大的突破... 详细信息
来源: 评论
基于视觉注意力机制的异步优势行动者-评论家算法
收藏 引用
计算机科学 2019年 第5期46卷 169-174页
作者: 李杰 凌兴宏 伏玉琛 刘全 苏州大学计算机科学与技术学院 江苏苏州215006 苏州大学江苏省计算机信息处理技术重点实验室 江苏苏州215006 吉林大学符号计算与知识工程教育部重点实验室 长春130012 软件新技术与产业化协同创新中心 南京210000
异步深度强化学习能够通过多线程技术极大地减少学习模型所需要的训练时间。然而作为异步深度强化学习的一种经典算法,异步优势行动者-评论家算法没有充分利用某些具有重要价值的区域信息,网络模型的学习效率不够理想。针对此问题,文中... 详细信息
来源: 评论