咨询与建议

限定检索结果

文献类型

  • 3,769 篇 期刊文献
  • 194 篇 会议
  • 1 件 标准

馆藏范围

  • 3,964 篇 电子文献
  • 0 种 纸本馆藏

日期分布

学科分类号

  • 3,519 篇 工学
    • 2,858 篇 计算机科学与技术...
    • 2,017 篇 软件工程
    • 462 篇 控制科学与工程
    • 235 篇 机械工程
    • 234 篇 仪器科学与技术
    • 220 篇 网络空间安全
    • 148 篇 信息与通信工程
    • 75 篇 电子科学与技术(可...
    • 22 篇 电气工程
    • 15 篇 公安技术
    • 10 篇 建筑学
    • 10 篇 测绘科学与技术
    • 9 篇 化学工程与技术
    • 9 篇 地质资源与地质工...
    • 9 篇 交通运输工程
    • 9 篇 生物医学工程(可授...
    • 8 篇 力学(可授工学、理...
  • 989 篇 管理学
    • 940 篇 管理科学与工程(可...
    • 34 篇 工商管理
    • 21 篇 图书情报与档案管...
    • 15 篇 公共管理
  • 215 篇 教育学
    • 212 篇 教育学
  • 110 篇 理学
    • 48 篇 数学
    • 32 篇 系统科学
    • 13 篇 生物学
  • 74 篇 艺术学
    • 74 篇 设计学(可授艺术学...
  • 37 篇 经济学
    • 36 篇 应用经济学
  • 20 篇 法学
    • 11 篇 马克思主义理论
  • 14 篇 文学
    • 9 篇 外国语言文学
  • 14 篇 医学
  • 12 篇 军事学
    • 12 篇 军队指挥学
  • 9 篇 农学
  • 4 篇 哲学
  • 4 篇 历史学

主题

  • 73 篇 强化学习
  • 64 篇 深度学习
  • 53 篇 计算机
  • 52 篇 数据挖掘
  • 49 篇 注意力机制
  • 46 篇 无线传感器网络
  • 42 篇 自然语言处理
  • 41 篇 神经网络
  • 33 篇 遗传算法
  • 33 篇 嵌入式系统
  • 30 篇 神经机器翻译
  • 29 篇 web
  • 29 篇 机器学习
  • 28 篇 支持向量机
  • 28 篇 数据库
  • 27 篇 人工智能
  • 26 篇 应用
  • 26 篇 数字水印
  • 26 篇 卷积神经网络
  • 25 篇 xml

机构

  • 3,744 篇 苏州大学
  • 253 篇 江苏省计算机信息...
  • 136 篇 中国科学技术大学
  • 66 篇 吉林大学
  • 62 篇 常熟理工学院
  • 50 篇 软件新技术与产业...
  • 42 篇 暨南大学
  • 42 篇 南通大学
  • 37 篇 苏州科技学院
  • 37 篇 南京大学
  • 36 篇 中国科学院计算机...
  • 34 篇 武夷学院
  • 33 篇 苏州工业职业技术...
  • 32 篇 苏州市职业大学
  • 26 篇 苏州经贸职业技术...
  • 25 篇 南京航空航天大学
  • 25 篇 南京理工大学
  • 23 篇 泰州职业技术学院
  • 23 篇 符号计算与知识工...
  • 22 篇 南京邮电大学

作者

  • 274 篇 朱巧明
  • 247 篇 王宜怀
  • 196 篇 周国栋
  • 184 篇 李培峰
  • 159 篇 张广泉
  • 135 篇 刘全
  • 122 篇 李凡长
  • 114 篇 朱艳琴
  • 110 篇 吕强
  • 102 篇 龚声蓉
  • 91 篇 杨季文
  • 85 篇 孙涌
  • 82 篇 孔芳
  • 81 篇 陆建德
  • 79 篇 徐汀荣
  • 77 篇 马小虎
  • 71 篇 李云飞
  • 70 篇 赵雷
  • 69 篇 刘纯平
  • 67 篇 钱培德

语言

  • 3,964 篇 中文
检索条件"机构=苏州大学计算机科学与技术学院  江苏苏州  (215006)"
3964 条 记 录,以下是61-70 订阅
排序:
结合对话状态信息的个性化对话回复生成
收藏 引用
计算机科学 2024年 第S01期51卷 143-149页
作者: 桂海涛 王中卿 苏州大学计算机科学与技术学院 江苏苏州215006
尽管个性化回复生成模型取得了显著成功,但这些研究都未能很好地考虑到对话状态信息对于个性化对话回复的影响。针对此问题,基于预训练生成模型提出了结合对话状态的自监督对话回复生成模型,该模型可以有效地对结合对话状态生成个性化... 详细信息
来源: 评论
一种基于BERT的多级连贯性文本分割方法
收藏 引用
计算机应用与软件 2024年 第10期41卷 262-268,324页
作者: 赵怡博 蒋峰 李培峰 苏州大学计算机科学与技术学院 江苏苏州215006
文本分割是自然语言处理(NLP)领域的一项重要任务。现有的工作大多是只关注文章整体信息或只着重于局部文本信息的模型,不能同时兼顾整体和局部的信息,因此,该文提出一种基于BERT的多级连贯性文本分割模型(HAC-BERT)。该模型能够通过对... 详细信息
来源: 评论
数据标注方法比较研究:以依存句法树标注为例
收藏 引用
清华大学学报(自然科学版) 2022年 第5期62卷 908-916页
作者: 周明月 龚晨 李正华 张民 苏州大学计算机科学与技术学院 .苏州215006
数据标注最重要的考虑因素是标注数据质量和标注成本。该文调研发现自然语言处理领域的数据标注工作通常采用机标人校的标注方法以降低成本,但很少有工作严格对比不同标注方法,以探讨标注方法对标注质量和成本的影响。该文依托一个成熟... 详细信息
来源: 评论
利用语义关联增强的跨语言预训练模型的译文质量评估
收藏 引用
中文信息学报 2023年 第3期37卷 79-88页
作者: 叶恒 贡正仙 苏州大学计算机科学与技术学院 江苏苏州215006
机器翻译质量评估(QE)是在不依赖参考译文的条件下,自动对机器翻译译文进行评估。当前人工标注数据稀缺,使得神经QE模型在自动检测译文错误方面还存在较大问题。为了更好地利用规模庞大但却缺少人工标注信息的平行语料,该文提出一种基... 详细信息
来源: 评论
融合高频属性信息的属性抽取研究
收藏 引用
中文信息学报 2023年 第1期37卷 132-143页
作者: 潘雨晨 尉桢楷 洪宇 徐庆婷 姚建民 苏州大学计算机科学与技术学院 江苏苏州215006
属性抽取是细粒度情感分析的子任务之一,其目标是从评论文本中抽取用户所评价的属性。在特定领域中,某些属性可能会频繁出现在不同的评论文本中,称之为高频属性。高频属性具有较高的领域表征能力,易被监督学习模型感知。相对地,低频属... 详细信息
来源: 评论
融合零指代识别的篇章级机器翻译
收藏 引用
中文信息学报 2023年 第8期37卷 25-33页
作者: 汪浩 李军辉 贡正仙 苏州大学计算机科学与技术学院 江苏苏州215006
在汉语等其他有省略代词习惯的语言中,通常会省略可从上下文信息推断出的代词。尽管以Transformer为代表的的神经机器翻译模型取得了巨大的成功,但这种代词省略现象依旧使神经机器翻译模型面临很大的挑战。该文在Transformer模型基础上... 详细信息
来源: 评论
基于多粒度交互推理的答案选择方法研究
收藏 引用
中文信息学报 2023年 第1期37卷 104-111,120页
作者: 金志凌 朱鸿雨 苏玉兰 唐竑轩 洪宇 张民 苏州大学计算机科学与技术学院 江苏苏州215006
预训练语言模型已经广泛应用于不同自然语言处理任务,其蕴含的自注意力机制能够在“文本对子”之上形成统一的语义编码表示,从而使BERT模型的输入结构和运算模式理论上适用于处理“目标问题和候选答案”样本。然而,直接应用BERT等语言... 详细信息
来源: 评论
融合情感分析的隐式反问句识别模型
收藏 引用
中文信息学报 2023年 第7期37卷 114-121页
作者: 李翔 刘承伟 朱晓旭 苏州大学计算机科学与技术学院 江苏苏州215006
反问是现代汉语中一种常用的修辞手法,根据是否含有反问标记可分为显式反问句与隐式反问句。其中隐式反问句表达的情感更为丰富,表现形式也十分复杂,对隐式反问句的识别更具挑战性。该文首先扩充了汉语反问句语料库,语料库规模达到10 00... 详细信息
来源: 评论
基于情感信息的商品评论生成式摘要
收藏 引用
中文信息学报 2023年 第1期37卷 144-152页
作者: 冯仁杰 王中卿 苏州大学计算机科学与技术学院 江苏苏州215006
近些年来,随着电商平台的飞速发展,越来越多的人会选择在网上购物并且对商品进行评价。对于较长篇幅的评论,进行摘要可以让用户快速地了解到商品的优缺点。目前主流的生成式摘要模型大多只考虑文本的序列化信息,而对一个商品评论来说,... 详细信息
来源: 评论
信息增强的医患对话理解
收藏 引用
中文信息学报 2023年 第1期37卷 121-131页
作者: 张智林 陈文亮 苏州大学计算机科学与技术学院 江苏苏州215006
近年来在线问诊的需求日益增大,亟需关于自动化医疗问诊方面的研究,而医患对话理解是智能医疗研究的基础。然而在真实场景中,医患对话理解面临着实体表述复杂、状态判断困难的问题。针对这些问题,该文提出一种信息增强的医患对话理解模... 详细信息
来源: 评论