王昊 作品数:31 被引量:31 H指数:3 供职机构: 北方工业大学 更多>> 发文基金: 国家自然科学基金 教育部人文社会科学研究基金 更多>> 相关领域: 自动化与计算机技术 化学工程 文化科学 天文地球 更多>>
一种碲酸盐掺杂闪烁光纤及其制备方法 本发明提供了一种碲酸盐掺杂闪烁光纤及其制备方法,通过掺杂碲酸盐和热处理的工艺方法,可进一步增大碲酸盐的温度无关性和法拉第效应,有效提高纤芯的产光能力,同时通过不含硅、不含钇铝石榴石的碲酸盐玻璃材料作为包层,可有效提高拉伸... 尹士玉 王昊 郭红阳文献传递 知识驱动的事件双曲嵌入时序关系抽取方法研究 被引量:1 2023年 针对事件时间关系不对称的问题,采用将事件表示映射到双曲空间的方法,进行事件时序关系抽取。通过简单的运算,用预训练的词向量与外部知识构建事件的词嵌入表示。在公开发布的数据集上的实验结果表明,模型的F1值比基线模型普遍高2%,能够提升事件时序关系抽取的效果。 段建勇 戴诗伟 王昊 王昊 李欣关键词:关系抽取 利用知识强化语言模型的口语理解方法 2023年 基于预训练的语言模型在口语理解(SLU)任务中具有优异的性能表现。然而,与人类理解语言的方式相比,单纯的语言模型只能建立文本层级的上下文关联,缺少丰富的外部知识来支持其完成更为复杂的推理。提出一种针对SLU任务的基于Transformer的双向编码器表示(BERT)的联合模型。引入单词级别的意图特征并使用注意力机制为BERT融合外部知识。此外,由于SLU包含意图检测和槽填充2个相互关联的子任务,模型通过联合训练捕捉2个子任务间的关联性,充分运用这种关联性增强外部知识对于SLU任务的性能提升效果,并将外部知识转化为可用于特定子任务的特征信息。在ATIS和Snips 2个公开数据集上的实验结果表明,该模型句子级别的语义准确率分别为89.1%和93.3%,与BERT模型相比,分别提升了0.9和0.4个百分点,能够有效利用外部知识提升自身性能,在SLU任务中拥有比BERT更为优秀的性能表现。 刘高军 王岳 段建勇 段建勇 王昊关键词:外部知识 语言模型 一种掺杂镥基硅酸盐闪烁玻璃及其制备方法 本发明提供了一种掺杂镥基硅酸盐闪烁玻璃及其制备方法,通过引入镥基并控制工艺条件,使制得的该闪烁玻璃具有产光效率高、衰减速度快、密度大、阻拦射线性能强等优点,光产额可高达27000,密度能达到6.5~7.5g/cm<Sup... 尹士玉 王昊 郭红阳一种高折射率碲酸盐玻璃及其制备方法 本发明提供了一种高折射率碲酸盐玻璃及其制备方法,涉及光学玻璃技术领域,包括如下摩尔百分比的组分:TeO<Sub>2</Sub>60.00~70.00%、PbO10.00~20.00%、ZnO 0~20.00%和BaF<S... 尹士玉 王昊 段洁莹文献传递 基于原型矫正和自适应增量蒸馏的小样本增量事件检测 2024年 小样本增量事件检测是在样本数量有限的情况下,从类增量数据流中持续学习新事件类型,其中不同事件类型的样本在不同时间到达,同时最大程度地保留检测旧类的能力。然而,现有的工作仍不能解决灾难性遗忘问题。针对灾难性遗忘问题,本文提出了融合知识的原型矫正方法和自适应增量蒸馏。具体来说,本文对外部知识和训练样本分别进行编码和融合,绘制每个原型样本,以减小计算原型与实际原型之间的误差,对原型进行矫正。自适应增量蒸馏引用了元学习的思想,在蒸馏过程中通过增量数据,使学生模型提供教学反馈,更新教师模型的教学方式,使旧知识更好地传递到学生模型中。本文使用上述方法解决了灾难性遗忘问题。在小样本增量事件检测数据集(Few-Shot Incremental Event Detection Task based on the Few Event Dataset, IFSED)上的实验结果表明,本文的方法在新类上的表现,F1分数提高1.98%,在所有训练轮次可见的旧类上的表现,F1分数平均提高4.24%,在小样本增量事件检测任务上达了最佳性能。 刘垚 王昊 姚博文关键词:元学习 一种新型X射线防辐射特种玻璃及制备方法 本发明提供了一种新型X射线防辐射特种玻璃,新型X射线防辐射特种玻璃由以下摩尔百分比的组分制成:TeO<Sub>2</Sub>:60%;PbO:20%;ZnO:11‑19%;BaF<Sub>2</Sub>:1‑9%;本发明... 尹士玉 刘霖 王昊文献传递 一种拼写数据的生成方法 本发明公开了一种拼写数据的生成方法,包括以下步骤:基于输入法构建拼音语料库、语音语料库以及手写语料库;通过输入法输入不同形式的错误句子或词组;通过拼音语料库、语音语料库以及手写语料库对不同形式的错误句子或词组进行匹配检索... 段建勇 王昊 张梅 马东超 潘利建 王冰 袁阳文献传递 基于句间信息的图注意力卷积网络的文档级关系抽取 被引量:3 2023年 为解决现有模型对文档的结构信息挖掘不足的问题,提出一种基于句间信息的图注意力卷积网络模型。该模型改进了一种文档级编码器,该编码器使用了一种新的注意力机制--句间注意力机制,使得句子的最终表示更加关注前一个句子和之前文档中的重要信息,更有利于挖掘文档的结构信息。实验结果表明,所提模型在DocRED数据集上的F 1评价指标达到56.3%,性能优于基线模型。在融入句间注意力机制时,由于模型需要对每一句话分别进行句间注意力操作,因此训练模型时需要消耗更多的内存和时间。基于句间信息的图注意力卷积网络模型可以有效地对文档中的相关信息进行聚合,并且增强对文档的结构信息的挖掘能力,从而使得模型在文档级关系抽取任务中效果得到提升。 段建勇 杨潇 王昊 王昊 李欣基于位置嵌入和多级预测的中文嵌套命名实体识别 被引量:1 2023年 针对传统中文嵌套命名实体识别模型通常存在实体边界难以准确定位及中文字符与词汇之间边界模糊的问题,构建一种基于位置嵌入和多级结果边界预测的嵌套命名实体识别模型。在嵌入层,将嵌套实体位置信息与文本位置信息同时编码后生成绝对位置序列,通过关注中文文本中自带的位置信息,进一步挖掘嵌套实体与字符之间的关系,并且增强了嵌套实体与原始文本之间的联系。在编码层,利用排除最优路径的隐藏矩阵实现嵌套实体的初步识别。在解码层,计算实体边界的偏移量,重新确定实体边界,从而提高中文嵌套实体识别准确率。实验结果表明,在医疗和日常两个领域的数据集上,该模型的准确率、召回率、F1值相比于基线模型中的最优值分别提高了0.34、1.06、0.80和11.90、0.78、6.23个百分点,具有较好的识别性能。 段建勇 朱奕霏 王昊 王昊 李欣关键词:条件随机场