您现在的位置: 首页> 研究主题> 语义相关度

语义相关度

语义相关度的相关文献在2001年到2022年内共计120篇,主要集中在自动化技术、计算机技术、科学、科学研究、无线电电子学、电信技术 等领域,其中期刊论文95篇、会议论文5篇、专利文献253268篇;相关期刊49种,包括情报学报、情报杂志、现代图书情报技术等; 相关会议5种,包括第十一届全国计算语言学学术会议、第三届全国信息检索与内容安全学术会议、第八届全国人机语音通讯学术会议(NCMMSC8)等;语义相关度的相关文献由290位作者贡献,包括张全、刘运通、方俊等。

语义相关度—发文量

期刊论文>

论文:95 占比:0.04%

会议论文>

论文:5 占比:0.00%

专利文献>

论文:253268 占比:99.96%

总计:253368篇

语义相关度—发文趋势图

语义相关度

-研究学者

  • 张全
  • 刘运通
  • 方俊
  • 郭雷
  • 吴晨
  • 张运良
  • 杨进才
  • 诸云强
  • 陈忠忠
  • 何婷婷
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

    • 杨凯婷; 张素兰; 张继福; 胡立华; 杨海峰
    • 摘要: 大多数图像标签完备方法仅依据待完备图像的视觉特征搜索近邻图像,获取候选标签实现完备,往往忽略候选标签与初始标签隐含的语义和视觉关系.为有效完备图像标签,本文依据信息的相互学习机制提出一种基于视觉和语义互学习的标签完备标注方法.首先,依据待完备图像的视觉特征和初始标签语义,搜索其近邻图像集并获取候选标签;其次,根据候选标签与初始标签的视觉内容相似性和语义相关性度量候选标签与待完备图像的关联度;最后,结合候选标签频率,选取关联程度高的候选标签实现标签补全.在基准数据集Corel5K以及真实数据集Flickr30Concepts上进行实验验证,结果表明该方法在图像标签完备的平均准确率、平均召回率以及覆盖率上均表现出更优的性能.
    • 谭剪梅; 高山; 刘猛猛; 李维炼
    • 摘要: 针对自然灾害发生后,不同类型的人群在应急响应过程中对灾害现场场景可视化有着不同需求以及灾害场景模型针对性较低的问题,本文提出了一种基于本体的语义相关度计算方法.利用本体方法确定灾害场景模型与多类型用户需求在概念语义上的逻辑关系,按照多用户可视化需求语义相关度划分灾害场景模型要素,在此基础上采取用户需求规则约束的推理技术计算语义相关度,从而量化灾害场景可视化数据权重.实验案例表明该方法具有可行性,能有效提升灾害场景按需推送和按需构建的效率.
    • 刘高军; 方晓; 段建勇
    • 摘要: 随着互联网时代的到来,搜索引擎开始被普遍使用.在针对冷门数据时,由于用户的搜索词范围过小,搜索引擎无法检索出需要的数据,此时查询扩展系统可以有效辅助搜索引擎来提供可靠服务.基于全局文档分析的查询扩展方法,提出结合神经网络模型与包含语义信息的语料的语义相关模型,来更深层地提取词语间的语义信息.这些深层语义信息可以为查询扩展系统提供更加全面有效的特征支持,从而分析词语间的可扩展关系.在近义词林、语言知识库"HowNet"义原标注信息等语义数据中抽取局部可扩展词分布,利用神经网络模型的深度挖掘能力将语料空间中每一个词语的局部可扩展词分布拟合成全局可扩展词分布.在与分别基于语言模型和近义词林的查询扩展方法对比实验中,使用基于语义相关模型的查询扩展方法拥有较高的查询扩展效率;尤其针对冷门搜索数据时,语义相关模型的查全率比对比方法分别提高了11.1个百分点与5.29个百分点.
    • 穆亚昆; 冯圣威; 张静
    • 摘要: 为了更加有效地检索到符合用户复杂语义需求的图像,提出一种基于文本描述与语义相关性分析的图像检索算法.该方法将图像检索分为两步:基于文本语义相关性分析的图像检索和基于SIFT特征的相似图像扩展检索.根据自然语言处理技术分析得到用户文本需求中的关键词及其语义关联,在选定图像库中通过语义相关性分析得到"种子"图像;接下来在图像扩展检索中,采用基于SIFT特征的相似图像检索,利用之前得到的"种子"图像作为查询条件,在网络图像库中进行扩展检索,并在结果集上根据两次检索的图像相似度进行排序输出,最终得到更加丰富有效的图像检索结果.为了证明算法的有效性,在标准数据集Corel5K和网络数据集Deriantart8K上完成了多组实验,实验结果证明该方法能够得到较为精确地符合用户语义要求的图像检索结果,并且通过扩展算法可以得到更加丰富的检索结果.
    • 孟涛; 王诚
    • 摘要: 由于短文本的文档长度较短,短文本中词语的共现信息非常匮乏,造成短文本信息稀疏性问题.信息稀疏性也成为了传统主题模型在短文本上难以取得突破性进展的瓶颈之一.针对短文本分类,充分利用短文本中的每一个词语并解决其稀疏性成为关键.为了解决这一问题,基于Word2vec模型对短文本进行词嵌入扩展以解决其稀疏性,并将词向量转换成概率语义分布来测量语义关联性;针对短文本扩展后的特征向量,利用改进后的特征权重算法并引入语义相关度去处理扩展后的词特征向量.该方法可以区分出扩展后的短文本中词的重要程度,以便获得更准确的语义相关性.短文本分类研究采用KNN算法分类,实验结果表明,通过在外部语料集上学习得到的语义相关性扩展来处理短文本特征,可以有效提高短文本的分类效果.
    • 刘申凯; 周霁婷; 朱永华; 高洪皓
    • 摘要: 随着互联网的高速发展,微博、微信等文本形式的使用量逐渐增多,对于这类文本的分析理解在自然语言处理领域形成了新的挑战,尤其是文本中的网络新词识别与语义理解方面.为了克服传统方法无法识别网络新词及其语义的缺点,提出了一种融合知识图谱和显性语义分析(explicit semantic analysis,ESA)方法的网络新词识别方法.该方法以短语的粗粒度对原文进行切分来保留词语间的逻辑关系,利用百度知识图谱Schema匹配短语的语义表达后,再逐步以ESA方法分解剩余文本并将短语的百科信息提炼出核心语义词汇来补充Schema无法识别的部分.实验结果表明,与已有新词识别算法相比,该算法仅需要少量的语料库作为底层知识支撑,大幅降低了人工规则制订的成本,并提高了网络新词识别正确率与词语理解准确率.%With the rapid development of the Internet, the use of Weibo, WeChat and other text forms is gradually increasing. The analysis and understanding of such texts has posed new challenges in the field of natural language processing, especially in the field of network neologism recognition and semantic understanding. In order to overcome the shortcomings of traditional methods that cannot identify network neologism and their semantics, we propose a new method of network neologism recognition by combining knowledge map and explicit semantic analysis methods, which segments the original text with the coarse-grained phrase to preserve the logical relationship between the words. After using the semantic expression phrase of the Baidu knowledge map Schema, the ESA method is used to gradually decompose the remaining texts and extract the phrase encyclopedia information into the core semantic vocabulary, supplementing the unrecognized part of the Schema. Experiment shows that compared with the existing neologism recognition algorithms, the proposed algorithm requires only a small amount of corpus, which reduces the cost of manual rules formulation and improves the recognition of network neologism and the accuracy of word comprehension.
    • 荆琪; 段利国; 李爱萍; 赵谦
    • 摘要: 为提高短文本语义相关度的计算准确率,将维基百科作为外部语义知识库,利用维基百科的结构特征,如维基百科的分类体系结构、摘要中的链接结构、正文中的链接结构以及重定向消歧页等,提出类别相关度与链接相关度相结合的词语相关度计算方法.在此基础上,提出基于词形结构、词序结构以及主题词权重的句子相关度计算方法.实验结果表明,在词语相关度计算方面,该方法的Spearman参数比文本相关度计算方法提高2.8%,句子相关度准确率达到73.3%.
    • 张仰森; 郑佳; 李佳媛
    • 摘要: 词语的语义计算是自然语言处理领域的重要问题之一,目前的研究主要集中在词语语义的相似度计算方面,对词语语义的相关度计算方法研究不够.为此,本文提出了一种基于语义词典和语料库相结合的词语语义相关度计算模型.首先,以HowNet 和大规模语料库为基础,制定了相关的语义关系提取规则,抽取了大量的语义依存关系;然后,以语义关系三元组为存储形式,构建了语义关系图;最后,采用图论的相关理论,对语义关系图中的语义关系进行处理,设计了一个基于语义关系图的词语语义相关度计算模型.实验结果表明,本文提出的模型在词语语义相关度计算方面具有较好的效果,在WordSimilarity-353数据集上的斯皮尔曼等级相关系数达到了0.5358,显著地提升了中文词语语义相关度的计算效果.%Word semantic computation is one of the important issues in nature language processing. Current studies usually focus on semantic similarity computation of words, not paying enough attention to the semantic relatedness computation. For this reason, we present a word semantic relatedness calculation model based on semantic dictionary and corpus. First of all, the semantic extraction rules are formulated with"HowNet"and corpus, and a large number of semantic dependency relations are extracted based on these rules. Then, a semantic relationship graph is constructed by storing the semantic relationship triplet tuple. At last, graph theory is used to process the semantic relation in the semantic relationship graph and a semantic relatedness calculation model is designed by means of the semantic relationship graph. Experimental results show that this method has a better performance in word semantic relatedness computation, the Spearman rank correlation on the WordSimilarity-353 dataset being up to 0.5358,a significant efficiency improvement of semantic relatedness computation of Chinese words.
    • 潘婷婷; 黄桂敏; 刘剑
    • 摘要: 针对传统翻译自动评分方法分析不够全面且准确率不高的问题,提出一种基于混合语义空间的汉译英自动评分模型.该模型通过规则与统计相结合的语法检错算法对待测译文进行语法分析,并基于混合语义空间的语义相关度算法对待测译文与标准译文进行分析,然后赋予相应的权重,从而对待测译文进行自动评分.实验结果表明,该方法与人工评分的平均误差仅为1.13,皮尔逊相关系数为0.87,具有较高的准确率.%Aiming at the case that traditional automatic correction method for English translation is not overall and in low accuracy, an automatic correction model of Chinese-English translation which is based on hybrid semantic space is studied and designed.The model can analyze the grammar errors of the Chinese-English essay by a syntactic error detection algorithm which combines rules and statistics, it also can compare the translation essay with the standard by a semantic relevancy algorithm which is based on hybrid semantic space.Meanwhile, the corresponding weights will be calculated.Then the efficient automatic scoring of the translation essay can get.Via experimenting with real data sets, the results show that the the average error between the proposed method and manual scoring is only 1.13, the pearson correlation coefficient of the method is 0.87 and the method has high accuracy and good practicability in automatic translation scoring field.
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号