Techniques for content-based image or video retrieval are not mature enough to recognize visual semantic completely. Whereas retrieval based on color, size, texture and shape are within the state of the art, our investigations on human factor analysis indicate that it is necessary to use captions or text annotations that are associated with photos and videos in content access of visual data. In this paper, a framework for integration of textual and visual content searching mechanism is presented. The framework includes ontology-based semantic query expansion, database navigation in a conceptual hierarchy, and a computational model for degree of term similarity calculation. The proposed method is embedded and evaluated in our novel content-based image database system called PicDB#8482;.
基于内容的图像或视频检索技术还不够成熟,无法完全识别视觉语义。尽管基于颜色,大小,纹理和形状的检索属于当前技术水平,但我们对人为因素分析的研究表明,在视觉数据的内容访问中,有必要使用与照片和视频相关联的标题或文本注释。本文提出了一种整合文本和视觉内容搜索机制的框架。该框架包括基于本体的语义查询扩展,概念层次结构中的数据库导航以及用于术语相似度计算的计算模型。将该方法嵌入到我们新颖的基于内容的图像数据库系统PicDB#8482;中并进行了评估。 P>
机译:用于研究蛋白质注释的软件工具:具有数据可视化功能的开源蛋白质注释软件
机译:视觉内容:对国际数字通信机构理解的工具和概念的研究|视觉内容:对国际数字通信机构理解的工具和概念的研究
机译:由RDF支持的语义视频注释工具,将概念映射到链接数据以进行下一代视频索引:全面综述
机译:用于视觉内容的功率标注的有效工具:一种词典方法
机译:学习从文本注释中识别视觉内容
机译:用于研究蛋白质注释的软件工具(带):具有数据可视化的开源蛋白注释软件
机译:MIR-ISLAND:植物miRNA注释和表达分析的超快和记忆高效工具