首页> 外文期刊>Traitement du Signal >Classification et extension automatique d'annotations d'images en utilisant un réseau Bayésien
【24h】

Classification et extension automatique d'annotations d'images en utilisant un réseau Bayésien

机译:使用贝叶斯网络自动分类和扩展图像注释

获取原文
获取原文并翻译 | 示例
           

摘要

Nous proposons, dans cet article, d'améliorer la classification d'images, en utilisant une approche de classification visuo-textuelle (à base de caractéristiques visuelles et textuelles), et en étendant automatiquement les annotations existantes aux images non annotées. L'approche proposée est dérivée de la théorie des modèles graphiques probabilistes et dédiée aux deux taches de classification et d'annotation d'images partiellement annotées. Nous considérons une image comme partiellement annotée si elle ne possède pas le nombre maximal de mots-clés disponibles par image dans la vérité-terrain. Grace à leur capacité à fonctionner en présence de données manquantes, un modèle graphique probabiliste a été proposé pour représenter les images partiellement annotées. Ce modèle est basé sur un mélange de lois multinomiales et de mélanges de Gaussiennes. La distribution des caractéristiques visuelles est estimée par des mélanges de Gaussiennes et celle des mots-clés par une loi multinomiale. Par conséquent, le modèle proposé ne requiert pas que toutes les images soient annotées : lorsqu'une image est partiellement annotées, les mots-clés manquants sont considérés comme des valeurs manquantes. De plus, notre modèle peut automatiquement étendre des annotations existantes à des images partiellement annotées, sans l'intervention de l'utilisateur. L'incertitude autour de l'association entre un ensemble de mots-clés et une image est capturée par une distribution de probabilité jointe (définie par un mélange de lois multinomiales et de mélanges de Gaussiennes) sur le dictionnaire de mots-clés et les caractéristiques visuelles extraites de notre collection d'images. De plus, de fa?on à résoudre le problème de dimensionnalité d? à la grande dimension des caractéristiques visuelles, nous avons adapté une méthode de sélection de variables. Les résultats de la classification visuo-textuelle, obtenus sur une base d'images collectées sur Internet, partiellement et manuellement annotée, montrent une amélioration de 32.3 % en terme de taux de reconnaissance, par rapport à la classification basée sur l'information visuelle uniquement. Par ailleurs, l'extension automatique d'annotations, avec notre modèle, sur des images avec mots-clés manquants, améliore encore la classification visuo-textuelle de 6.8 %. Enfin, la méthode proposée s'est montrée compétitive avec des classificateurs de l'état de l'art.
机译:在本文中,我们建议使用视觉文本分类方法(基于视觉和文本特征)来改进图像的分类,并自动将现有注释扩展到未注释的图像。所提出的方法是从概率图形模型的理论派生出来的,并且致力于部分注释图像的分类和注释这两个任务。如果在地面真实情况下,每张图片没有可用关键字的最大数量,我们认为该图片会被部分注释。由于它们在丢失数据的情况下能够正常运行,因此提出了一种概率图形模型来表示部分注释的图像。该模型基于多项式定律和高斯混合的混合。视觉特征的分布由高斯混合估计,关键字的分布由多项式定律估计。因此,提出的模型不需要注释所有图像:当对图像进行部分注释时,缺失的关键字被视为缺失值。此外,我们的模型可以自动将现有注释扩展到部分注释的图像,而无需用户干预。关键字字典和特征的联合概率分布(由多项式定律和高斯混合定义)确定了一组关键字与图像之间的关联周围的不确定性。从我们的图像集中提取的视觉效果。另外,为了解决尺寸问题?为了适应较大的视觉特征,我们采用了一种选择变量的方法。与仅基于视觉信息的分类相比,基于互联网上收集的图像进行部分手动注释的视觉文本分类结果显示,识别率提高了32.3% 。此外,使用我们的模型,在缺少关键字的图片上自动扩展注释,将视觉文本分类进一步提高了6.8%。最后,已证明该方法与最新的分类器具有竞争优势。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号