首页> 外文会议>Annual midwest instruction and computing symposium >Performing Semantic Segmentation on an Extremely Small Dataset
【24h】

Performing Semantic Segmentation on an Extremely Small Dataset

机译:在极小的数据集上执行语义分割

获取原文

摘要

Semantic segmentation is a difficult task, and even more difficult with limited data. In this paper, we employ two different approaches to semantically segment 30 images of dimension 1188×792 pixels. Our first method uses a convolutional neural network to train a classifier on subimages of 11×11 pixels. The second method involves training on a classifier on 20×20 pixel subimages, but using a different convolutional network of one convolutional layer with batch normalization and ReLU, a new deconvolutional layer and one loss layer. The first approach produces a somewhat coarser segmentation but fairly high accuracy, 68 percent. The second method, employing the new architecture, results in much crisper lines for a finer segmentation, but a lower accuracy.
机译:语义分割是一项艰巨的任务,在数据有限的情况下甚至更加困难。在本文中,我们采用两种不同的方法对30个尺寸为1188×792像素的图像进行语义分割。我们的第一种方法使用卷积神经网络在11×11像素的子图像上训练分类器。第二种方法涉及在20×20像素子图像上的分类器上进行训练,但使用具有卷积层和批处理归一化和ReLU的不同卷积网络,新的反卷积层和一个损失层。第一种方法产生的分割略粗一些,但准确度却很高,达到68%。第二种方法采用了新的体系结构,因此线条更加清晰,可以进行更精细的分割,但是准确性较低。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号