首页> 外文期刊>人工知能: 人工知能学会誌 >小規模目標タスクを達成するためのCNNの初期化について
【24h】

小規模目標タスクを達成するためのCNNの初期化について

机译:关于CNN初始化以实现小规模的目标任务

获取原文
获取原文并翻译 | 示例
       

摘要

CNNを用いたファインチューニング法の有効性は,多くの研究事例によって検証された.しかし,この手法では,ソースモデルとしての学習済みモデルの構造,すなわち,入力画像のサイズ,ネットワークの階層数,畳込み層のフィル夕数,フィル夕カーネルのサイズなどに,目標モデルを合わせなければならないという強い制約がある.本論文では,この制約を取り除くために,小規模の学習デ一夕セットしか用意できない目標タスクを対象として,「最小エントロピ一損失法」および「最小復元誤差法」を提案する.両手法は,学習済みモデルをレファレンスとして利用する点において,ファインチューニング法と同様であるが,学習済みモデルのパラメ一夕を,そのまま利用するのではなく,重要な役割を果たす一部の代表的なパラメ 一夕のみを抽出して,目標モデルの初期化に用いる.提案手法によって,ソースモデルの構造に依存することなぐ目標タスクの規模に応じてモデルを柔軟に設計することが可能になる.実験では,提案手法による小規模ネットワークの初期化は,学習プロセスを加速させる効果に加え,目標タスクに対し,高い認識性能の達成が確認された.
机译:许多研究案例验证了使用CNN的微调方法的有效性。然而,这种方法是学习模型的结构作为源模型,即输入图像的大小,网络层数量和榻榻米榻榻米有强烈的限制,目标模型必须与层的填充物的尺寸相匹配,圆角内核的大小。在本文中,我们只能准备一个小型学习街道设置以删除我们提出的这一约束。目标任务的最小熵丢失方法“和”最小恢复误差方法“。两种技术都与使用学习模型作为参考的学习模型的微调方法类似,但是学习了模型的模型不使用,但仅限提取播放重要作用的部分代表参数并用于初始化目标模型。通过提议方法的源模型结构可以灵活地设计模型,具体取决于不依赖的目标任务的规模。在实验中,通过所提出的方法初始化小型网络是加速学习过程,除了加速学习过程龙头的效果,已经确认了高识别性能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号