首页> 外文会议>電子情報通信学会;情報科学技術フォーラム;情報処理学会 >各楽器音の時間-周波数特徴の変化に追従可能なDeform-Conv Dense U-Net による音源分離法
【24h】

各楽器音の時間-周波数特徴の変化に追従可能なDeform-Conv Dense U-Net による音源分離法

机译:通过Deform-Curn密度U-Net的声源分离方法可以遵循每个仪器声音的时频功能的变化

获取原文

摘要

楽曲音源分離とは複数の楽器で構成される音源から目標音源を分離する研究分野である.楽曲の音源分離では畳み込み層で構成されたConvolutional Neural Network(CNN) を用いた手法が主流であり,U-Net[1] などの深層学習法が成果を挙げている. しかし,それらの従来法は急激に時間-周波数特性が変化する箇所で分離性能が低下する問題を抱えている.そして,その問題は楽器音のスペクトログラムの違いが関係している.そこで本稿ではそれを改善するために楽器音と既存のCNN の関係に着目した. 前述のように各楽器音によってスペクトログラムに差異があるが,従来法はその差異を無視して均一な処理をする.そのため,楽器音に適した畳み込みが施されていないと考えた.そこで楽曲構成音の時間-周波数空間での局所的な特徴変化に追従して注視領域の形状を変形することで,分離性能を改善できるのではないかと考えた. 具体的には,各楽器音の局所的な特徴に追従するためにDeformableConolution(Deform-comv)[2] を用いた方法を提案する.
机译:音乐声源分离来自由多个仪器组成的声源它是一个研究领域,将目标声源分开。在声音源分离音乐卷积神经网络(使用CNN的方法)是主流,U-Net [1]哪种深入学习方法取得了成果。但是他们传统方法我有一个问题,即分离性能降低。然后问题与仪器声音的谱图差异有关。因此,在本文中,仪器声音和物品已经存在专注于CNN现有CNN的关系。如前所述谱图有差异差异是忽略和均匀的处理。因此,很容易我以为它不适合声音。祖先这里,音乐配置声音时频空间中的本地特征通过使凝视区域的形状变形,分离我认为可以提高性能。具体来说,可遵循每个仪器声音的本地特征我们提出了一种使用突出(Deform-Comv)的方法[2]。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号