首页> 中国专利> 异常探测装置、概率分布学习装置、自编码器学习装置、数据变换装置、程序

异常探测装置、概率分布学习装置、自编码器学习装置、数据变换装置、程序

摘要

提供抑制正常模型学习所需的成本并且精度高的异常探测技术。包含:异常度估计单元,基于表示从与异常探测对象机器不同的1个以上的机器发出的正常音的分布的第一概率分布、与从所述异常探测对象机器发出的正常音即自适应学习用正常音的关联,根据从所述异常探测对象机器发出的声音即异常探测对象音,对表示该机器的异常的程度的异常度进行估计。

著录项

  • 公开/公告号CN112567460A

    专利类型发明专利

  • 公开/公告日2021-03-26

    原文格式PDF

  • 申请/专利权人 日本电信电话株式会社;

    申请/专利号CN201980052478.X

  • 发明设计人 山口正隆;小泉悠马;原田登;

    申请日2019-07-04

  • 分类号G10L25/51(20060101);G01M99/00(20060101);G05B23/02(20060101);

  • 代理机构11105 北京市柳沈律师事务所;

  • 代理人金兰

  • 地址 日本东京都

  • 入库时间 2023-06-19 10:22:47

说明书

技术领域

本发明涉及异常探测技术以及域变换技术。

背景技术

例如,如果由于故障造成工厂中设置的大型的制造机·造型机等业务用机器的运转停止,则对业务带来很大障碍。因此,需要日常对操作状况进行监视,在发生了异常的情况下立即进行应对。作为应对该问题的方法,有业务用机器的管理业者定期地向现场派遣维护人员、由维护人员确认零部件的磨损等的方法。但是,该方法耗费很大的费用(例如,人工费或移动费)以及劳力,因此难以将全部业务用机器或工厂作为对象来实施。因此,作为代替手段,有基于在机器的内部设置的麦克风所收音的操作音来日常地对操作状况进行监视的方法。具体而言,对该操作音进行分析,在探测到认为异常的声音(异常音)的情况下发出警报。将像这样利用声音来判定作为监视对象的机器是处于正常状态还是处于异常状态的技术,称为异常音探测技术。

在异常音探测技术中,按机器的每个种类或个体,设定异常音的种类和检测方法,因此耗费成本。因此,需要自动设计用于对异常音进行探测的规则。作为其解决方法之一,基于统计方法的异常音探测广为人知(非专利文献1)。该基于统计方法的异常音探测能够大致分为有教师的异常音探测和无教师的异常音探测。在有教师的异常音探测中,大量地收集正常音和异常音作为学习数据,学习识别器以使识别率(能够识别正常音与异常音的比例)最大。另一方面,在无教师的异常音探测中,仅大量地收集正常音作为学习数据,学习与正常音的发生相关的概率分布(以下称为正常模型)。并且,使用正常模型,在判定为新收集的声音(也就是说,成为异常探测对象的声音)与正常音类似(似然高)的情况下判定为正常,在判定为不类似(似然低)的情况下判定为异常。

在产业的应用领域中,难以大量地收集异常音的学习数据,因此多采用无教师的异常音探测。此外,在产业的应用领域中,对于大量的同种机器,有时希望将各个机器设为异常探测的对象。例如,有时希望对数据中心中存在的庞大数量的服务器的异常音进行监视。在该情况下,对于各服务器分别应用异常探测系统,但设想为从各服务器发出的声音的分布由于设置地点或装配误差而微妙地不同。因此,作为对于这样的大量的同种机器应用异常探测系统的方法,可以考虑以下那样的方法。

(1)使用从一些机器收集的正常音,学习对这些机器而言公共的正常模型。并且,使用该公共的模型,进行全部机器的异常探测。

(2)使用按每台机器收集的正常音,学习按每台机器不同的正常模型。并且,使用该各个模型,进行各机器的异常探测。

(1)的方法不按每台机器进行学习,因此即使希望监视的机器增加,也无需进行学习数据收集或模型学习,能够抑制数据收集或学习所涉及的成本,但另一方面,无法理解每台机器的与正常音发生相关的微妙的差异,因此有可能无法进行高精度的异常探测。此外,(2)的方法仅使用从各机器得到的正常音来进行学习,因此期待生成高精度的正常模型,但另一方面,不得不按每台机器收集学习数据并进行模型学习,因此伴随着希望监视的机器增加,存在产生数据收集或学习所涉及的成本这样的问题。

接着,针对域变换进行说明。域变换是指将某个域的数据变换为与该域不同的域的数据的技术。在此,作为对象的数据例如是图像或声音。例如,如参考非专利文献1所述,将“风景照片的图像”变换为“风景画的图像”,或者将“马的照片的图像”变换为“斑马的照片的图像”。

(参考非专利文献1:Jun-Yan Zhu,Taesung Park,Phillip Isola,AlexeiA.Efros,“Unpaired Image-to-Image Translation using Cycle-ConsistentAdversarial Networks”,arXiv:1703.10593v5,https://arxiv.org/abs/1703.10593v5)

为了实现域变换,制作从域D向域D’的数据变换器即可。为了制作这样的数据变换器,能够考虑如下方法:例如大量地收集“风景照片”与对其进行写实而成的“风景画”的对作为学习数据,使用神经网络学习从“风景照片”向“风景画”的变换。以下,将这样使用两个域的数据的对来学习数据变换器的构架,称为有成对数据的域变换。有成对数据的域变换具有如下优点:将输入和作为对于输入的正确答案这两个域的数据的对作为学习数据,能够比较简单地通过学习来构成数据变换器。但是,不得不大量地收集学习数据。在刚才的“风景照片”和“风景画”的例子中,需要首先收集“风景照片”,在此基础上(例如委托画家制成等)制成对“风景照片”进行写实而成的“风景画”。此外,在“马的照片”和“斑马的照片”的例子中,难以拍摄相同的构图的照片,因此收集学习数据在现实中是不可能的。

因此,近年来,为了解决与学习数据收集相关的问题,提出了不使用成对数据而能够学习数据变换器的构架。将该构架称为无成对数据的域变换。在无成对数据的域变换中,使用域D的数据和域D’的数据,学习从域D的数据向域D’的数据变换的数据变换器。在此,在学习中使用的域D的数据和域D’的数据不需要成对。从而,即使是“马的照片”和“斑马的照片”那样的难以收集成对数据的域间的变换,也能够学习数据变换器。

作为无成对数据的域变换的例子,例如提出了非专利文献2所记载的StarGAN这样的方法。

[现有技术文献]

[非专利文献]

[非专利文献1]井出刚、杉山将,“异常探测和变化探测(異常検知と変化検知)”,讲谈社,pp.6-7,2015.

[非专利文献2]Yunjey Choi,Minje Choi,Munyoung Kim,Jung-Woo Ha,SunghunKim,Jaegul Choo,“StarGAN:Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation”,IEEE Conference on Computer Vision andPattern Recognition(CVPR)2018,pp.8789-8797,2018.

发明内容

发明要解决的课题

首先,针对第一课题进行说明。

如上所述,在(1)、(2)的方法中,存在数据收集或学习所涉及的成本与异常探测的精度的权衡的问题。因此,作为第三方法,也可以考虑以下那样的方法。

(3)使用从一些机器收集的正常音,学习对这些机器而言公共的正常模型。接着,使用按每台机器收集的正常音,根据该公共的模型自适应地学习按每台机器不同的正常模型。并且,使用该各个自适应完毕正常模型,进行各机器的异常探测。

(3)的方法虽然有可能能够解决上述权衡的问题,但在实际上为了实现这样的方法,需要按每台作为异常探测的对象的机器收集较少量的正常音即可,而且需要能够使用该正常音根据公共的正常模型高效地学习自适应于各机器的正常模型。但是,至此为止尚未开发像那样的方法。

这是第一课题。

接着,针对第二课题进行说明。

在非专利文献2的StarGAN中,利用参考非专利文献2所记载的生成对抗网络(Generative Adversarial Networks、GAN)这样的方法来实现无成对数据的域变换,但存在学习不稳定这样的问题。

(参考非专利文献2:Ian J.Goodfellow,Jean Pouget-Abadie,Mehdi Mirza,BingXu,David Warde-Farley,Sherjil Ozair,Aaron Courville,Yoshua Bengio,“GenerativeAdversarial Nets”,Advances in Neural Information Processing Systems 27(NIPS2014),2018.)

这是第二课题。

因此在本发明中,其目的在于,提供抑制正常模型学习所需的成本并且高精度的异常探测技术、以及使得稳定的无成对数据的学习成为可能的域变换技术。

用于解决课题的手段

本发明的一方式包含:异常度估计单元,基于表示从与异常探测对象机器不同的1个以上的机器发出的正常音的分布的第一概率分布、与从所述异常探测对象机器发出的正常音(以下称为自适应学习用正常音)的关联,根据从所述异常探测对象机器发出的声音(以下称为异常探测对象音),对表示该机器的异常的程度的异常度进行估计。

本发明的一方式是一种概率分布学习装置,包含:学习单元,根据从与异常探测对象机器不同的1个以上的机器发出的正常音(以下称为学习用正常音),学习表示从与所述异常探测对象机器不同的1个以上的机器发出的正常音的分布的第一概率分布,所述第一概率分布q

本发明的一方式包含:异常度估计单元,基于对从与异常探测对象机器不同的1个以上的机器发出的正常音进行复原的第一自编码器、与从所述异常探测对象机器发出的正常音(以下称为自适应学习用正常音)的关联,根据从所述异常探测对象机器发出的声音(以下称为异常探测对象音),对表示该机器的异常的程度的异常度进行估计。

本发明的一方式是一种自编码器学习装置,包含:学习单元,根据从与异常探测对象机器不同的1个以上的机器发出的正常音(以下称为学习用正常音),学习对从与所述异常探测对象机器不同的1个以上的机器发出的正常音进行复原的第一自编码器,所述第一自编码器作为包含用于执行自适应批标准化的计算的AdaBN层的神经网络而构成。

本发明的一方式包含:异常度估计单元,基于从与异常探测对象机器不同的1个以上的机器发出的正常音的集合、与从所述异常探测对象机器发出的正常音(以下称为自适应学习用正常音)的关联,根据从所述异常探测对象机器发出的声音(以下称为异常探测对象音),对表示该机器的异常的程度的异常度进行估计。

本发明的一方式是一种数据变换装置,包含:潜在变量计算单元,根据与第一域的域数据对应的输入数据,计算潜在变量;以及输出数据计算单元,根据所述潜在变量,计算与第二域的域数据对应的输出数据,所述潜在变量计算单元使用具有逆函数的特定的函数(以下称为第一函数)来进行计算,所述输出数据计算单元使用具有逆函数的特定的函数(以下称为第二函数)来进行计算,第一函数和第二函数被从将潜在变量z

发明效果

根据本发明,能够抑制正常模型学习所需的成本,并且进行高精度的异常探测。此外,根据本发明,能够实现使得稳定的无成对数据的学习成为可能的域变换。

附图说明

图1是表示概率分布学习装置100的结构的一例的框图。

图2是表示概率分布学习装置100的操作的一例的流程图。

图3是表示概率分布自适应学习装置200的结构的一例的框图。

图4是表示概率分布自适应学习装置200的操作的一例的流程图。

图5是表示异常探测装置300的结构的一例的框图。

图6是表示异常探测装置300的操作的一例的流程图。

图7是表示异常度估计单元320的结构的一例的框图。

图8是表示异常度估计单元320的操作的一例的流程图。

图9是表示自编码器学习装置400的结构的一例的框图。

图10是表示自编码器学习装置400的操作的一例的流程图。

图11是表示自编码器自适应学习装置500的结构的一例的框图。

图12是表示自编码器自适应学习装置500的操作的一例的流程图。

图13是表示异常探测装置600的结构的一例的框图。

图14是表示异常探测装置600的操作的一例的流程图。

图15是表示异常度估计单元620的结构的一例的框图。

图16是表示异常度估计单元620的操作的一例的流程图。

图17是表示概率分布学习装置1100的结构的一例的框图。

图18是表示概率分布学习装置1100的操作的一例的流程图。

图19是表示数据变换装置1200的结构的一例的框图。

图20是表示数据变换装置1200的操作的一例的流程图。

图21是表示潜在变量计算单元1220和输出数据计算单元230所进行的处理的情形的图。

图22是表示数据变换装置1300的结构的一例的框图。

图23是表示数据变换装置1300的操作的一例的流程图。

图24是表示用于实现本发明的实施方式中的各装置的计算机的功能结构的一例的图。

具体实施方式

以下,针对本发明的实施方式,详细地进行说明。另外,对具有相同的功能的结构单元附加相同的序号,并省略重复说明。

<记法>

_(下划线)表示下标。例如,x

首先,针对对于本发明的第一实施方式至第三实施方式的技术背景、以及各实施方式进行说明。

<技术背景>

本发明的实施方式提供能够应用于多个同一种类的机器的异常探测的构架。具体而言,提供基于上述的(3)的方法的构架。基于从各机器发出的正常音的分布的差异通过与声音相关的特征量的统计量被表现这样的假说,通过使特征量的作为1次统计量的平均和作为2次统计量的方差在不同的机器间一致,能够从一个模型导出不同的机器的正常模型。

首先,针对在本发明的实施方式中使用的现有技术进行说明。

《无教师的异常音探测》

异常音探测是指如下任务:判定发出了作为异常探测对象的声音(观测信号)的监视对象机器的状况是正常还是异常。在此,在根据观测信号生成的输入数据x中,例如能够使用像下式那样以观测信号的对数振幅谱ln|X

[数1]

x:=(ln|X

ln|X

在此,t={1,…,T}、f={1,…,F}各自表示时间的索引、频率的索引。此外,Q表示在输入中考虑的过去·未来的帧数。

输入数据x不限于上述的例子,也可以使用其他特征量作为根据观测信号生成的输入数据。

接着,针对基于密度估计的异常音探测进行说明。根据正常音生成的输入数据(以下简称为正常音的输入数据)假设为依照概率分布p(x)被生成。首先,设计具有参数θ的概率分布q(x;θ)。接着,使用根据概率分布p(x)生成的N个正常音的输入数据的集合{x

[数2]

A(x;θ

最后,例如通过下式求出判定结果R。

[数3]

R=H(A(x;θ

在此,阈值

如上所述,在基于密度估计的异常音探测中,需要进行(1)概率分布q(x;θ)的设计、(2)参数θ的决定。在(1)的概率分布q(x;θ)的设计中,能够使用标准化流(NormalizingFlow)。此外,在(2)的参数θ的决定中,例如能够使用基于将损失函数(目的函数)设为L(θ)=-Σlogq(x

《标准化流(Normalizing Flow)》

标准化流是求出对与数据生成相关的概率分布p(x)进行近似的分布的方法。

以下进行说明。将{f

在标准化流中,对于N个输入数据的集合{x

[数4]

x=f

也就是说,对于i=1,…,K,下式成立。

[数5]

x

另外,也有时表现为z

进而,假设为潜在变量{z

[数6]

在此,为z

另外,概率分布q

(条件1)对于概率分布p(x),存在R

(条件2)对于函数g(x),易于计算∫g(x)dx。

作为满足条件2的函数,可以举出高斯分布。另一方面,作为不满足条件2的函数,可以举出g(x)=exp(sin(x)-x

在标准化流中,使用输入数据的集合{x

在标准化流中,能够使用各种各样的变换作为变换{f

[数7]

f(z)=LUz...(6)

在此,L,U∈R

(参考非专利文献3:S.Ioffe,C.Szegedy,“Batch normalization:acceleratingdeep network training by reducing internal covariate shift”,ICML 2015,2015.)

(参考非专利文献4:J.Oliva,et al.,“Transformation AutoregressiveNetworks”,ICML 2018,2018.)

以下,简单地针对批标准化BN:x→y(x,y∈R

[数8]

在此,γ、β各自是尺度变换参数、偏移变换参数,均是作为学习对象的参数。此外,ε是非负的实数,在希望避免除以零的情况下设为正的实数,在不需要避免的情况下设为零即可。

另外,使尺度变换参数γ、偏移变换参数β为显式,因此也有时将BN(·)表现为BN

此外,K个变换不需要全部都是相同的种类的变换。从而,例如也可以像对变换f

《自适应批标准化(AdaBN:Adaptive Batch Normalization)》

域自适应是指如下技术:在模型学习中使用的学习数据的分布与作为使用了学习完毕模型的处理的对象的测试数据的分布不同的情况下,根据该分布的差异,对学习完毕模型进行调整以使使用了学习完毕模型的处理的精度不降低。在此,学习数据的集合、测试数据的集合是域,也有时各自为学习用域、测试用域。

能够与深度神经网络(DNN:Deep Neural Network)组合的域自适应的方法有各种各样,在此针对自适应批标准化进行说明(参考参考非专利文献5)。自适应批标准化是按每个域进行批标准化中的平均·方差的计算和平均·方差的调整(参考式(7a)~(7d))这样的方法。也就是说,设为按同一域的数据进行基于式(7a)~(7c)的计算。在实际进行测试时,对于测试用域的输入数据的集合{x

(参考非专利文献5:Y.Li,et al.,“Revisiting Batch Normalization ForPractical Domain Adaptation”,ICLR 2017,2016.)

以下,针对本发明的实施方式中的异常探测进行说明。首先,针对用于本发明的实施方式中的异常探测的问题设定进行说明。接着,针对使用了上述现有技术的本发明的实施方式中的异常探测的具体的结构进行说明。

《问题设定》

希望解决的问题是,“能够使得:使用通过使用从多个机器得到的大量的正常音来学习的公共的正常模型即第一概率分布、以及从异常探测对象机器得到的少量的正常音,学习能够用于异常探测对象机器的正常模型即第二概率分布,使用该第二概率分布来根据异常探测对象机器所发出的声音进行异常探测”。从而,对以下的数据进行处理。

(1)学习数据:是从与异常探测对象机器不同的1个以上的机器发出的正常音,假设为能够大量地准备。由于在学习中使用,因此将这些声音称为学习用正常音。此外,将其集合称为学习用域。另外,作为正常音的收集对象的机器优选是种类与异常探测对象机器相同的机器。

(2)自适应学习数据:是从异常探测对象机器发出的正常音,假设为仅能够准备少量。由于在自适应学习中使用,因此将这些声音称为自适应学习用正常音。另外,其集合是后述的测试用域。

(3)测试数据:是从异常探测对象机器发出的声音,根据该声音判定机器是正常还是异常。因此,将该声音称为异常探测对象音。此外,将其集合称为测试用域。

以下,将使用学习用正常音进行学习的阶段称为学习阶段,将使用自适应学习用正常音进行自适应学习的阶段称为自适应学习阶段,将根据异常探测对象音进行异常探测的阶段称为测试阶段(异常探测阶段)。

《要点》

在本发明的实施方式中,为了能够根据少量的自适应学习数据以低的计算量来自适应学习第二概率分布,而向标准化流导入自适应批标准化。具体而言,对于在标准化流中使用的K个变换{f

《具体的结构》

以下,针对具体的结构进行说明。

(1)学习阶段

首先,针对如下神经网络进行说明,该神经网络将根据从与异常探测对象机器不同的1个以上的机器发出的正常音(也就是说,学习数据)生成的输入数据x,变换为视为依照概率分布q

将上述5个变换{f

[数9]

在此,L

(参考非专利文献6:K.He,et al.,“Delving Deep into Rectifiers:SurpassingHuman-Level Performance on ImageNet Classification”,ICCV 2015,pp.1026-1034,2015.)

此外,变换{f

[数10]

在此,s

此外,如上所述,概率分布q

[数11]

从而,可知通过将q

接下来,针对参数θ的学习方法进行说明。与通常的神经网络的学习同样,能够使用损失函数L(θ),例如通过梯度下降法、动量SGD(Momentum SGD(随机梯度下降(Stochastic Gradient Descent)))、ADAM(自适应矩估计(Adaptive MomentEstimation))或者它们的组合进行学习。在使用标准化流的情况下,作为损失函数L(θ),多使用由下式定义的负的对数似然的平均。

[数12]

另外,在上述学习中,能够使用将被称为小批量的学习数据的集合作为单位来进行的小批量学习法。在此,小批量是指从全部学习数据随机选择的多个学习数据。按每个该小批量计算损失函数L(θ)的值。

(2)自适应学习阶段

接着,针对根据从异常探测对象机器发出的正常音(也就是说,自适应学习数据)生成的输入数据x的概率分布q

(3)测试阶段

在异常探测的方法中,例如能够使用在《无教师的异常音探测》中说明的方法。

《效果》

通过向标准化流导入自适应批标准化,能够得到以下的效果。

(1)能够调整学习数据的分布与测试数据的分布的差异,能够抑制测试用域中的异常探测的精度降低。

具体进行说明。假如在最终层中使用了自适应批标准化的情况下,能够纠正域间的数据的分布的轴方向的平行移动和尺度的偏差。此外,在不同的域间的数据的分布的差异通过平行移动和轴方向的缩放被表现的情况下,在原理上只要向第1层导入自适应批标准化,即使将在学习用域中学习完毕的参数θ原样应用于测试用域,也能够高精度地执行测试用域中的异常探测。

(2)能够以低计算量来自适应学习第二概率分布。

第二概率分布的自适应学习所需的处理如上所述,基本上只是对于自适应学习数据计算自适应批标准化中的统计量。从而,自适应学习能够以与反复进行通常的学习的情况相比更低的计算量执行,根据情况,也能够以在线方式执行。

此外,如上述的例子那样,在向标准化流导入了线性变换的情况下,通过事先对与该线性变换对应的矩阵W进行LU分解或LDU分解,能够得到以下的效果。

(3)概率密度的计算成本得以抑制,学习成本得以抑制。

具体进行说明。在标准化流中,需要逐一计算线性变换f的雅可比的矩阵式。因此,在将矩阵W以未进行LU分解或者LDU分解的形式保持的情况下,矩阵式|W|的计算以W的次数作为k而耗费O(k

<第一实施方式>

在同种的机器有2台以上的状况下,考虑对其中的1台机器(将其设为异常探测对象机器)的异常进行探测。为此,首先根据从与该异常探测对象机器不同的1个以上的机器发出的正常音(以下称为学习用正常音),学习表示从与异常探测对象机器不同的1个以上的机器发出的正常音的分布的概率分布(以下称为第一概率分布)(学习阶段)。接着,使用从异常探测对象机器发出的正常音(以下称为自适应学习用正常音),根据第一概率分布,自适应学习表示从异常探测对象机器发出的正常音的分布的概率分布(以下称为第二概率分布)(自适应学习阶段)。并且,根据从异常探测对象机器发出的声音(以下称为异常探测对象音),判定该机器是否异常(测试阶段(异常探测阶段))。

概率分布学习装置100根据学习用正常音,学习第一概率分布。概率分布自适应学习装置200使用自适应学习用正常音,根据第一概率分布,自适应学习第二概率分布。异常探测装置300根据异常探测对象音,判定该机器是否异常。

以下,参考图1~图2来说明概率分布学习装置100。图1是表示概率分布学习装置100的结构的框图。图2是表示概率分布学习装置100的操作的流程图。如图1所示,概率分布学习装置100包含输入数据生成单元110、潜在变量估计单元120、损失函数计算单元130、参数更新单元140、收敛条件判定单元150和记录单元190。记录单元190是适宜地记录概率分布学习装置100的处理所需的信息的结构单元。记录单元190例如记录作为学习对象的第一概率分布q

概率分布学习装置100与学习用正常音记录单元910连接。学习用正常音记录单元910中记录着事先准备的学习用正常音作为学习数据。如上所述,优选事先尽可能多地准备学习用正常音。

依照图2针对概率分布学习装置100的操作进行说明。输入数据生成单元110根据作为输入的学习用正常音s

潜在变量估计单元120使用第一概率分布q

在此,作为学习对象的第一概率分布q

从而,与输入数据x

[数13]

此外,潜在变量z

从而,概率分布q

[数14]

在此,θ

潜在变量估计单元120能够通过使用根据输入数据x计算潜在变量z

[数15]

也就是说,神经网络NN以输入数据x作为输入,按照逆变换f

对于上述变换f

此外也可以设为,对于变换f

作为具体的变换f

损失函数计算单元130根据在S120中估计的潜在变量z

[数16]

因此能够使用式(5)’,根据上述计算的潜在变量z

参数更新单元140对第一概率分布q

收敛条件判定单元150判定被事先设定为参数更新的结束条件的收敛条件,在满足收敛条件的情况下,输出使用了在S140中更新后的参数θ的第一概率分布q

另外,将包含输入数据生成单元110、潜在变量估计单元120、损失函数计算单元130、参数更新单元140、收敛条件判定单元150的结构单元称为学习单元105。也就是说,学习单元105是根据学习用正常音来学习第一概率分布的结构单元。

根据本实施方式的发明,能够学习能够使得学习数据的分布与测试数据的分布的差异容易调整的第一概率分布q

<变形例>

概率分布学习装置100作为根据从与异常探测对象机器不同的1个以上的机器发出的正常音即学习用正常音,学习一个第一概率分布q

<第二实施方式>

以下,参考图3~图4对概率分布自适应学习装置200进行说明。图3是表示概率分布自适应学习装置200的结构的框图。图4是表示概率分布自适应学习装置200的操作的流程图。如图3所示,概率分布自适应学习装置200包含输入数据生成单元110、参数更新单元240、输出单元250和记录单元190。记录单元190是适宜地记录概率分布自适应学习装置200的处理所需的信息的结构单元。记录单元190例如预先记录通过使用概率分布学习装置100来学习的第一概率分布q

概率分布自适应学习装置200与自适应学习用正常音记录单元920连接。在自适应学习用正常音记录单元920中,记录着事先准备的自适应学习用正常音作为自适应学习数据。如上所述,自适应学习用正常音与学习用正常音相比,事先准备较少的量即可。

依照图4针对概率分布自适应学习装置200的操作进行说明。输入数据生成单元110根据作为输入的自适应学习用正常音s’

参数更新单元240使用在S110中生成的输入数据x’

输出单元250输出使用了在S240中更新的参数θ的第二概率分布q

另外,将包含输入数据生成单元110、参数更新单元240、输出单元250的结构单元称为自适应学习单元205。也就是说,自适应学习单元205是使用自适应学习用正常音根据第一概率分布来自适应学习第二概率分布的结构单元。

根据本实施方式的发明,通过对学习数据的分布与测试数据的分布的差异进行调整,能够学习第二概率分布q

<变形例>

在概率分布学习装置100学习W个第一概率分布q

<第三实施方式>

以下,参考图5~图6对异常探测装置300进行说明。图5是表示异常探测装置300的结构的框图。图6是表示异常探测装置300的操作的流程图。如图5所示,异常探测装置300包含输入数据生成单元110、异常度估计单元320、异常判定单元330和记录单元390。记录单元390是适宜地记录异常度探测装置300的处理所需的信息的结构单元。记录单元390例如事先记录通过使用概率分布自适应学习装置200来学习的第二概率分布q

也就是说,将使用了该学习完毕参数的第二概率分布q

依照图6针对异常探测装置300的操作进行说明。输入数据生成单元110根据作为输入的异常探测对象音s,生成输入数据x(S110)。

异常度估计单元320基于学习完毕的第二概率分布q

依照图8针对异常度估计单元320的操作进行说明。潜在变量计算单元321根据在S110中生成的输入数据x,计算与输入数据x对应的潜在变量z

异常度计算单元322根据在S321中计算的潜在变量z

[数17]

A(x;θ)=-lnq

在概率分布q

[数18]

在式(5)”的计算时,例如在概率分布q

异常度判定单元330根据在S320中估计的异常度A(x;θ),生成表示机器是否异常的判定结果(S330)。例如,使用式(3),在R=1的情况下生成表示异常的判定结果,在R=0的情况下生成表示正常的判定结果即可。

也就是说,异常探测装置300可以说包含:异常度估计单元320,基于表示从与异常探测对象机器不同的1个以上的机器发出的正常音的分布的第一概率分布、与从异常探测对象机器发出的正常音(自适应学习用正常音)的关联,根据从异常探测对象机器发出的声音(异常探测对象音),对表示该机器的异常的程度的异常度进行估计。关联的一例是通过使用自适应学习用正常音对第一概率分布进行更新而得到的、表示从异常探测对象机器发出的正常音的分布的第二概率分布。

根据本实施方式的发明,通过使用对学习数据的分布与测试数据的分布的差异进行调整后的第二概率分布来进行异常探测,能够进行高精度的异常探测。也就是说,能够抑制异常探测精度的降低。

另外,在第一实施方式至第三实施方式中,说明了使用标准化流来计算异常度A(x;θ)的方法,但也能够使用其他统计模型来求出异常度。例如,也能够使用参考非专利文献7所记载的自编码器(AE:autoencoder)。自编码器是编码器(encoder)与解码器(decoder)的组。

(参考非专利文献7:Y.Koizumi,S.Saito,H.Uematsu,Y.Kawachi,and N.Harada,“Unsupervised Detection of Anomalous Sound based on Deep Learning and theNeyman-Pearson Lemma,”IEEE/ACM Transactions on Audio,Speech,and LanguageProcessing,Vol.27-1,pp.212-224,2019.)

以下,针对对于本发明的第四实施方式至第六实施方式的技术背景、以及各实施方式进行说明。

<技术背景>

在利用自编码器的情况下,异常度能够通过下式计算。

[数19]

A(x;θ)=||x-D(E(x,θ

在此,||·||表示L

编码器E、解码器D均能够作为神经网络来构成。在该情况下,例如,学习θ以使正常音的学习数据的重构(复原)误差最小。

[数20]

在此,x

为了实现使用自编码器的自适应学习,将编码器E和解码器D这双方或其任一方,作为使用自适应批标准化(AdaBN)的神经网络构成即可。也就是说,在编码器E和解码器D这双方或其任一方的计算过程中,利用自适应批标准化。例如,代替将编码器E作为E(x;θ

[数21]

E(x,θ

在此,W

<第四实施方式>

在同种的机器有2台以上的状况下,考虑对其中的1台机器(将其设为异常探测对象机器)的异常进行探测。为此,首先根据从与该异常探测对象机器不同的1个以上的机器发出的正常音(以下称为学习用正常音),学习对从与异常探测对象机器不同的1个以上的机器发出的正常音进行复原的自编码器(以下称为第一自编码器)(学习阶段)。接着,使用从异常探测对象机器发出的正常音(以下称为自适应学习用正常音),根据第一自编码器,自适应学习对从异常探测对象机器发出的正常音进行复原的自编码器(以下称为第二自编码器)(自适应学习阶段)。并且,根据从异常探测对象机器发出的声音(以下称为异常探测对象音),判定该机器是否异常(测试阶段(异常探测阶段))。

自编码器学习装置400根据学习用正常音,学习第一自编码器。自编码器自适应学习装置500使用自适应学习用正常音,根据第一自编码器自适应学习第二自编码器。异常探测装置600根据异常探测对象音,判定该机器是否异常。

以下,参考图9~图10对自编码器学习装置400进行说明。图9是表示自编码器学习装置400的结构的框图。图10是表示自编码器学习装置400的操作的流程图。如图9所示,自编码器学习装置400包含输入数据生成单元110、复原输入数据估计单元420、损失函数计算单元430、参数更新单元440、收敛条件判定单元450和记录单元490。记录单元490是适宜地记录自编码器学习装置400的处理所需的信息的结构单元。记录单元490例如记录作为学习对象的第一自编码器的参数θ。作为参数θ的初始值,例如记录着通过使用随机数而生成的值。

自编码器学习装置400与学习用正常音记录单元910连接。学习用正常音记录单元910中记录着事先准备的学习用正常音作为学习数据。如上所述,优选事先尽可能多地准备学习用正常音。

依照图10针对自编码器学习装置400的操作进行说明。输入数据生成单元110根据作为输入的学习用正常音s

复原输入数据估计单元420使用第一自编码器的参数θ,根据在S110中生成的输入数据x

复原输入数据估计单元420能够通过使用根据输入数据x

[数22]

y

该神经网络是第一自编码器(称为神经网络NN)。

在此,θ={θ

损失函数计算单元430根据在S420中估计的复原输入数据y

[数23]

参数更新单元440对第一自编码器的参数θ进行更新,以使在S430中计算的损失函数L(θ)的值优化(最小化)(S440)。在参数θ的更新中,例如使用梯度下降法即可。

收敛条件判定单元450判定被事先设定为参数更新的结束条件的收敛条件,在满足收敛条件的情况下输出在S440中更新后的参数θ,在不满足收敛条件的情况下反复进行S110~S440的处理(S450)。作为收敛条件,例如能够采用S110~S440的处理的执行次数是否达到了特定的次数这样的条件。

另外,将包含输入数据生成单元110、复原输入数据估计单元420、损失函数计算单元430、参数更新单元440、收敛条件判定单元450的结构单元称为学习单元405。也就是说,学习单元405是根据学习用正常音学习第一自编码器(的参数θ)的结构单元。

根据本实施方式的发明,能够学习能够使得学习数据的分布与测试数据的分布的差异容易调整的第一自编码器。

<第五实施方式>

以下,参考图11~图12对自编码器自适应学习装置500进行说明。图11是表示自编码器自适应学习装置500的结构的框图。图12是表示自编码器自适应学习装置500的操作的流程图。如图11所示,自编码器自适应学习装置500包含输入数据生成单元110、参数更新单元540、输出单元550和记录单元490。记录单元490是适宜地记录自编码器自适应学习装置500的处理所需的信息的结构单元。记录单元490例如事先记录通过使用自编码器学习装置400来学习的第一自编码器的参数θ(也就是说,学习完毕参数)。该学习完毕参数成为第二自编码器的参数θ的初始值。

自编码器自适应学习装置500与自适应学习用正常音记录单元920连接。在自适应学习用正常音记录单元920中,记录着事先准备的自适应学习用正常音作为自适应学习数据。如上所述,自适应学习用正常音与学习用正常音相比,事先准备较少的量即可。

依照图12针对自编码器自适应学习装置500的操作进行说明。输入数据生成单元110根据作为输入的自适应学习用正常音s’

参数更新单元540使用在S110中生成的输入数据x’

输出单元550输出在S540中更新后的参数θ(S550)。

另外,将包含输入数据生成单元110、参数更新单元540、输出单元550的结构单元称为自适应学习单元505。也就是说,自适应学习单元505是使用自适应学习用正常音根据第一自编码器来自适应学习第二自编码器的结构单元。

根据本实施方式的发明,通过对学习数据的分布与测试数据的分布的差异进行调整,能够学习第二自编码器。

<第六实施方式>

以下,参考图13~图14对异常探测装置600进行说明。图13是表示异常探测装置300的结构的框图。图14是表示异常探测装置600的操作的流程图。如图13所示,异常探测装置600包含输入数据生成单元110、异常度估计单元620、异常判定单元630和记录单元690。记录单元690是适宜地记录异常度探测装置600的处理所需的信息的结构单元。记录单元690例如预先记录通过使用自编码器自适应学习装置500来学习的第二自编码器的参数θ(也就是说,学习完毕参数)。

也就是说,将使用了该学习完毕参数的第二自编码器作为学习完毕的第二自编码器,异常探测装置600执行异常探测。

依照图14针对异常探测装置600的操作进行说明。输入数据生成单元110根据作为输入的异常探测对象音s,生成输入数据x(S110)。

异常度估计单元620基于学习完毕的第二自编码器,根据在S110中生成的输入数据x,对表示机器的异常的程度的异常度进行估计(S620)。以下,参考图15~图16针对异常度估计单元620进行说明。图15是表示异常度估计单元620的结构的框图。图16是表示异常度估计单元620的操作的流程图。如图15所示,异常度估计单元620包含复原输入数据计算单元621和异常度计算单元622。

依照图16针对异常度估计单元620的操作进行说明。复原输入数据计算单元621根据在S110中生成的输入数据x,计算与输入数据x对应的复原输入数据y(S621)。具体而言,能够使用将神经网络NN的参数设为第二自编码器的学习完毕参数的神经网络来进行计算。

异常度计算单元622根据在S621中计算的复原输入数据y,计算与输入数据x相关的异常度A(x;θ)(S622)。异常度例如能够通过式(13)计算。

异常度判定单元630根据在S620中估计的异常度A(x;θ),生成表示机器是否异常的判定结果(S630)。例如,使用式(3),在R=1的情况下生成表示异常的判定结果,在R=0的情况下生成表示正常的判定结果即可。

也就是说,异常探测装置600可以说包含:异常度估计单元620,基于对从与异常探测对象机器不同的1个以上的机器发出的正常音进行复原的第一自编码器、与从异常探测对象机器发出的正常音(自适应学习用正常音)的关联,根据从异常探测对象机器发出的声音(异常探测对象音),对表示该机器的异常的程度的异常度进行估计。关联的一例是通过使用自适应学习用正常音对第一自编码器进行更新而得到的、对从异常探测对象机器发出的正常音进行复原的第二自编码器。

根据本实施方式的发明,通过使用对学习数据的分布与测试数据的分布的差异进行调整后的第二自编码器来进行异常探测,能够进行高精度的异常探测。也就是说,能够抑制异常探测精度的降低。

接着,针对对于本发明的第七实施方式至第九实施方式的技术背景、以及各实施方式进行说明。

<技术背景>

本发明的实施方式使用标准化流(Normalizing Flow)进行无成对数据的域变换的数据变换器的学习。标准化流具有与GAN相比易于进行学习这样的特征,作为其结果,能够比以往的基于GAN的无成对数据的域变换技术(StarGAN)更加稳定地进行学习。

以下,针对在本发明的实施方式中使用的现有技术进行说明。

《标准化流(Normalizing Flow)》

标准化流是求出对与数据生成相关的概率分布p(x)进行近似的分布的方法。

将{f

在标准化流中,对于N个输入数据的集合{x

[数24]

x=f

也就是说,对于i=1,…,K,下式成立。

[数25]

x

另外,也有时表现为z

进而,假设为潜在变量{z

[数26]

在此,为z

另外,概率分布q

(条件1)对于概率分布p(x),存在R

(条件2)对于函数g(x),易于计算∫g(x)dx。

作为满足条件2的函数,可以举出高斯分布。另一方面,作为不满足条件2的函数,可以举出g(x)=exp(sin(x)-x

在标准化流中,使用输入数据的集合{x

在标准化流中,能够使用各种各样的变换作为变换{f

[数27]

f(z)=LUz…(23)

在此,L,U∈R

以下,简单地针对批标准化BN:x→y(x,y∈R

[数28]

在此,γ、β各自是尺度变换参数、偏移变换参数,均是作为学习对象的参数。此外,ε是非负的实数,在希望避免除以零的情况下设为正的实数,在不需要避免的情况下设为零即可。

另外,使尺度变换参数γ、偏移变换参数β为显式,因此也有时将BN(·)表现为BN

在标准化流中使用的K个变换不需要全部都是相同的种类的变换。从而,例如也可以像对变换f

《自适应批标准化(AdaBN:Adaptive Batch Normalization)》

域自适应是指如下技术:在模型学习中使用的学习数据的分布与作为使用了学习完毕模型的处理的对象的测试数据的分布不同的情况下,根据该分布的差异,对学习完毕模型进行调整以使使用了学习完毕模型的处理的精度不降低。在此,学习数据的集合、测试数据的集合是域,也有时各自为学习用域、测试用域。

能够与深度神经网络(DNN:Deep Neural Network)组合的域自适应的方法有各种各样,在此针对自适应批标准化进行说明(参考参考非专利文献5)。自适应批标准化是按每个域进行批标准化中的平均·方差的计算和平均·方差的调整(参考式(24a)~(24d))这样的方法。也就是说,设为按同一域的数据进行基于式(24a)~(24c)的计算。在实际进行测试时,对于测试用域的输入数据的集合{x

《AdaFlow》

AdaFlow是向标准化流导入了自适应批标准化的方法。具体而言,是对于在标准化流中使用的K个变换{f

如果使用AdaFlow进行学习,则能够根据一个学习完毕模型生成多个域的概率分布。此外,也能够进行多个域间的数据变换。

以下,针对AdaFlow具体进行说明。AdaFlow是将根据学习数据生成的输入数据x,变换为视为依照概率分布q

将上述5个变换{f

[数29]

在此,L

此外,变换{f

[数30]

在此,s

此外,如上所述,概率分布q

[数31]

从而可知,通过将q

接下来,针对参数θ的学习方法进行说明。与通常的神经网络的学习同样,能够使用损失函数L(θ),例如通过梯度下降法、动量SGD(Momentum SGD(随机梯度下降(Stochastic Gradient Descent)))、ADAM(自适应矩估计(Adaptive MomentEstimation))或者它们的组合进行学习。在使用标准化流的情况下,作为损失函数L(θ),多使用由下式定义的负的对数似然的平均。

[数32]

另外,在上述学习中,能够使用将被称为小批量的学习数据的集合作为单位来进行的小批量学习法。在此,小批量是指从全部学习数据随机选择的多个学习数据。按每个该小批量计算损失函数L(θ)的值。

<第七实施方式>

概率分布学习装置1100学习神经网络的模型参数θ,该神经网络将根据P种类的域D

以下,参考图17~图18对概率分布学习装置1100进行说明。图17是表示概率分布学习装置1100的结构的框图。图18是表示概率分布学习装置1100的操作的流程图。如图17所示,概率分布学习装置1100包含输入数据生成单元1110、潜在变量估计单元1120、损失函数计算单元1130、参数更新单元1140、收敛条件判定单元1150和记录单元1190。记录单元1190是适宜地记录概率分布学习装置1100的处理所需的信息的结构单元。记录单元1190例如记录输入数据x的概率分布q(x;θ)的参数θ。作为参数θ的初始值,例如记录着通过使用随机数而生成的值。

概率分布学习装置1100与学习用域数据记录单元1910连接。在学习用域数据记录单元1910中,记录着事先准备的域数据s

依照图18针对概率分布学习装置1100的操作进行说明。在S1110中,输入数据生成单元1110将作为输入的学习用域数据(s

在S1120中,潜在变量估计单元1120将在S1110中生成的输入数据x

在此,概率分布q(x;θ)的变量x是表示根据P种类的域D

从而,与输入数据x

[数33]

此外,潜在变量z

从而,概率分布q(x;θ)能够通过使用了概率分布q

[数34]

在此,θ

潜在变量估计单元1120能够通过使用根据输入数据x计算潜在变量z

[数35]

也就是说,神经网络NN以输入数据x作为输入,按照逆变换f

对于上述变换f

此外也可以设为,对于变换f

作为具体的变换f

此外,潜在变量估计单元1120为了对于其逆变换是自适应批标准化的变换f

在S1130中,损失函数计算单元1130将在S1120中估计的潜在变量z

[数36]

因此使用式(22),能够根据上述计算的潜在变量z

在S1140中,参数更新单元1140将在S1130中计算的损失函数L(θ)的值作为输入,对概率分布q(x;θ)的参数θ进行更新以使损失函数L(θ)的值优化(最小化),并进行输出。在参数θ的更新中,例如使用梯度下降法即可。

在S1150中,收敛条件判定单元1150判定被事先设定为参数更新的结束条件的收敛条件,在满足收敛条件的情况下输出使用了在S1140中更新后的参数θ(将该参数称为学习完毕参数)的概率分布q(x;θ)。此时,收敛条件判定单元1150使用在S1120中记录的(z

根据本实施方式的发明,能够学习根据P种类的域D

<第八实施方式>

数据变换装置1200使用在概率分布学习装置1100中学习的学习完毕模型参数θ、以及向逆变换f

以下,参考图19~图20对数据变换装置1200进行说明。图19是表示数据变换装置1200的结构的框图。图20是表示数据变换装置1200的操作的流程图。如图19所示,数据变换装置1200包含输入数据生成单元1110、潜在变量计算单元1220、输出数据计算单元1230、域数据生成单元1240和记录单元1190。记录单元1190是适宜地记录数据变换装置1200的处理所需的信息的结构单元。记录单元1190例如事先记录通过使用概率分布学习装置1100而学习的概率分布q(x;θ)的参数θ(也就是说,学习完毕参数θ)。此外,记录单元1190例如事先记录向逆变换f

依照图20针对数据变换装置1200的操作进行说明。在S1110中,输入数据生成单元1110将作为输入的变换源域D

在S1220中,潜在变量计算单元1220将在S1110中生成的输入数据x和变换源域标识符j

[数37]

此时,使用学习完毕参数θ以及向逆变换f

在S1230中,输出数据计算单元1230将作为变换目的地域的标识符的变换目的地域标识符j

[数38]

,′=f

此时,使用学习完毕参数θ、以及向逆变换f

潜在变量计算单元1220和输出数据计算单元1230所进行的处理的情形如图21所示。图21表示了通过在<技术背景>的说明中使用的5个变换{f

在S1240中,域数据生成单元1240将在S1230中计算的输出数据x’作为输入,根据输出数据x’,生成作为变换目的地域D

另外,将包含潜在变量计算单元1220、输出数据计算单元1230的结构单元称为数据变换单元1205。也就是说,数据变换单元1205是将根据变换源域的域数据生成的输入数据,变换为作为变换目的地域的域数据的生成源的输出数据的结构单元。

根据本实施方式的发明,能够在域间对数据相互进行变换。

<第九实施方式>

在第七实施方式以及第八实施方式中,作为将P设为1以上的整数且使用P种类的域的域数据来进行了说明。在此,针对设为P=2的情况下的数据变换装置1300进行说明。

以下,参考图22~图23对数据变换装置1300进行说明。图22是表示数据变换装置1300的结构的框图。图23是表示数据变换装置1300的操作的流程图。如图22所示,数据变换装置1300包含输入数据生成单元1310、潜在变量计算单元1320、输出数据计算单元1330、域数据生成单元1340和记录单元1190。记录单元1190是适宜地记录数据变换装置1300的处理所需的信息的结构单元。记录单元1190例如事先记录通过使用概率分布学习装置1100而学习的概率分布q(x;θ)的参数θ(也就是说,学习完毕参数θ)。

以下,将变换源域称为第一域,将变换目的地域称为第二域,各自由D

依照图23针对数据变换装置1300的操作进行说明。在S1310中,输入数据生成单元1310将第一域的域数据s作为输入,根据域数据s生成输入数据x并输出。以下,将该输入数据也称为与第一域的域数据对应的输入数据。

在S1320中,潜在变量计算单元1320将在S1310中生成的输入数据x作为输入,使用学习完毕参数θ,根据输入数据x,计算与输入数据x对应的潜在变量z

在S1330中,输出数据计算单元1330将在S1320中计算的潜在变量z

在S1340中,域数据生成单元1340将在S1330中计算的输出数据x’作为输入,根据输出数据x’,生成第二域的域数据s’并输出。以下,将该输出数据也称为与第二域的域数据对应的输出数据。

另外,将包含潜在变量计算单元1320、输出数据计算单元1330的结构单元称为数据变换单元1305。也就是说,数据变换单元1305是将与第一域的域数据对应的输入数据变换为与第二域的域数据对应的输出数据的结构单元。

根据以上的说明可知,可以说潜在变量计算单元1320使用将潜在变量变换为输入数据的具有逆函数的函数(以下称为第一函数)进行计算,输出数据计算单元1330使用将潜在变量变换为输出数据的具有逆函数的函数(以下称为第二函数)进行计算。并且,第一函数和第二函数被从将潜在变量z

[应用例:向有教师的异常探测问题的应用]

能够将数据变换装置1300应用于有教师的异常探测问题。在此,有教师的异常探测是指,根据大量正常数据和少数异常数据学习异常探测模型并使用该异常探测模型来进行异常探测的构架。

异常数据越多,则能够学习越高精度的模型,但难以收集大量的异常数据。因此,准备多个希望设为异常探测对象的域,收集尽可能多的数据,使用概率分布学习装置1100根据该数据学习模型参数θ。并且,使用数据变换装置1300,将第一域的异常数据变换为与第一域不同的第二域的异常数据。通过这样,人工地作出其收集伴随着困难的异常数据,能够增加其数目,作为结果,能够学习更高精度的异常探测模型。

例如,将第一域设为从与异常探测对象机器不同的1个以上的机器发出的声音的集合,将第二域设为异常探测对象机器的声音的集合,使用概率分布学习装置1100,学习参数θ。接着,使用数据变换装置1300,根据作为第一域的域数据的从与异常探测对象机器不同的1个以上的机器发出的异常音,生成异常探测对象机器的声音作为第二域的域数据。该生成的异常探测对象机器的声音期待是异常音。并且,将生成的异常探测对象机器的声音作为学习数据使用,学习第二域的异常探测模型。

另外,考虑发出的声音大多是正常音。在学习时,优选使用尽可能多的数据,因此无论正常音、异常音,都将第一域的声音用于学习即可。

根据本实施方式的发明,能够在域间对数据相互进行变换。其结果是,例如,能够高效地生成在异常探测模型学习中使用的异常数据。

<实验结果>

将“风景照片”的集合和“风景画”的集合作为域,采用参考非专利文献8所记载的Glow作为标准化流的架构,使用将Glow的激活标准化(Activation Normalization)置换为AdaBN而成的神经网络AdaFlow来进行学习。分别收集各400张风景照片和风景画的图像数据,使用它们来使神经网络AdaFlow学习,进行数据变换。具体而言,将“风景照片”变换为“风景画”,或者将“风景画”变换为“风景照片”。

(参考非专利文献8:Diederik P.Kingma,Prafulla Dhariwal,“Glow:GenerativeFlow with Invertible 1x1 Convolutions”,arXiv:1807.03039,https://arxiv.org/abs/1807.03039)

通过该实验,也就是说使用了AdaFlow的无成对数据的域变换,确认了生成品质好的图像数据。

<补充>

图24是表示用于实现上述的各装置的计算机的功能结构的一例的图。上述的各装置中的处理能够通过使记录单元2020读入用于使计算机作为上述的各装置发挥作用的程序,并使控制单元2010、输入单元2030、输出单元2040等进行操作从而实施。

本发明的装置例如作为单一的硬件实体,具有能够连接键盘等的输入单元、能够连接液晶显示器等的输出单元、能够连接能够与硬件实体的外部通信的通信装置(例如通信线缆)的通信单元、CPU(中央处理单元(Central Processing Unit)、也可以具备高速缓存存储器或寄存器等)、作为存储器的RAM或ROM、作为硬盘的外部存储装置、以及以能够进行这些输入单元、输出单元、通信单元、CPU、RAM、ROM、外部存储装置之间的数据的交互的方式连接的总线。此外根据需要,也可以对硬件实体设置能够读写CD-ROM等记录介质的装置(驱动)等。作为具备这样的硬件资源的物理的实体,有通用计算机等。

在硬件实体的外部存储装置中,存储着用于实现上述的功能所需的程序以及该程序的处理所需的数据等(不限于外部存储装置,例如也可以事先将程序存储于作为只读存储装置的ROM)。此外,通过这些程序的处理而得到的数据等被适宜地存储于RAM或外部存储装置等。

在硬件实体中,外部存储装置(或者ROM等)中存储的各程序以及该各程序的处理所需的数据被根据需要读入至存储器,并适宜地由CPU解释执行·处理。其结果是,CPU实现特定的功能(由上述……单元、……部件等表现的各结构要件)。

本发明不限定于上述的实施方式,在不脱离本发明的宗旨的范围内能够适宜地变更。此外,上述实施方式中说明的处理不仅依照记载的顺序以时间序列执行,也可以设为根据执行处理的装置的处理能力或者需要而并列地或者单独地执行。

如上所述,在通过计算机来实现上述实施方式中说明的硬件实体(本发明的装置)中的处理功能的情况下,硬件实体应该具有的功能的处理内容通过程序来描述。并且,通过由计算机执行该程序,上述硬件实体中的处理功能在计算机上实现。

描述了该处理内容的程序能够事先被记录于能够由计算机读取的记录介质。作为能够由计算机读取的记录介质,例如也可以是磁记录装置、光盘、光磁记录介质、半导体存储器等任何介质。具体而言,例如作为磁记录装置能够使用硬盘装置、软磁盘、磁带等,作为光盘能够使用DVD(数字多功能盘(Digital Versatile Disc))、DVD-RAM(随机存取存储器(Random Access Memory))、CD-ROM(紧凑盘只读存储器(Compact Disc Read OnlyMemory))、CD-R(可记录的(Recordable))/RW(可重写的(ReWritable))等,作为光磁记录介质能够使用MO(磁光盘(Magneto-Optical disc))等,作为半导体存储器能够使用EEP-ROM(电可擦除可编程只读存储器(Electronically Erasable and Programmable-Read OnlyMemory))等。

此外,该程序的流通例如通过将记录了该程序的DVD、CD-ROM等可移动型记录介质销售、转让、借出等来进行。进而,也可以构成为:将该程序事先储存于服务器计算机的存储装置,经由网络,从服务器计算机向其他计算机转发该程序,从而使该程序流通。

执行这样的程序的计算机例如,首先将可移动型记录介质中记录的程序或从服务器计算机转发的程序暂时储存至自身的存储装置。并且,在执行处理时,该计算机读取自身的存储装置中储存的程序,并执行依照读取的程序的处理。此外,作为该程序的别的执行方式,也可以由计算机从可移动型记录介质直接读取程序,并执行依照该程序的处理,进而也可以在每次从服务器计算机向该计算机转发程序时,逐次执行依照所获取的程序的处理。此外,也可以构成为:不进行程序从服务器计算机向该计算机的转发,而利用仅通过其执行指示和结果取得来实现处理功能的所谓ASP(应用服务提供商(Application ServiceProvider))型的服务,来执行上述的处理。另外,在本方式中的程序中,设为包含供电子计算机用于处理且等价于程序的信息(虽然不是对于计算机的直接的指令,但是具有对计算机的处理进行规定的性质的数据等)。

此外,在该方式中,设为通过使特定的程序在计算机上执行而构成了硬件实体,但也可以设为将这些处理内容的至少一部分以硬件方式实现。

上述的本发明的实施方式的记载基于例证和记载的目的被提示。不意味着是包罗性的,也不意味着将发明限定为被公开的严密的形式。能够根据上述的教导进行变形或变化(variation)。实施方式是为了提供本发明的原理的最好的例证,并且为了使得该领域的本领域技术人员能够以适于深思熟虑的实际的使用的方式利用各种各样的实施方式或者附加各种各样的变形来利用本发明,而被选出并表现的实施方式。全部的如此的变形或变化都落入遵循公正且合法地被公平给定的范围而解释的附带的权利要求书来决定的本发明的范围内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号