首页> 中国专利> 用于训练以及用于运行有多任务能力的人工神经网络的方法、有多任务能力的人工神经网络和设备

用于训练以及用于运行有多任务能力的人工神经网络的方法、有多任务能力的人工神经网络和设备

摘要

本发明涉及用于应用有多任务能力的人工神经网络(KNN)的经改善的可能性。尤其是,本发明提出一种用于训练有多任务能力的KNN(110)的方法。在此,为通过KNN(110)的第一信息流提供第一路径(P1),其中所述第一路径(P1)将所述KNN(110)的输入层(120)与所述KNN(110)的至少一个跨任务中间层(130)耦合,所述跨任务中间层对于所述KNN(110)的多个彼此不同的任务是共同的,并且所述第一路径(P1)将所述至少一个跨任务中间层与来自多个彼此不同的任务(A,B)的相应的任务特定的KNN分段(140)耦合。此外,经由所述输入层(120)和所述第一路径(P1)输送用于训练跨任务参数的第一训练数据,所述跨任务参数对于所述KNN(110)的多个彼此不同的任务是共同的。此外,为通过所述KNN(110)的与所述第一信息流不同的第二信息流提供至少一个任务特定的第二路径(P2),其中所述第二路径(P2)将所述KNN(110)的输入层(120)与来自多个彼此不同的任务的任务特定的KNN分段(140)中的仅一部分耦合,并且经由所述第二路径(P2)输送用于训练任务特定的参数的第二训练数据。

著录项

  • 公开/公告号CN113330459A

    专利类型发明专利

  • 公开/公告日2021-08-31

    原文格式PDF

  • 申请/专利权人 罗伯特·博世有限公司;

    申请/专利号CN202080011535.2

  • 发明设计人 D·巴里亚米斯;

    申请日2020-01-10

  • 分类号G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构72001 中国专利代理(香港)有限公司;

  • 代理人杜荔南;刘春元

  • 地址 德国斯图加特

  • 入库时间 2023-06-19 12:24:27

说明书

技术领域

本发明一般性地涉及人工智能和机器学习的领域。尤其是,本发明涉及一种用于训练有多任务能力的人工神经网络的方法、有多任务能力的人工神经网络以及具有这种人工神经网络的设备。本发明此外还涉及计算机程序和存储介质。

背景技术

在人工智能范围中并且尤其是在机器学习范围中经常使用人工神经网络KNN。这种KNN可以履行的技术任务众多,并且扩展到大量的技术领域上,属于这些技术领域的尤其是自动化技术、机器人技术、如图像识别等之类的其子领域等等。

在此,也可以使用有多任务能力的KNN,其被设立用于基于输送给KNN的输入数据彼此并行地、尤其是同时地、同步地、交替地等执行多个、也即至少两个不同的使命或任务。与多个并行的(仅)有有单任务能力的KNN的运行相比,有多任务能力的KNN可以共同地使用对于KNN固有的功能、中间计算等的至少一部分用于多个使命或任务,其中所述有单任务能力的KNN基于分别输送的输入数据分别仅能够单独地执行一个特定使命或任务。由此,相对于使用多个分别仅有单任务能力的KNN,例如可以节省计算资源,诸如计算时间、存储空间、存储带宽等。即使已经在训练这种有多任务能力的KNN期间也可以使用共同的信息来为多个待履行的使命或任务训练尽可能好的总性能。然而,已经证明不利的是,通过共同使用KNN的功能、中间计算、信息等可能形成在不同的使命或任务之间的相关性,使对有多任务能力的KNN的任务特定的适配变得困难,其方式是所述任务特定的适配例如使对所有使命或任务的(新)验证是必要的。例如,在实际上仅应该涉及单个使命或任务的适配的情况下,可能进行对其他使命或任务的在这种情况下不期望的共适配,使得不仅实际上待适配的使命或任务、而且不期望地共适配的使命或任务必须被重新验证。

发明内容

本发明的实施方式提供用于应用有多任务能力的人工神经网络KNN的经改善的可能性。本发明的有利改进方案从从属权利要求、说明书和附图中得出。

本发明的第一方面提供一种用于训练有多任务能力的人工神经网络KNN的方法。该方法设置以下步骤:

提供用于通过KNN的第一信息流的第一路径。该第一路径将KNN的输入层(例如Input Layer(输入层))与KNN的至少一个跨任务中间层(例如Hidden Layer(隐藏层))耦合,其中该至少一个跨任务中间层也可以被称为跨任务KNN分段。中间层对于KNN的多个、作为至少两个彼此不同的任务是共同的,或者由所述任务或对于所述任务共享,使得也可以将所述任务从隐藏层进一步指定到共享层(Shared Layer)。此外,第一路径将至少一个跨任务中间层与来自彼此不同的任务中的多个任务的相应任务特定的KNN分段耦合。因此,相应KNN分段被分配给恰好一个唯一的任务,其中对于每个任务也可以设置多个尤其是分层布置的KNN分段。在此,至少一个KNN分段可以是或包括用于执行任务特定的KNN的任务特定的输出层(例如Ouput Layer(输出层))。与此相对应地,任务特定的输出层可以产生或提供输出数据和/或输出信号。

经由输入层和/或第一路径输送用于训练跨任务参数的第一训练数据。这些跨任务参数对于KNN的彼此不同的任务中的多个任务是共同的,因此可以例如在任务之间被共享、再次使用等。跨任务参数可以尤其被理解为KNN的权重、失真、激活函数等。

除了第一路径之外,提供用于通过KNN的与第一信息流不同的第二信息流的至少一个任务特定的第二路径。第二路径将KNN的输入层与来自彼此不同的任务中的多个任务的任务特定的KNN分段中的仅一部分耦合。换句话说,经由第二路径引起的信息流不通向所有不同的任务,而是仅通向其一部分。示范性地,在示例性地应该执行总共两个不同的任务的KNN情况下第二路径能够允许仅通向一个唯一任务的信息流,而另一任务与第二路径解耦。

经由第二路径输送用于训练任务特定的参数的第二训练数据。优选地,第二训练数据至少是任务特定的,也即分配给来自多个不同任务中的至少一个。

该方法可以改善有多任务能力的KNN的应用,其方式是仅多个任务特定中的一个唯一的或一子集的任务被单独地改变和/或改善。就此而言,改变和/或改善可以尤其是被理解为可以重新训练、适配、校正、微调等多个任务特定中的所述唯一的或所述子集的任务。然而,在此所提出的方法确保其中的其余任务不受影响,尤其是分配给所述其余任务的任务特定的参数、诸如其权重、失真、激活函数等不受影响。不言而喻,这种重新训练、适配、校正、微调等根据第二训练数据经由第二路径进行。

而通过所提出的方法一方面可能的是,有利地使用不同任务之间的期望的共同性或相关性,以便通过共同地使用函数、中间计算、信息等来节省计算资源,但另一方面实现不同任务的一定解耦,以便单独地适配各个任务。如果KNN应该针对其应用被验证,以便在例如自动化技术、机器人技术等中在生产运行中获得释放,则所提出的方法可以显著减少为此所需要的耗费,因为通过第二路径原则上仅必须验证与此耦合的任务,因为自最后的验证起其余任务未发生变化(不再发生变化)。

KNN尤其是可以被理解为有向图,所述有向图的节点表示布置在上述层中的多个神经元,并且所述有向图的边表示其之间的连接。待训练的参数尤其是可能影响信息流沿着这些连接的强度。

与此相对应地,第一路径可以允许沿所有节点和/或边的信息,但第二路径仅能够允许沿这些节点和/或边的子集的信息。就此而言,任务可以尤其是被理解为由例如计算机程序的至少一部分表示的必要时自含式的任务。

不同的任务可以分别执行自动化技术、机器人技术等中的任务,例如用于至少部分自动化的、即部分自主的机器人的任务。这种KNN的示例性应用也例如在车辆技术中找到,尤其是用于至少部分自动化的车辆。示例性任务可以例如是交通标志识别、语义场景分割等。因此,有多任务能力的KNN例如可以执行交通标志识别作为第一任务和语义场景分割作为与此不同的第二任务。此外,一般在自动化技术中并且例如在车辆技术中的其他应用尤其是也是可设想的。

一种改进方案规定,可以允许从至少一个跨任务中间层朝向第二路径的信息流,但是可以阻止从第二路径朝向跨任务中间层的反向信息流。换句话说,对于与第二路径耦合的任务此外可以使用共同的参数等,而这些参数不能通过第二路径改变并且因此对于其余任务可以保持不变。关于跨任务中间层,第二路径的信息流是单向的。这允许以特别爱惜计算资源的方式适配各个任务。

另一改进方案规定,至少一个任务特定的KNN分段本身多层地、即利用相应多个分层布置的、任务特定的任务(中间)层(即必要时任务特定的隐藏层)来构造。应当注意的是,一个任务的任务特定的任务层的数量可以不同于另一任务的任务特定的任务层的数量。关于将KNN表示为图,至少一个任务特定的KNN分段因此可以具有多个任务特定的节点,所述节点仅在同一任务特定的KNN分段内经由相应的任务特定的边相互连接。

在一种改进方案中,可以经由第二路径改变或适配相应任务特定的KNN分段。尤其是,可以改变该KNN分段的多个任务特定的任务层等。例如,可以将其他任务特定的任务层添加给该任务特定的KNN分段,或者可以从中移除现有的任务特定的层。附加或替代于此地,也可以改变、也即例如减少或提高任务特定KNN分段的一个或多个任务特定的层的例如神经元的数量。这使得能够特别好地适配各个任务,而不一起改变其他任务。根据一种改进方案,经由第二路径输送的第二训练数据可以由输送给输入层的输入数据和由从至少一个跨任务中间层中导出的中间层数据组合而成。这允许以特别爱惜计算资源的方式适配各个任务。

在一种改进方案中,可以从多个跨任务中间层中选择支持任务特定的参数的训练的那些中间层用于与第二路径结合。例如可能的是,从多个尤其是分层布置的跨任务中间层中,仅与第二路径耦合的任务的适配相关的、有帮助的、有意义的等这样的中间层与第二路径连接。从而可以更进一步地改善KNN的任务特定的质量。

根据一种改进方案,可以在输送第一训练数据和输送第二训练数据之间执行对可由KNN执行的任务中的至少一部分的验证。可以执行所述第二训练数据的输送用于适配至少一个特定任务,不包括适配至少一个与此不同的其他特定任务。由于在输送训练数据并且必要时测试运行之后已经验证了其他任务特定并且由于与第二路径解耦而不再通过输送第二训练数据而被改变,所以可以放弃对其他任务特定的其他验证。由此可以以小的验证耗费适配KNN。

本发明的第二方面提供一种有多任务能力的人工神经网络KNN。如上所述,KNN可以尤其是被理解为有向图,所述有向图的节点表示布置在上述层中的多个神经元,并且所述有向图的边表示其之间的连接。所提出的KNN具有输入层、多个任务特定的KNN分段(即与分配给KNN的多个彼此不同的任务的任务数量相对应的数量)以及至少一个跨任务中间层,所述跨任务中间层布置在输入层和多个任务特定的KNN分段之间并且包括可跨任务使用的多个参数。

此外,所提出的KNN具有第一路径,所述第一路径经由至少一个跨任务中间层将输入层与多个任务特定的KNN分段耦合用于通过KNN的第一信息流。

附加地,所提出的KNN具有至少一个任务特定的第二路径,所述第二路径将输入层与来自多个任务特定的KNN分段中的仅一部分耦合,用于通过KNN的与第一信息流不同的任务特定的第二信息流。

该KNN使得能够以爱惜计算资源的方式适配KNN的一个或多个任务特定。有利地,可以经由第一路径首先训练对于所有(或至少多个)任务共同的参数、诸如权重、失真、激活函数等。然而,如果在KNN的验证或生产运行期间应该证明必须以任何方式改变任务特定或其执行,则这可以在不影响其余任务特定的情况下进行。由此,可以将有多任务能力的KNN在KNN的特定部分的共同使用方面的优点与类似于有单任务能力的KNN的任务特定的简单适配的优点组合。

根据一种改进方案,第二路径的层的数量可以不同于跨任务中间层的数量。换句话说,第二路径可以具有与第一路径尤其是在跨任务中间层方面不同数量的节点和/或边。在此,第二路径的节点和/或边可以与第一路径的节点和/或边中的一个或多个连接。这使得能够自由配置KNN用于在使用尽可能低的计算资源的情况下改善和/或改变一个或多个任务特定。

在一种改进方案中,KNN可以具有多个第二路径。在此,每个第二路径可以被设立用于仅朝向所述多个任务特定的KNN分段的子数量的任务特定的信息流。换句话说,KNN可以具有多个第二路径,所述第二路径分别(仅)分配给一个任务特定,使得不同的第二路径在其相应信息流方面彼此解耦。由此即使KNN应该执行三个或更多个彼此不同的任务并且例如应该改变和/或改善三个不同任务中的仅两个或至少四个不同任务中的至少三个等,也可以实现用于改变和/或改善各个任务特定的上述优点。

根据一种改进方案,KNN可以具有至少一个递归跨任务中间层,所述递归跨任务中间层被设立用于朝向第二路径的信息流。递归跨任务中间层可以被理解为,该递归跨任务中间层具有直接反馈、间接反馈或侧向反馈,在所述直接反馈情况下节点使用其输出作为重新的输入,在所述间接反馈情况下节点的输出作为在前跨任务中间层中的输入节点来使用,在所述侧向反馈情况下节点的输出作为同一跨任务中间层中的节点的输入来使用。

在另一改进方案中,第二路径也可以具有至少一个递归层。如上所述,该递归层可以是第二路径的必要时多个节点之一。就此而言,递归层可以被理解为所述递归层具有直接反馈、间接反馈或侧向反馈,在所述直接反馈情况下节点使用其输出作为重新的输入,在所述间接反馈情况下节点的输出作为在前跨任务中间层中的输入节点来使用,在所述侧向反馈情况下节点的输出作为同一跨任务中间层中的节点的输入来使用。

本发明的第三方面提供一种设备,所述设备包括至少一个如上所述的有多任务能力的人工神经网络KNN。在此,KNN可以被实现为软件、硬件或软件和硬件的混合形式。

该设备例如可以被构造为计算机、电子控制设备或控制设备复合体等。此外,该设备可以具有至少一个处理器、诸如易失性和非易失性存储器之类的存储器、到诸如传感器、自动装置的执行器、机器人等之类的检测装置的一个或多个数据接口、通信接口等等。该设备也可以设立用于获得例如信号形式的输入数据,将所述输入数据输送给上述KNN的输入层,并且提供其输出数据。因此,该设备可以被使用在例如自动化技术、机器人技术等中,其中能够如上所述改变和/或改善任务特定。

本发明的第四方面提供一种用于运行有多任务能力的人工神经网络KNN的方法。KNN可以例如在上述设备、诸如计算机、电子控制设备等中实现。

所提出的方法设置以下步骤:

在第一阶段中,通过经由第一路径输送第一训练数据来共同地训练KNN的多个彼此不同的任务,所述第一路径允许通过KNN的第一信息流。这尤其是可以通过上述方法在所述实施变型方案中的一个或多个中来进行。

在第二阶段中,可以执行经训练的KNN的任务中的一个或多个任务。这例如可以是自动化技术、机器人技术等中的不同任务。

在第三阶段中,可以通过经由不同于第一路径的第二路径输送第二训练数据与来自多个任务中的至少一个其他任务无关地训练和/或校正KNN的任务中的至少一个任务,所述第二路径允许通过KNN的不同于第一信息流的第二信息流。这尤其是可以通过上述方法在所述实施变型方案中的一个或多个中进行。

由此可以事后改变和/或改善KNN的至少一个单个任务,而不会不期望地一起改变其他任务。

本发明的第四方面涉及一种包括指令的计算机程序,所述指令在通过计算机执行计算机程序时促使所述计算机在分别描述的实施变型方案中的一个或多个中执行上述方法之一、即根据第一或第三方面的方法。

本发明的第五方面涉及一种机器可读存储介质,其上存储有根据第四方面所述的计算机程序。

计算机可读存储介质可以尤其是、但不一定是尤其是适用于存储和/或分发计算机程序的非易失性介质。计算机可读存储介质可以是CD-ROM、DVD-ROM、光学存储介质、固态介质等,其与其他硬件一起或作为其他硬件的一部分被提供。附加或替代于此地,计算机可读存储介质也可以以其他形式分发或销售,例如经由数据网络、诸如互联网或其他有线或无线电信系统。为此,计算机可读存储介质例如可以被实施为一个或多个数据分组。

改善本发明的其他措施在下面根据图与本发明的优选实施例的描述一起更详细地示出。

附图说明

下面参考附图详细地描述本发明的有利实施例。其中:

图1以框图示出根据本发明的一种实施方式的具有人工神经网络的设备,

图2以框图示出根据本发明的一种实施方式的具有人工神经网络的设备,

图3以框图示出根据本发明的一种实施方式的具有人工神经网络的设备,

图4以框图示出根据本发明的一种实施方式的具有人工神经网络的设备,以及

图5为了更好地阐明作为有向无环图示出根据图4的实施方式。

这些图仅是示意性的,并且不按比例绘制。在图中,相同的、作用相同的或相似的元件通常配备有相同的附图标记。

具体实施方式

图1以框图示出设备100,所述设备例如可以在(未示出的)至少部分自动化的机器人中实现。设备100在这里示范性地是电子控制设备形式的计算机,所述电子控制设备可以例如被构造为嵌入式系统,以便例如执行机器人的自动化和/或控制使命。仅示例性地,机器人可以是至少部分自动驾驶的车辆,例如至少部分自动化的机动车。设备100(至少在生产运行中)此外被设立用于从例如机器人的传感器获得输入信号,对所述输入信号进行处理并且自身响应于输入信号产生输出信号并且例如为机器人的执行器提供所述输出信号。参考车辆的示例,设备100可以至少根据进入的传感器信号通过操控执行器和/或车辆驱动器等来控制车辆的部分功能。

设备100包括人工神经网络110,所述人工神经网络在下面用KNN缩写,并且在这里为了更好地阐明,作为具有多个节点和边的有向图示出。节点表示层或布置在层中的多个神经元。边表示层或布置在层中的神经元之间的连接。

KNN 110是有多任务能力的,即被设立用于彼此并行地、例如同步地、交替地等执行多个任务。在该实施例中,KNN 110被设立用于执行至少两个彼此不同的任务,在图1中和在下面通过附图标记A和B相互区分所述任务。仅示例性地,KNN 110可以被设立用于进行图像处理,诸如用于探测传感器数据中的不同对象等。仅示范性地尤其是可以将交通标志识别设置为任务A并且将语义场景分割设置为任务B。由于KNN 110原则上是机器学习系统,所述该KNN 110也可以为大量其他技术任务设立或设置。

如图1中所示的那样,KNN 110被构造为多层的,具有输入层120、至少一个跨任务中间层130和多个、也即与任务A、B的数量相对应数量的任务特定的KNN分段140。在图1中,多个KNN分段140因此涉及两个任务A和B,使得在这里KNN 110示范性地具有两个KNN分段140。原则上,KNN分段140中的每一个均可以表示KNN 110的输出层。如图1中所表明的那样,KNN分段140中的每一个也可以本身以多层方式利用相对应地多个分层布置的任务特定的任务层来构造,其中在这里仅示范性地为任务A和B中的每一个分别示出三个任务特定的任务层,并且其中所述任务层的数量向上和向下可以不同。中间层130的数量在这里示范性地是五个,其中也可以设置更多或更少的中间层130。

跨任务中间层130如在图1中通过相应的节点和边所表明的那样对于两个任务A和B是共同的。因此是任务A和B共享的层(Shared Layer(共享层))。尤其是可以共享跨任务可使用的参数、诸如各个节点、也即层或神经元的权重、激活函数等。示例性地,中间层130的复杂度可以分层地增加。

根据图1,输入层120经由边与中间层130耦合并且所述中间层又分别经由边与任务特定的KNN分段140耦合,使得从输入层120经由中间层130朝向分配给任务A和B的KNN分段140的信息流是可能的,所述KNN分段作为相应输出层起作用。在图1中,通过箭头表明引起相应信息流的输入信号S。在训练阶段中,输入信号S可以表示训练数据,而在设备100的生产运行中,例如传感器数据等被馈入。

如图1中所示的那样,KNN 110具有第一路径P1,所述第一路径对于在通过边的箭头表明的方向上穿过KNN 110的第一信息流将输入层120经由跨任务中间层130与任务特定的KNN分段140耦合。与此相对应地,在信息流的方向上最后的中间层130的边分别将所述中间层与相应任务特定的KNN分段140的在信息流的方向上的第一层耦合。也就是说,第一路径P1的信息流从中间层130中的最后一个在第一任务A的方向上和在第二任务B的方向上分叉。

如进一步在图1中所示的那样,KNN 110附加地具有第二路径P2,所述第二路径的第二信息流不同于上述第一信息流。因此,第二路径P2本身包括其他节点170,所述其他节点经由其他边彼此连接。节点170又可以被理解为层或在层中布置的神经元。第二路径P2仅通向两个任务中的一个,即在该实施例中通向第一任务A。因此,路径P2表示任务特定的侧路径,所述侧路径虽然准许至所述任务中的单个任务、在这里即第一任务A的第二信息流,但是与至少一个其他任务、在这里即任务B解耦。与此相对应地,沿着第二路径P2的第二信息流也仅影响分配给所述第二信息流的任务、即在这里第一任务A,而另一任务、在这里任务B不受影响。

在根据图1的实施例中,第二路径P2仅示范性地具有与跨任务中间层130的数量相对应数量的节点。然而,该数量也可以不同。第二路径P2的节点或层170中的在信息流方向上最后的节点或层与分配给第一任务A的KNN分段140耦合。仅示范性地,例如任务A的KNN分段在这里具有三个任务特定的任务层,其中的在信息流方向上的第一任务层与第二路径P2的节点或层170中的最后节点或层耦合。应该注意的是,在此第二路径P2朝向第一任务A的信息流可以利用至少一个算子进行,使得第二路径P2朝向第一任务A的信息流例如可以是相加的、相减的、级联的等。如图1中所示的那样,可以使第二路径P2的单个或所有层170与中间层数据、也即例如可跨任务使用的上述参数组合,所述参数从跨任务中间层130导出。换句话说,可以存在沿着如下边的信息流,所述边将跨任务中间层130中的一个或多个与第二路径P2、例如与所述第二路径的边或节点耦合。于是例如可以沿着该边将可跨任务使用的数据、尤其是参数输送给第二路径P2。应该注意的是,该信息流优选地是单向的(即仅仅从跨任务中间层130朝向第二路径P2),以便经由第二路径P2的信息流不能改变跨任务中间层130的参数、数据等。

图2以框图示出设备100或KNN 110的另一实施方式。该实施方式与图1中所示的实施方式基本上不同之处在于,第二路径P2具有一数量的层170,该数量与第一路径P1的跨任务中间层130的数量不同。仅示范性地,第二路径P2的层170的数量在这里小于第一路径P1的跨任务中间层130的数量,其中这相反地也是可能的。然而,因为设置了从第一路径P1朝向第二路径P2的相对应的边,所以所有可跨任务使用的参数此外可以被输送给第二路径P2。

图3以框图示出设备100或KNN 110的另一实施方式。该实施方式与上述实施方式基本上不同之处在于,也为第二任务B设置了用于通过KNN 110的第二信息流的其他第二路径P2'。原则上,以上针对第二路径P2的描述内容适用于其他第二路径P2'。应该注意的是,第二路径P2'(如在图3中直观地示出的那样)仅能够影响第二任务B,而不能对第一任务A施加影响。

图4和5分别以框图示出设备100或KNN 110的另一实施方式。根据该实施方式,跨任务中间层130中的一些或者必要时也所有中间层可以被实施为递归层(recurrent layer(递归层))。与此相对应地,跨任务中间层130彼此之间和/或朝向第二路径P2的信息流在这里可能与在上述实施方式中相比更复杂。为了说明通过KNN 110的相应地更复杂的示范性信息流,根据该实施方式的KNN 110在图5中在不同的时间点对于输入信号S被示出为有向无环图,其中t=0、t=1和t=2。

根据示出框图的图1,随后示例性地阐述可以如何训练设备100或KNN 110以执行不同的任务A、B。

如上面所描述的那样,KNN 110拥有用于通过KNN 110的第一信息流的第一路径P1。在一个阶段中,经由该第一路径P1输送第一训练数据,所述第一训练数据被设立用于训练跨任务中间层130中的对于任务A和B共同的跨任务参数,其中在该训练中,例如设定各个层或布置在其中的神经元的权重,以便于是能够以期望的质量执行相应的任务A或B。以这种方式,也可以逐渐训练不同的任务A和B。在训练之后,KNN 110然后原则上被适配或训练用于生产运行。应当注意的是,在这里为了更好的清楚性,这些训练数据由输入信号120代表。

通常,KNN 110在生产运行之前仍被验证。然而,如果在验证时表明,任务、例如根据图1的第一任务A不提供期望的性能,则KNN 110的上述架构能够借助于用于通过KNN 110的第二信息流的第二路径P2实现特定的任务A的再训练、微调、校正等、或者一般而言适配。为此,经由任务特定的第二路径P2输送任务特定的第二训练数据,所述任务特定的第二训练数据使得能够对一个任务、在这里第一任务A进行适配,而不影响另一任务、在这里第二任务B。应当注意的是,在这里为了更好的清楚性,这些训练数据由输入信号120代表。由于通过经由第二路径P2输送任务特定的训练数据(这也适用于其他第二路径P2')仅改变任务A的参数、设定等,也即不一起改变跨任务中间层130的参数以及任务B的分配给任务B的任务特定的参数、设定等,所以随后验证的耗费显著减少。不言而喻,因为对于任务A和B共同的参数、设定等并未发生变化,所以在任务B保持不变的情况下,于是仅必须验证经由第二路径P2或P2'通过输送第二训练数据而改变的任务A。

训练、尤其是任务特定的训练的上述原理可以相应地被转用到本申请的全部实施方式上。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号