首页> 中国专利> 用于实施神经网络应用的多芯片系统、适用于多芯片系统的数据处理方法、和非暂时性计算机可读介质

用于实施神经网络应用的多芯片系统、适用于多芯片系统的数据处理方法、和非暂时性计算机可读介质

摘要

本申请提供一种用于实现神经网络应用的数据处理方法、多芯片系统、和非暂时性计算机可读介质。数据处理方法包括:分配相应的芯片来处理第一阶段数据的相应部分和第二阶段数据的相应部分;第一芯片将第一阶段数据的第一部分通过通道传送到第二芯片;第二芯片将第一阶段数据的第二部分通过通道传送到第一芯片;第一芯片计算第一阶段数据与权重值的第一部分以获得第一结果,并且第二芯片计算第一阶段数据与权重值的第二部分以获得第二结果,其中第一结果和第二结果皆是第二阶段数据的其中之一。

著录项

  • 公开/公告号CN112970037A

    专利类型发明专利

  • 公开/公告日2021-06-15

    原文格式PDF

  • 申请/专利权人 创惟科技股份有限公司;

    申请/专利号CN201980073119.2

  • 发明设计人 徐云植;

    申请日2019-04-10

  • 分类号G06N3/063(20060101);

  • 代理机构31218 上海翼胜专利商标事务所(普通合伙);

  • 代理人翟羽

  • 地址 中国台湾新北市新店区北新路三段205号12楼

  • 入库时间 2023-06-19 11:26:00

说明书

技术领域

本发明关于多芯片系统领域,特别是关于一种用于实施神经网络应用的多芯片系统、适用于多芯片系统的数据处理方法、和非暂时性计算机可读介质。

背景技术

人工神经网络(artificial neural network)是参照生物脑的计算模型。在神经网络中,被称为神经元的节点可以互连并共同操作以处理输入数据。不同类型的神经网络的范例包括但不限于卷积神经网络(convolutional neural network)、递归神经网络(recurrent neural network)、深度信念网络(deep belief network),受限玻尔兹曼机(restricted Boltzman machine)等。在前馈神经网络中,神经网络的神经元与其他神经元有链接,且链路仅在一个方向上延伸(即向前方向)通过神经网络。

可以利用神经网络从复杂的输入数据中提取“特征值”。神经网络可以包括多个层。每个层接收输入数据并通过处理层的输入数据生成输出数据。输出数据可以是神经网络通过将输入图像或特征值图与卷积核(convolution kernel)卷积运算而产生的输入数据的特征值图。在卷积神经网络加速芯片的实现中,由于不可能指定加速资源的具体数量,芯片级并行化处理的可能性是最重要的部分之一。每个芯片中加速元件的同步和数据共享始终是关键问题。

有鉴于此,有必要提供一种用于实施神经网络应用的多芯片系统、适用于多芯片系统的数据处理方法、和非暂时性计算机可读介质,以解决现有技术的问题。

发明内容

为了解决上述技术问题,本揭示的目的在于提供一种多芯片系统,一种多芯片系统、数据处理方法、和非暂时性计算机可读介质,以更有效地实现芯片级并行化处理。

为了达到上述目的,本揭示提供一种适用于多芯片系统的数据处理方法,用于实现神经网络应用,其中所述多芯片系统包括:一通道、一第一芯片、和与所述通道连接的一第二芯片,其中所述神经网络应用包括一第一阶段数据、一第二阶段数据、一第三阶段数据、和多个权重值,其中所述数据处理方法包括:分配所述第一芯片来处理所述第一阶段数据的一第一部分、所述第二阶段数据的一第一部分、以及所述第三阶段数据的一第一部分,以及并分配所述第二芯片来处理所述第一阶段数据的一第二部分、所述第二阶段数据的一第二部分、以及所述第三阶段数据的一第二部分;所述第一芯片获取对应所述第二阶段数据的所述多个权重值的一第一部分;所述第二芯片获取对应所述第二阶段数据的所述多个权重值的一第二部分;所述第一芯片获取所述第一阶段数据的所述第一部分;所述第一芯片将所述第一阶段数据的所述第一部分通过所述通道传送到所述第二芯片;所述第二芯片接收所述第一阶段数据的所述第一部分;所述第二芯片获取所述第一阶段数据的所述第二部分;所述第二芯片将所述第一阶段数据的所述第二部分通过所述通道传送到所述第一芯片;所述第一芯片接收所述第一阶段数据的所述第二部分;所述第一芯片计算所述第一阶段数据与所述多个权重值的所述第一部分以获得一第一结果,其中所述第一结果是所述第二阶段数据的其中之一;以及所述第二芯片计算所述第一阶段数据与所述多个权重值的所述第二部分以获得一第二结果,其中所述第二结果是所述第二阶段数据的其中之一。

本揭示的其中之一实施例中,在获得所述第一结果和所述第二结果之后,所述数据处理方法还包括:所述第一芯片获取对应所述第二阶段数据的所述多个权重值的一第三部分;所述第二芯片获取对应所述第二阶段数据的所述多个权重值的一第四部分;所述第一芯片获取所述第一阶段数据的所述第一部分;所述第一芯片将所述第一阶段数据的所述第一部分通过所述通道传送到所述第二芯片;所述第二芯片接收所述第一阶段数据的所述第一部分;所述第二芯片获取所述第一阶段数据的所述第二部分;所述第二芯片将第一阶段数据的所述第二部分通过所述通道传送到所述第一芯片;所述第一芯片接收所述第一阶段数据的所述第二部分;所述第一芯片计算所述第一阶段数据与所述多个权重值的所述第三部分以获得一第三结果,其中所述第三结果是所述第二阶段数据的其中之一;以及所述第二芯片计算所述第一阶段数据与所述多个权重值的所述第四部分以获得一第四结果,其中所述第四结果是所述第二阶段数据的其中之一。

本揭示的其中之一实施例中,在获得所述第一结果、所述第二结果、所述第三结果、和所述第四结果之后,所述数据处理方法还包括:依序地分配所述第一结果、所述第三结果、所述第二结果、和所述第四结果作为所述第二阶段数据的输入数据。

本揭示的其中之一实施例中,所述多芯片系统还包括一第一记忆体和一第二记忆体,并且所述第一记忆体与所述第一芯片相连,以及所述第二记忆体与所述第二芯片相连;其中所述第一记忆体包括一第一区和一第二区,以及所述第二记忆体包括一第三区和一第四区;以及其中所述第一阶段数据的所述第一部分存储在所述第一记忆体的所述第一区中,以及所述第二阶段数据的所述第一部分存储在所述第一记忆体的所述第二区,并且所述第一阶段数据的所述第二部分存储在所述第二记忆体的所述第三区,以及所述第二阶段数据的所述第二部分存储在所述第二记忆体的所述第四区。

本揭示的其中之一实施例中,所述数据处理方法还包括:从所述第一记忆体中擦除所述第一阶段数据的所述第一部分,并从所述第二记忆体中擦除所述第一阶段数据的所述第二部分;以及将所述第一记忆体的所述第二区和所述第二记忆体的所述第四区转换成输入数据存储区域。

本揭示的其中之一实施例中,所述多芯片系统还包括与所述第一芯片和所述第二芯片连接的一记忆体和配置成连接所述第一芯片和所述第二芯片的多条传输线;其中所述记忆体包括一第一区和一第二区;以及其中所述第一阶段数据存储在所述记忆体的所述第一区,以及所述第二阶段数据存储在所述记忆体的所述第二区。

本揭示还提供一种用于实现神经网络应用的多芯片系统,其中所述神经网络应用包括一第一阶段数据、一第二阶段数据、一第三阶段数据、和多个权重值,所述多芯片系统包括:一数据通道;一第一芯片和一第二芯片,其中所述第一芯片和所述第二芯片连接所述数据通道;一存储器;以及一处理器,其中所述多芯片系统的多个计算机代码存储在所述存储器中并且被配置为由所述处理器执行以执行一数据处理方法,所述数据处理方法包括:分配所述第一芯片来处理所述第一阶段数据的一第一部分、所述第二阶段数据的一第一部分、以及所述第三阶段数据的一第一部分,以及并分配所述第二芯片来处理所述第一阶段数据的一第二部分、所述第二阶段数据的一第二部分、以及所述第三阶段数据的一第二部分;所述第一芯片获取对应所述第二阶段数据的所述多个权重值的一第一部分;所述第二芯片获取对应所述第二阶段数据的所述多个权重值的一第二部分;所述第一芯片获取所述第一阶段数据的所述第一部分;所述第一芯片将所述第一阶段数据的所述第一部分通过所述数据通道传送到所述第二芯片;所述第二芯片接收所述第一阶段数据的所述第一部分;所述第二芯片获取所述第一阶段数据的所述第二部分;所述第二芯片将所述第一阶段数据的所述第二部分通过所述数据通道传送到所述第一芯片;所述第一芯片接收所述第一阶段数据的所述第二部分;所述第一芯片计算所述第一阶段数据与所述多个权重值的所述第一部分以获得一第一结果,其中所述第一结果是所述第二阶段数据的其中之一;以及所述第二芯片计算所述第一阶段数据与所述多个权重值的所述第二部分以获得一第二结果,其中所述第二结果是所述第二阶段数据的其中之一。

本揭示的其中之一实施例中,所述数据处理方法还包括:所述第一芯片获取对应所述第二阶段数据的所述多个权重值的一第三部分;所述第二芯片获取对应所述第二阶段数据的所述多个权重值的一第四部分;所述第一芯片获取所述第一阶段数据的所述第一部分;所述第一芯片将所述第一阶段数据的所述第一部分通过所述数据通道传送到所述第二芯片;所述第二芯片接收所述第一阶段数据的所述第一部分;所述第二芯片获取所述第一阶段数据的所述第二部分;所述第二芯片将第一阶段数据的所述第二部分通过所述数据通道传送到所述第一芯片;所述第一芯片接收所述第一阶段数据的所述第二部分;所述第一芯片计算所述第一阶段数据与所述多个权重值的所述第三部分以获得一第三结果,其中所述第三结果是所述第二阶段数据的其中之一;以及所述第二芯片计算所述第一阶段数据与所述多个权重值的所述第四部分以获得一第四结果,其中所述第四结果是所述第二阶段数据的其中之一。

本揭示的其中之一实施例中,所述数据处理方法还包括:依序地分配所述第一结果、所述第三结果、所述第二结果、和所述第四结果作为所述第二阶段数据的输入数据。

本揭示的其中之一实施例中,所述多芯片系统还包括一第一记忆体和一第二记忆体,并且所述第一记忆体与所述第一芯片相连,以及所述第二记忆体与所述第二芯片相连;其中所述第一记忆体包括一第一区和一第二区,以及所述第二记忆体包括一第三区和一第四区;以及其中所述第一阶段数据的所述第一部分存储在所述第一记忆体的所述第一区中,以及所述第二阶段数据的所述第一部分存储在所述第一记忆体的所述第二区,并且所述第一阶段数据的所述第二部分存储在所述第二记忆体的所述第三区,以及所述第二阶段数据的所述第二部分存储在所述第二记忆体的所述第四区。

本揭示的其中之一实施例中,所述数据处理方法还包括:从所述第一记忆体中擦除所述第一阶段数据的所述第一部分,并从所述第二记忆体中擦除所述第一阶段数据的所述第二部分;以及将所述第一记忆体的所述第二区和所述第二记忆体的所述第四区转换成输入数据存储区域。

本揭示的其中之一实施例中,所述多芯片系统还包括与所述第一芯片和所述第二芯片连接的一记忆体和配置成连接所述第一芯片和所述第二芯片的多条传输线;其中所述记忆体包括一第一区和一第二区;其中所述第一阶段数据存储在所述记忆体的所述第一区,以及所述第二阶段数据存储在所述记忆体的所述第二区;以及其中每一所述第一芯片和所述第二芯片通过所述多条传输线中的至少一条从所述记忆体获得所述第一阶段数据。

本揭示还一种用于在多芯片系统中实现神经网络应用的非暂时性计算机可读介质,所述非暂时性计算机可读介质内记录有多个程序代码,所述多个程序代码由一处理器执行并且包括:A,设置所述神经网络应用的多个输入神经元和多个输出神经元,其中每个所述多个输出神经元通过多个突触连接到所述多个输入神经元,用于根据多个权重值来加权来自所述多个输入神经元的多个输出;B,等待对应所述多个输入神经元的第一阶段数据通过一通道;C,计算相应的权重值与部分的所述第一阶段数据;D,同时计算对应于所述多个输出神经元的第二阶段数据;E,确定是否计算完所有的所述多个权重值,如果是,则进入F,如果不是,则返回B;F,将所述第二阶段数据保持在一记忆体上;G,为所述多个输出神经元设置所述第二阶段数据;以及H,确定是否所有已分配的所述多个输出神经元都已完成计算,如果是,则切换到下一层应用,如果不是,则调用一新的通道任务并返回到A。

本揭示的其中之一实施例中,在执行所述新的通道任务中所述处理器执行的所述多个程序代码还包含:I,从所述记忆体加载所述第一阶段数据;J,通过所述通道播送所述第一阶段数据;K,确定所述第一阶段数据是否完全播送,如果是,则进入L,如果不是,则返回J;以及L,确定是否计算完所有的所述第一阶段数据,如果是,则所述新的通道任务结束,如果否,则回到I。

本揭示的其中之一实施例中,在执行所述切换到下一层应用中所述处理器执行的所述多个程序代码还包括:M,设置所述记忆体的输入点位作为输出点位;以及N,设置所述记忆体的所述输出点位作为所述输入点位。

相较于现有技术,本揭示提供了一种能够并行运行的多芯片系统。为了提高机器学习加速芯片的性能,本揭示提供了一种用于多芯片系统的广播通道,它是一种基于具有所述功能的形式的市场需求的实现的结构设计理念。为了实现这一点,在本揭示中,每个芯片的输入特征值被部分地传输和共享,并且可以通过在其他芯片中同时使用它来计算群集,计算结果为最终输出神经元数值,并再次作为下一层的输入数据。这使我们能够利用多芯片系统实现高性能、低成本、以及满足市场需求。

附图说明

图1显示根据本揭示的数据处理过程的简易方块图。

图2显示根据本揭示的第一优选实施例的神经网络的简易方块图。

图3显示用于实现图2的神经网络应用的多芯片系统的示意图。

图4显示图3的E部分的特定结构的示意图。

图5显示根据本揭示的第二优选实施例的多芯片系统的示意图。

图6显示本揭示的一优选实施例的示例性计算机系统的方块图。

具体实施方式

为了让本揭示的上述及其他目的、特征、优点能更明显易懂,下文将特举本揭示优选实施例,并配合所附图式,作详细说明如下。

请参考图1,其显示根据本揭示的数据处理过程的简易方块图。所述数据处理过程适用于实现神经网络应用的多芯片系统。多芯片系统至少包括:广播通道110和与广播通道110连接的多个芯片C1-CN,其中每个芯片C1-CN具有内置计数器,以显示其自身的广播顺序。如图1所示,每个芯片C1-CN分配多个输入特征值。例如,第一芯片C1分配输入特征值I

请参照图2,其显示根据本揭示的第一优选实施例的神经网络1的简易方块图。神经网络1包括多个层(包括第一层L1、第二层L2、和第三层L3)、第一层L1中的多个神经元2、第二层L2中的多个神经元3、以及第三层L3中的多个神经元5。输入图为第一层L1创建一组值。第一层L1可以通过将输入图的像素直接映射到第一层L1中的特定神经元来生成,使得神经元2与第一阶段数据的一部分(例如A

如图2所示,如果第一层L1是神经网络1的输入层而第二层L2是输出层,则神经元2作为输入神经元,神经元3作为输出神经元。第一层L1中的输入神经元2连接到第二层L2中的输出神经元3。在神经网络1中,特定层中的每个神经元通过多个突触4和多个突触6连接到下一层中的神经元,以根据突触权重值从输入神经元输出权重值(例如W

请参照图3,其显示用于实现图2的神经网络应用的多芯片系统10的示意图。神经网络1由多芯片系统10实施,且多芯片系统10包括广播通道110、多个芯片(例如,第一芯片C1、第二芯片C2、第N个芯片CN等)、控制器130、和多个记忆体S1-SN。广播通道110与多个芯片C1-CN连接。广播通道110用于从芯片传送数据到其他芯片。在一个实施例中,芯片C1-CN包含加速芯片。每一芯片C1-CN与其中之一记忆体S1-SN连接。所有芯片的唯一索引(例如0001、0010、0100、1000)都是物理分配的。

在本揭示中,其中之一芯片C1-CN通过预定义协议分配为主芯片(即,以主模式操作),其占据广播通道110并执行数据总线操作。所有剩余的芯片都以从属模式运行并接收数据。具体来说,当第一阶段数据A

请参照图4,其显示图3的E部分的特定结构的示意图。第一芯片C1包括计算阵列1201、缓冲器1202、存储器控制器1203、通信通道1204、和物理接口1205。优选地,广播通道110采用多点低压差分信号(multipoint low voltage differential signaling,LVDS)物理通道,并且通信通道1204采用标准化物理通道,例如两个通用串行总线(universalserial bus,USB)或移动产业处理器接口(mobile industry processor interface,MIPI)。如果第一芯片C1在主模式下操作,则其他芯片C2-CN在从属模式下操作。此外,其他芯片的C2-CN中的每一个包括与第一芯片C1类似的元件。

如图2和图3所示,多芯片系统10的控制器130包括存储器131和处理器132。多芯片系统10的多个计算机代码存储在存储器131中,所述存储器131被配置为由处理器132执行以执行数据处理方法。数据处理方法包括如下步骤:首先,将神经网络1的一个或多个不同的多个输入神经元2、多个输出神经元3、和多个神经元5分配给多个芯片C1-CN中的每一个。也就是说,多个输入神经元2、多个输出神经元3、和多个神经元5被每一个芯片C1-CN占据。此外,与神经网络1的多个输入神经元2相关联的第一阶段数据A

如图2和图3所示,第一阶段数据的第一部分A

接着,每一个芯片C1-CN通过广播通道110顺序地获取第一阶段数据A

在其中之一芯片C1-CN接收到第一阶段数据A

芯片C1-CN重复执行以上获取和顺序地传输步骤,直到所有芯片C1-CN通过广播通道110彼此传送第一阶段数据A

在其中之一芯片C1-CN接收到其中之一第一阶段数据A

在所有第一阶段数据A

在神经网络1的下一层应用中,存储为输出数据的第二阶段数据N

如图2所示,如果第二层L2是神经网络1的输入层而第三层L3是输出层,则神经元3作为输入神经元,以及神经元5作为输出神经元。其中之一芯片C1-CN通过广播通道110获得与对应于另一芯片的神经元3相关联的第二阶段数据N

在第一实施例中,多芯片系统10不共享实际的记忆体资源,换句话说,不可能直接访问其他芯片的局部记忆体S1-SN,但它的结构是每个芯片通过公共广播通道110共享必要的输入特征值(例如,第一阶段数据A

请参照图5,其显示根据本揭示的第二优选实施例的多芯片系统20的示意图。多芯片系统20包括广播通道210、多个芯片(例如第一芯片C1、第二芯片C2、第三芯片C3、和第四芯片C4)、控制器230、和记忆体S。多个芯片C1-C4与广播通道210连接。优选地,芯片C1-C4可以为用于神经网络的加速芯片。第一实施例与第二实施例的区别在于第二优选实施例的多芯片系统20仅包括一个记忆体S。此外,多芯片系统20还包括多条传输线260,用于将芯片C1-C4中的一个与另一个连接。

如图5所示,记忆体S包括第一区Z1和第二区Z2。当多芯片系统20用于实现神经网络应用的第一层时,第一阶段数据存储在第一区Z1以及第二阶段数据存储在第二区Z2中。

如图5所示,在第二实施例中,为了防止由于大量本地化的记忆体而导致的成本增加,记忆体S可以仅安装在一个芯片220上,并且记忆体S可以采用可供许多芯片C1-C4共享的结构。在第二实施例中,需要单独的记忆体共享终端261。此外,其中的芯片从记忆体S通过至少一个芯片提取与输入神经元相关的第一阶段数据的相应部分。然后,芯片通过广播通道210将第一阶段数据的相应部分顺序地传送到其他芯片。

在某些实施例中,本文描述的一个或多个处理步骤可以由执行记录在非暂时性计算机可读介质上的程序代码的一个或多个处理器(例如,计算机处理器)来执行。例如,如图1所示,在多芯片系统中实施神经网络应用的过程。如图2和图3所示,可以具有由一个或多个处理器执行的程序代码执行的一个或多个步骤,所述程序代码作为程式指令存储在计算机可读取存储介质中(例如,非暂时性计算机可读介质)。

请参照图6,其显示本揭示的一优选实施例的示例性计算机系统30的方块图。示例性计算机系统30可以用于实现这里描述的一个或多个实施例。在一些实施例中,计算机系统30可由用户操作以实现这里描述的一个或多个实施例,例如图2和图3所示的在多芯片系统中实现神经网络应用的过程。在图6的实施例中,计算机系统30包括处理器310、存储介质320、和各种外围设备330。处理器310耦合到存储介质320和外围设备330。处理器310被配置为执行程序代码,包括用于实现神经网络应用的指令,其可以是软件。举例来说,如图2所示,如果第一层L1是神经网络1的输入层而第二层L2是输出层,则由处理器310执行的程序代码包括:程序代码A,设置神经网络1的多个输入神经元2和多个输出神经元3,其中每个输出神经元3通过多个突触3连接到所述多个输入神经元2,用于根据多个权重值(例如W

此外,当计算机系统30执行新的通道任务时,处理器310执行的程序代码还包括:程序代码I,从所述记忆体加载所述第一阶段数据A

此外,当计算机系统30切换以执行下一层应用时,由处理器310执行的程序代码包括:程序代码M,设置所述记忆体的输入点位作为输出点位;以及N,设置所述记忆体的所述输出点位作为所述输入点位。具体而言,如图2所示,在神经网络1的下一层应用中,存储为输出数据的第二阶段数据N

在一些实施例中,计算机系统30可以包括一个以上的处理器。此外,处理器310可以包括一个或多个处理器或一个或多个处理器核心。处理器310可以以任何期望的方式耦合到存储介质320和外围设备330,例如,在一些实施例中,处理器310可以通过各种互相连接的方式耦合到存储介质320和/或外围设备330。可选地或另外地,可以使用一个或多个桥接芯片来耦合处理器310、存储介质320、和外围设备330。存储介质320可以包括任何类型的记忆体系统。例如,存储介质320可以包括DRAM,更具体地是双数据率(DDR)SDRAM、RDRAM等。存储介质320的接口可以包括记忆体控制器,和/或处理器310可以包括记忆体控制器。存储介质320可以存储在处理器310使用期间由处理器310执行的程序代码、和由处理器在使用期间操作的数据等。外围设备330可以是任何种类的硬件设备,其设置在计算机系统30中或耦合到其上。

存储介质320可以包括代表包括在集成电路设计中的多芯片系统10(图3中描绘)的一个或多个程序代码以及代表在多芯片系统(如图2和图3所示)中实施神经网络应用的过程的一个或多个代码序列。每个代码序列可以包括一个或多个指令,当由计算机系统30中的处理器310执行时,实现针对相应代码序列描述的操作。一般而言,计算机可访问的存储介质可以包括在使用期间计算机系统30可访问的任何存储介质320,以向计算机系统30提供指令和/或数据。存储介质320可以物理地包括在计算机系统30内以向存储介质320提供指令/数据。可选地,存储介质320可以连接到计算机系统30。例如,存储介质320可以通过网络或无线链路(例如网络连接的存储器)连接到计算机系统30。存储介质320可以通过诸如通用串行总线(USB)的外围接口连接。通常,计算机可访问的存储介质可以以非暂时性方式存储数据,其中在所述上下文中的非暂时性可以指的是不在信号上发送指令/数据。例如,非暂时性存储器可以是易失性的(并且可以响应于断电而丢失所存储的指令/数据)或非易失性的。

综上所述,在本揭示中,多芯片系统能够并行运行。为了提高机器学习加速芯片的性能,本揭示提供了一种用于多芯片系统的广播通道,它是一种基于具有所述功能的形式的市场需求的实现的结构设计理念。为了实现这一点,在本揭示中,每个芯片的输入特征值被部分地传输和共享,并且可以通过在其他芯片中同时使用它来计算群集,计算结果为最终输出神经元数值,并再次作为下一层的输入数据。这使我们能够利用多芯片系统实现高性能、低成本、以及满足市场需求。

以上仅是本揭示的优选实施方式,应当指出,对于所属领域技术人员,在不脱离本揭示原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本揭示的保护范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号