首页> 中国专利> 一种硬件的AI赋能方法、装置、存储介质及设备

一种硬件的AI赋能方法、装置、存储介质及设备

摘要

本申请公开了一种硬件的AI赋能方法、装置、存储介质及设备,该方法包括:在获取到待赋能硬件的运行图像后,先将其发送至预先构建的赋能模型,以预测出待赋能硬件在下一时刻的运行状态;其中,待赋能硬件与赋能模型所在设备位于同一局域网,然后,控制待赋能硬件按照预测出的下一时刻的运行状态进行自动运行。可见,由于待赋能硬件与赋能模型所在设备位于同一局域网,在利用赋能模型对待赋能硬件进行自定义AI赋能时,能够保证数据传输的安全性。这使得在人工智能创新教育这种应用场景中,师生可以利用预先训练好的自定义的赋能模型对场景中的开源硬件进行自定义AI赋能,不仅能够保证数据传输安全,还提高了学生在AI课程中的学习体验。

著录项

  • 公开/公告号CN112785466A

    专利类型发明专利

  • 公开/公告日2021-05-11

    原文格式PDF

  • 申请/专利权人 科大讯飞股份有限公司;

    申请/专利号CN202011641320.7

  • 发明设计人 许喜乐;杨柳;张豪;

    申请日2020-12-31

  • 分类号G06Q50/20(20120101);G06N3/04(20060101);G06N3/08(20060101);H04L29/08(20060101);

  • 代理机构11227 北京集佳知识产权代理有限公司;

  • 代理人柳欣

  • 地址 230088 安徽省合肥市高新区望江西路666号

  • 入库时间 2023-06-19 10:57:17

说明书

技术领域

本申请涉及人工智能技术领域,尤其涉及一种硬件的AI赋能方法、装置、存储介质及设备。

背景技术

随着网络技术的快速发展,大数据、人工智能(Artificial Intelligence,简称AI)赋能、云计算、物联网平台、智能制造技术等都有了全面的提升和广泛的发展。

目前,对于运算能力较低的开源硬件设备来说,由于其自身处理器计算能力的限制,导致其基本上不存在AI能力,只能依赖于云端的AI能力,即,开源硬件需要通过广域网将采集到的数据传输至云端设备,再经过云端设备使用既有的AI引擎计算完成后回传结果至开源硬件。但是这种AI赋能方式,对于网络传输速度慢的人工智能创新教育这种应用场景来说,单纯的AI能力调用并不能很好地激发学生对AI课程的学习兴趣,人机交互体验感较差。具体存在以下四个缺点:一是由于通过广域网传输数据,中间链路较多,会存在网络延迟;二是将训练AI引擎的大量原始数据,通过广域网传输至云端服务器进行训练,会导致流量消耗比较大;三是数据在互联网传输过程中,存在可能被劫持或修改的安全风险;四是由于当前开源硬件的AI能力是云端提前由工程师训练好模型后提供推理和预测能力,并不支持用户自定义AI引擎的预测能力,所以在人工智能创新教育课堂上,学生只能看到对于云端AI能力的调用结果,并不能很好的参与和体验到AI能力的实现过程,不能充分理解AI的知识点,达不到良好的课堂学习效果。

可见,在人工智能创新教育这种应用场景中,现有的对于开源硬件的AI赋能方法不仅存在数据安全风险,而且不能满足学生的课堂学习需求,导致学生的体验较差。

发明内容

本申请实施例的主要目的在于提供一种硬件的AI赋能方法、装置、存储介质及设备,能够在局域网中,通过预先构建的赋能模型,为开源硬件赋予灵活的自定义AI能力,进而能够提高学生在AI课程中的学习体验与学习兴趣。

本申请实施例提供了一种硬件的AI赋能方法,包括:

获取待赋能硬件的运行图像;

将所述运行图像发送至预先构建的赋能模型,以预测出所述待赋能硬件在下一时刻的运行状态;所述待赋能硬件与所述赋能模型所在设备位于同一局域网;

控制所述待赋能硬件按照所述下一时刻的运行状态进行自动运行。

一种可能的实现方式中,所述将所述运行图像发送至预先构建的赋能模型之前,还包括:

预先与所述赋能模型所在设备在同一局域网内建立通信连接;

则,所述将所述运行图像发送至预先构建的赋能模型,以预测出所述待赋能硬件在下一时刻的运行状态,包括:

将所述运行图像通过所述通信连接发送至预先构建的赋能模型,以预测出所述待赋能硬件在下一时刻的运行状态。

一种可能的实现方式中,构建所述赋能模型,包括:

获取硬件的训练运行图像;

根据所述硬件的训练运行图像以及所述硬件的训练运行图像对应的下一时刻所述硬件的运行状态标签对初始赋能模型进行训练,生成所述赋能模型;所述硬件与所述初始赋能模型所在设备位于同一局域网。

一种可能的实现方式中,所述初始赋能模型包括特征提取网络、全连接层和输出层。

一种可能的实现方式中,所述特征提取网络包括卷积神经网络Resnet-18和/或卷积神经网络VGG16。

一种可能的实现方式中,所述方法还包括:

获取所述硬件的验证运行图像;

将所述硬件的验证运行图像输入所述赋能模型,获得所述硬件下一时刻的运行状态预测结果;

当所述硬件下一时刻的运行状态预测结果与所述硬件的验证运行图像对应的下一时刻所述硬件的运行状态标记结果不一致时,将所述硬件的验证运行图像重新作为所述硬件的训练运行图像,对所述赋能模型进行更新。

本申请实施例还提供了一种硬件的AI赋能装置,包括:

第一获取单元,用于获取待赋能硬件的运行图像;

发送单元,用于将所述运行图像发送至预先构建的赋能模型,以预测出所述待赋能硬件在下一时刻的运行状态;所述待赋能硬件与所述边缘计算AI模型所在设备位于同一局域网;

控制单元,用于控制所述待赋能硬件按照所述下一时刻的运行状态进行自动运行。

一种可能的实现方式中,所述装置还包括:

建立单元,用于预先与所述赋能模型所在设备在同一局域网内建立通信连接;

则所述发送单元具体用于:

将所述运行图像通过所述通信连接发送至预先构建的赋能模型,以预测出所述待赋能硬件在下一时刻的运行状态。

一种可能的实现方式中,所述装置还包括:

第二获取单元,用于获取硬件的训练运行图像;

训练单元,用于根据所述硬件的训练运行图像以及所述硬件的训练运行图像对应的下一时刻所述硬件的运行状态标签对初始赋能模型进行训练,生成所述赋能模型;所述硬件与所述初始赋能模型所在设备位于同一局域网。

一种可能的实现方式中,所述初始赋能模型包括特征提取网络、全连接层和输出层。

一种可能的实现方式中,所述特征提取网络包括卷积神经网络Resnet-18和/或卷积神经网络VGG16。

一种可能的实现方式中,所述装置还包括:

第三获取单元,用于获取所述硬件的验证运行图像;

输入单元,用于将所述硬件的验证运行图像输入所述赋能模型,获得所述硬件下一时刻的运行状态预测结果;

更新单元,用于当所述硬件下一时刻的运行状态预测结果与所述硬件的验证运行图像对应的下一时刻所述硬件的运行状态标记结果不一致时,将所述硬件的验证运行图像重新作为所述硬件的训练运行图像,对所述赋能模型进行更新。

本申请实施例还提供了一种硬件的AI赋能设备,包括:处理器、存储器、系统总线;

所述处理器以及所述存储器通过所述系统总线相连;

所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述硬件的AI赋能方法中的任意一种实现方式。

本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述硬件的AI赋能方法中的任意一种实现方式。

本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述硬件的AI赋能方法中的任意一种实现方式。

本申请实施例提供的一种硬件的AI赋能方法、装置、存储介质及设备,首先获取待赋能硬件的运行图像,然后,将运行图像发送至预先构建的赋能模型,以预测出待赋能硬件在下一时刻的运行状态;其中,待赋能硬件与赋能模型所在设备位于同一局域网,接着,可以控制待赋能硬件按照下一时刻的运行状态进行自动运行。可见,本申请实施例是利用预先训练好的赋能模型对待赋能硬件进行自定义的AI赋能,以控制其在下一时刻按照模型预测的运行状态进行自动运行,由于待赋能硬件与赋能模型所在设备位于同一局域网,所以,二者之间的数据传输仅在该局域网内部进行,从而能够保证了数据传输的安全性。

这样,使得在人工智能创新教育这种应用场景中,师生可以利用预先训练好的自定义的赋能模型对场景中的开源硬件(如自动巡道小车)进行自定义AI赋能,不仅能够保证数据传输安全,还满足了学生的课堂学习需求,提高了学生在AI课程中的学习体验与学习兴趣。

附图说明

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本申请实施例提供的一种硬件的AI赋能方法的流程示意图;

图2为本申请实施例提供的赋能模型的结构示意图;

图3为本申请实施例提供的构建赋能模型的流程示意图;

图4为本申请实施例提供的验证赋能模型的流程示意图;

图5为本申请实施例提供的一种硬件的AI赋能装置的组成示意图。

具体实施方式

在对一些运算能力较低的开源硬件设备提供AI能力时,由于开源硬件自身处理器计算能力的限制,导致只能依赖于云端的AI能力,来实现开源硬件的AI功能,即,开源硬件需要通过广域网将采集到的数据传输至云端AI引擎,再经过云端AI引擎计算完成后回传AI处理结果至开源硬件。但是这种对于硬件的AI赋能方式,对于网络传输速度慢的人工智能创新教育应用场景来说,不仅数据传输速率低,且仅是单纯的AI能力调用也并不能很好地激发学生对AI课程的学习兴趣,学生只能看到从云端调用的AI能力的处理结果,并不能很好的参与和体验到AI能力的具体实现过程,也不能充分理解AI知识点,体验较差。

为解决上述缺陷,本申请实施例提供了一种硬件的AI赋能方法,首先获取待赋能硬件的运行图像,然后,将运行图像发送至预先构建的赋能模型,以预测出待赋能硬件在下一时刻的运行状态;其中,待赋能硬件与赋能模型所在设备位于同一局域网,接着,可以控制待赋能硬件按照下一时刻的运行状态进行自动运行。可见,本申请实施例是利用预先训练好的赋能模型对待赋能硬件进行自定义AI赋能,以控制其在下一时刻按照模型预测的运行状态进行自动运行,由于待赋能硬件与赋能模型所在设备位于同一局域网,所以,二者之间的数据传输仅在该局域网内部进行,从而能够保证了数据传输的安全性。

这样,使得在人工智能创新教育这种应用场景中,师生可以参与到赋能模型的构建过程,并可以利用预先训练好的自定义的赋能模型对场景中的开源硬件(如自动巡道小车)进行自定义AI赋能,不仅能够保证数据传输安全,还满足了学生的课堂学习需求,提高了学生在AI课程中的学习体验。赋能模型主要是用于预测待赋能硬件在下一时刻的运行状态,任何具有运行状态功能的模型都可以作为本申请的赋能模型。例如,神经网络模型、高斯模型等等。

为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

参见图1,为本实施例提供的一种硬件的AI赋能方法的流程示意图,该方法包括以下步骤:

S101:获取待赋能硬件的运行图像。

在本实施例中,将采用本实施例实现AI赋能的任一开源硬件定义为待赋能硬件,为了给待赋能硬件赋予灵活的自定义AI能力,本申请首先需要获取待赋能硬件的运行图像。用以执行后续步骤S102。需要说明的是,本实施例不限制运行图像的类型,比如,运行图像可以是由红(G)、绿(G)、蓝(B)三原色组成的彩色图像、也可以是灰度图像等。

并且,还需要说明的是,该运行图像为通过开源硬件自行获取到的,而不是获取的云端的固定数据,比如,可以通过待赋能硬件自身携带的摄像头采集待赋能硬件运行时周围场景的图像,作为待赋能硬件的运行图像。

举例说明:假设在人工智能创新教育课堂的应用场景中,待赋能硬件为一辆自动巡道小车,则为了给该小车进行AI赋能,控制其按照模型的预测状态进行自动运行,以提高学生在AI课程中的学习体验,可以利用小车的车载摄像头拍摄并保存20张小车在行驶时两侧的跑道场景图片,作为小车的运行图像,用以执行后续步骤S102。

或者,另一种实现方式中,也可以是待赋能硬件周围的摄像头实时采集待赋能硬件运行时周围场景的图像,并传输给待赋能硬件,待赋能硬件实时接收到的图像作为待赋能硬件的运行图像。

S102:将运行图像发送至预先构建的赋能模型,以预测出待赋能硬件在下一时刻的运行状态;其中,待赋能硬件与赋能模型所在设备位于同一局域网。

在本实施例中,通过步骤S101获取到待赋能硬件的运行图像后,进一步可以将运行图像发送至预先构建的赋能模型,以便模型在对运行图像进行特征提取后,根据提取出的图像特征,预测出待赋能硬件在下一时刻的运行状态,用以执行后续步骤S103。其中,待赋能硬件与赋能模型所在设备位于同一局域网。

具体来讲,一种可选的实现方式是,赋能模型结构如图2所示,该模型可以包括由Resnet-18和VGG16组成的特征提取网络、全连接层和输出层,在将运行图像发送至赋能模型后,首先可以利用Resnet-18和VGG16组成的特征提取网络提取出运行图像的图像特征(包括图像的浅层边缘纹理特征以及深层语义特征),并且将Resnet-18和VGG16的最后一层卷积层的输出特征相连,从而可以将单一网络的512层特征加倍到1024层特征,以获取到运行图像的更多样的信息。接着,再将拼接后的图像特征输入后续的全连接层和输出层,以通过输出层输出待赋能硬件在下一时刻的运行状态,进而降低了模型过拟合的风险并提高了模型的预测准确率和模型的有效性。

举例说明:基于上述举例,在人工智能创新教育课堂的应用场景中,在利用自动巡道小车的车载摄像头拍摄并保存20张车辆在行驶时两侧的跑道场景图片,作为小车的运行图像后,进一步可以将这20张跑道场景图片输入图2所示的赋能模型中的由Resnet-18和VGG16组成的特征提取网络,以提取出这20张跑道场景图片的图片特征(包括图像的浅层边缘纹理特征以及深层语义特征),并在将Resnet-18和VGG16的最后一层卷积层的输出特征相连后的图像特征输入后续的全连接层和输出层,以通过输出层输出该自动巡道小车在下一时刻将前进的目标位置。

举例说明:基于上述举例,在人工智能创新教育课堂的应用场景中,在利用自动巡道小车的车载摄像头实时拍摄车辆在行驶时两侧的跑道场景图片,作为小车的运行图像后,进一步可以将这些跑道场景图片输入图2所示的赋能模型中的由Resnet-18和VGG16组成的特征提取网络,以提取出这些跑道场景图片的图片特征(包括图像的浅层边缘纹理特征以及深层语义特征),并在将Resnet-18和VGG16的最后一层卷积层的输出特征相连后的图像特征输入后续的全连接层和输出层,以通过输出层输出该自动巡道小车在下一时刻将前进的目标位置。

需要说明的是,在本申请实施例的一种可能的实现方式中,为了降低网络延迟,提高数据传输的实时性和安全性,在将运行图像发送至预先构建的赋能模型之前,还需要预先与赋能模型所在设备在同一局域网内建立通信连接。进而可以将运行图像通过改通信连接发送至预先构建的赋能模型,以通过模型预测出待赋能硬件在下一时刻的运行状态。

在本实现方式中,开源硬件可以通过发送广播的方式,判断出在同一局域网中是否存在赋能模型。具体来讲,开源硬件可以基于用户数据报协议(User DatagramProtocol,简称UDP),创建SOCK_DGRAM类型的套接字,用以在获取待局域网网段地址(如“192.168.40”)后,计算出局域网广播地址(指的是用于发送和接收广播信息的地址)“192.168.40.255”,并向该广播地址的预设自定义端口(如8001端口、8002端口等)发送指令,该指令内容包括本开源硬件的IP,进而可以调用recvfrom方法实现等待赋能模型所在设备返回的设备IP和端口信息的功能,用以与赋能模型所在设备进行通信连接。

相应的,对于赋能模型所在设备来说,可以通过接收广播的方式,判断出同一局域网中是否存在需要进行AI赋能的开源硬件,具体来讲,该设备同样可以基于UDP协议创建SOCK_DGRAM类型的套接字并设置SO_BROADCAST支持广播,监听预设自定义端口(如8001端口、8002端口、12346端口等)并接收局域网中需要进行AI赋能的开源硬件的广播消息,并将设备自身的局域网IP和端口等信息作为响应信息反馈给开源硬件。

在此基础上,开源硬件可以根据广播返回的赋能模型所在设备的IP和端口,基于超文本传输协议(Hypertext Transfer Protocol,简称http)请求和局域网中的无线网络WIFI传输数据至赋能模型所在设备,这样,数据仅在局域网内部传输使用,从而保证了传输数据的安全性。

需要说明的是,赋能模型所在设备可以是部署在服务器等计算设备中的边缘计算设备,而赋能模型可以是用户自定义的边缘计算引擎。这样,可以基于边缘计算的特性,就近为开源硬件提供最近端AI赋能服务,具体的,AI赋能的应用程序在边缘侧发起,可以产生更快的网络服务响应,满足实时业务、应用智能、安全与隐私保护等方面的基本需求。

需要说明的是,为实现本步骤S102,需要预先构建一个赋能模型,具体构建过程可参见后续第二实施例的相关介绍。

S103:控制待赋能硬件按照下一时刻的运行状态进行自动运行。

在本实施例中,通过步骤S102预测出待赋能硬件在下一时刻的运行状态后,进一步可以控制该待赋能硬件按照预测出的下一时刻的运行状态进行自动运行,实现对待赋能硬件的AI赋能。

举例说明:基于上述举例,在人工智能创新教育课堂的应用场景中,在利用赋能模型输出自动巡道小车在下一时刻将前进的目标位置后,小车可以根据该预测结果在下一时刻自动做出相应的运动行为,如前进、左转、右转等,直至前进到预测出的目标位置。从而使得师生能够很好的参与和体验到AI能力实现的过程,进而充分理解了AI的知识点,提高了学生在人工智能课程中的学习体验。

综上,本实施例提供的一种硬件的AI赋能方法,首先获取待赋能硬件的运行图像,然后,将运行图像发送至预先构建的赋能模型,以预测出待赋能硬件在下一时刻的运行状态;其中,待赋能硬件与赋能模型所在设备位于同一局域网,接着,可以控制待赋能硬件按照下一时刻的运行状态进行自动运行。可见,本申请实施例是利用预先训练好的赋能模型对待赋能硬件进行自定义的AI赋能,以控制其在下一时刻按照模型预测的运行状态进行自动运行,由于待赋能硬件与赋能模型所在设备位于同一局域网,所以,二者之间的数据传输仅在该局域网内部进行,从而能够保证了数据传输的安全性。

这样,使得在人工智能创新教育这种应用场景中,师生可以利用预先训练好的自定义的赋能模型对场景中的开源硬件(如自动巡道小车)进行自定义AI赋能,不仅能够保证数据传输安全,还满足了学生的课堂学习需求,提高了学生在AI课程中的学习体验与学习兴趣。

本实施例将对上述实施例中提及的赋能模型的构建过程进行介绍。

参见图3,其示出了本实施例提供的构建赋能模型的流程示意图,该流程包括以下步骤:

S301:获取硬件的训练运行图像。

在本实施例中,为了构建赋能模型,需要预先进行大量的准备工作,首先,需要收集大量硬件的运行图像,作为训练图像。比如,以硬件为人工智能创新教育课堂应用场景中的小车为例,为了给其赋予自动巡道的AI能力,在构建赋能模型时,师生可以利用小车的车载摄像头拍摄并保存100张小车在行驶时两侧的跑道场景图片,作为样本图像数据,同时为了丰富样本数量,以提高模型训练效果,还可以采用使用迁移学习(即:使用已经在其他数据集上预训练的特征提取模型)的方法获取更多的小车的运行图像作为样本图像数据,从而不仅能够降低师生的学习时间成本,还能够大幅提高样本图像数量。并且,预先还需要通过人工标注出在当前场景下,这些样本图像对应的硬件在下一时刻的运行状态,比如,这些样本图像对应的小车在下一时刻将要前进的位置(如可以利用在场景图像中的坐标点来表示),用以训练赋能模型。

S302:根据硬件的训练运行图像以及硬件的训练运行图像对应的下一时刻硬件的运行状态标签对初始赋能模型进行训练,生成赋能模型;其中,硬件与初始赋能模型所在设备位于同一局域网。

在本实施例中,通过步骤S301获取到硬件的训练运行图像后,可将其输入至同一局域网中的初始赋能模型进行训练,以生成赋能模型。其中,初始赋能模型包括特征提取网络、全连接层和输出层。且特征提取网络又可以包括卷积神经网络Resnet-18和/或卷积神经网络VGG16。

具体来讲,在进行本轮训练时,可以将第一实施例中待赋能硬件的运行图像替换为本轮获取的样本图像,通过当前的初始赋能模型,按照第一实施例中的执行过程,便可以预测出该样本图像对应的下一时刻硬件的运行状态。然后,可以将该预测出的该样本图像对应的下一时刻硬件的运行状态与样本图像对应的人工标注的硬件在下一时刻的运行状态进行比较,并根据二者的差异对模型参数进行更新,直至满足预设的条件,比如差值变化幅度很小,则停止模型参数的更新,完成赋能模型的训练,生成一个训练好的赋能模型。

举例说明:基于上述举例,在进行本轮训练时,采用的样本图像为人工智能创新教育课堂应用场景中的小车的运行图像,则可以通过上述方式,预测出该运行图像对应的小车在下一时刻将前进的目标位置(可用坐标结果表示),然后,可以计算出该运行图像对应的小车在下一时刻将前进的目标位置的坐标结果与之前人工标注的小车在下一时刻将要前进的位置的坐标之间的均方误差(mean-square error,简称MSE),并利用反向传播算法进行网络参数的更新,比如,可以采用随机梯度下降法(mini-batch sgd)作为优化策略,每次利用小批量多张样本图像进行训练以调整模型参数,从而可以利用更少次数迭代了全部训练数据,加速了模型的收敛,进一步降低了赋能模型生成的时间,也降低了师生试错的成本。

通过上述实施例,可以根据样本图像训练生成赋能模型,进一步的,还可以利用验证图像对赋能模型进行验证。具体验证过程可以包括下述步骤S401-S403:

步骤S401:获取硬件的验证运行图像。

在本实施例中,为了实现对赋能模型进行验证,首先需要获取硬件的验证运行图像,其中,硬件的验证运行图像指的是可以用来进行赋能模型验证的数据信息,在获取到这些验证数据后,可继续执行后续步骤S402。

步骤S402:将硬件的验证运行图像输入赋能模型,获得硬件下一时刻的运行状态预测结果。

通过步骤S401获取到硬件的验证运行图像后,并进一步可以将其输入至赋能模型,以通过上述第一实施例中步骤102的执行过程,获得硬件下一时刻的运行状态预测结果,用以验证得到的赋能模型。

步骤S403:当硬件下一时刻的运行状态预测结果与硬件的验证运行图像对应的下一时刻硬件的运行状态标记结果不一致时,将硬件的验证运行图像重新作为硬件的训练运行图像,对赋能模型进行更新。

通过步骤S402获得硬件下一时刻的运行状态预测结果后,若该硬件下一时刻的运行状态预测结果与硬件的验证运行图像对应的下一时刻人工标注的硬件的运行状态结果不一致,则可以将硬件的验证运行图像重新作为样本图像,对赋能模型进行参数更新。

通过上述实施例,可以利用硬件的验证运行图像对赋能模型进行有效验证,并在验证运行图像对应的硬件下一时刻的运行状态预测结果与验证运行图像对应的人工标注的硬件下一时刻的运行状态结果不一致时,可以及时调整更新赋能模型,进而有助于提高赋能模型的预测精度和准确性。

综上,利用本实施例训练而成的赋能模型,可以利用待赋能硬件的运行图像,快速且准确地预测出待赋能硬件在下一时刻的运行状态,便于后续对待赋能硬件进行有效AI赋能。并且由于可以支持用户构建自定义赋能模型,从而可以提高用户在对硬件进行AI赋能时的参与度,进而可以提高用户体验,比如,在人工智能创新教育课堂的应用场景中,师生通过构建自定义的赋能模型为小车赋予自动巡道的AI能力,从而能够提高学生在AI课程中的学习体验与学习兴趣。

本实施例将对一种硬件的AI赋能装置进行介绍,相关内容请参见上述方法实施例。

参见图5,为本实施例提供的一种硬件的AI赋能装置的组成示意图,该装置500包括:

第一获取单元501,用于获取待赋能硬件的运行图像;

发送单元502,用于将所述运行图像发送至预先构建的赋能模型,以预测出所述待赋能硬件在下一时刻的运行状态;所述待赋能硬件与所述边缘计算AI模型所在设备位于同一局域网;

控制单元503,用于控制所述待赋能硬件按照所述下一时刻的运行状态进行自动运行。

在本实施例的一种实现方式中,所述装置还包括:

建立单元,用于预先与所述赋能模型所在设备在同一局域网内建立通信连接;

则所述发送单元502具体用于:

将所述运行图像通过所述通信连接发送至预先构建的赋能模型,以预测出所述待赋能硬件在下一时刻的运行状态。

在本实施例的一种实现方式中,所述装置还包括:

第二获取单元,用于获取硬件的训练运行图像;

训练单元,用于根据所述硬件的训练运行图像以及所述硬件的训练运行图像对应的下一时刻所述硬件的运行状态标签对初始赋能模型进行训练,生成所述赋能模型;所述硬件与所述初始赋能模型所在设备位于同一局域网。

在本实施例的一种实现方式中,所述初始赋能模型包括特征提取网络、全连接层和输出层。

在本实施例的一种实现方式中,所述特征提取网络包括卷积神经网络Resnet-18和/或卷积神经网络VGG16。

在本实施例的一种实现方式中,所述装置还包括:

第三获取单元,用于获取所述硬件的验证运行图像;

输入单元,用于将所述硬件的验证运行图像输入所述赋能模型,获得所述硬件下一时刻的运行状态预测结果;

更新单元,用于当所述硬件下一时刻的运行状态预测结果与所述硬件的验证运行图像对应的下一时刻所述硬件的运行状态标记结果不一致时,将所述硬件的验证运行图像重新作为所述硬件的训练运行图像,对所述赋能模型进行更新。

进一步地,本申请实施例还提供了一种硬件的AI赋能设备,包括:处理器、存储器、系统总线;

所述处理器以及所述存储器通过所述系统总线相连;

所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述硬件的AI赋能方法的任一种实现方法。

进一步地,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述硬件的AI赋能方法的任一种实现方法。

进一步地,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述硬件的AI赋能方法的任一种实现方法。

通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。

需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。

还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号