第一句子网 - 唯美句子、句子迷、好句子大全
第一句子网 > 模型生成方法和装置与流程

模型生成方法和装置与流程

时间:2022-01-06 11:48:39

相关推荐

模型生成方法和装置与流程

本公开的实施例涉及计算机技术领域,具体涉及人工智能技术领域,尤其涉及模型生成方法和装置。

背景技术:

随着人工智能技术的发展,深度学习在很多应用领域都取得了良好的成果。深度学习中,神经网络的结构对模型的效果有非常重要的影响。实践中为了获得较高的性能,神经网络的结构复杂度较高,相应地,网络参数的数量庞大。存储神经网络的参数需要消耗较大的内存空间,并且在运行神经网络时,由于参数众多且精度较高,对处理器的要求较高。

为了保证神经网络运算的实时性,减小处理器的运算压力,同时确保神经网络的性能,需要对神经网络模型的参数进行量化。在目前的一些实际场景中,一些处理器无法支持过高精度的数据的复杂运算,需要针对这类型的处理器设计具有良好性能的神经网络结构。

技术实现要素:

本公开的实施例提出了模型生成方法和装置、电子设备和计算机可读介质。

第一方面,本公开的实施例提供了一种模型生成方法,包括:通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型;其中,迭代操作包括:基于当前的奖励反馈值更新神经网络模型的结构,其中,奖励反馈值的初始值是预设的数值;根据神经网络模型的当前量化策略,对更新后的神经网络模型进行训练;获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新奖励反馈值;响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为用于执行深度学习任务的神经网络模型。

在一些实施例中,上述基于当前的奖励反馈值更新的神经网络模型的结构,包括:基于当前的奖励反馈值,在当前量化策略对应的模型结构搜索空间中确定出更新后的神经网络模型的结构。

在一些实施例中,上述当前量化策略对应的模型结构搜索空间中的网络结构单元对当前量化策略中的量化方法的敏感度满足预设的敏感度筛选条件,其中,网络结构单元对预设量化方法的敏感度表征网络结构单元的量化方法由其他量化方法变更为预设量化方法时,对应的神经网络模型的性能的损失率。

在一些实施例中,上述迭代操作还包括:基于当前的奖励反馈值,对神经网络模型的当前量化策略进行更新;以及上述根据神经网络模型的当前量化策略,对更新后的神经网络模型进行训练,包括:根据神经网络模型的更新后的当前量化策略,对更新后的神经网络模型进行训练。

在一些实施例中,上述基于当前的奖励反馈值,对神经网络模型的当前量化策略进行更新,包括:对更新后的神经网络模型的各网络结构单元,在与该网络结构单元对应的量化方法搜索空间中确定出该网络结构单元的量化方法,得到神经网络模型的更新后的量化策略;其中,网络结构单元对与其对应的量化方法搜索空间中的量化方法的敏感度满足预设的敏感度约束条件,网络结构单元对预设量化方法的敏感度表征网络结构单元的量化方法由其他量化方法变更为预设量化方法时,对应的神经网络模型的性能的损失率。

第二方面,本公开的实施例提供了一种模型生成装置,包括:生成单元,被配置为通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型;其中,迭代操作包括:基于当前的奖励反馈值更新神经网络模型的结构,其中,奖励反馈值的初始值是预设的数值;根据神经网络模型的当前量化策略,对更新后的神经网络模型进行训练;获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新奖励反馈值;响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为用于执行深度学习任务的神经网络模型。

在一些实施例中,上述生成单元被配置为按照如下方式执行迭代操作中基于当前的奖励反馈值更新的神经网络模型的结构的步骤:基于当前的奖励反馈值,在当前量化策略对应的模型结构搜索空间中确定出更新后的神经网络模型的结构。

在一些实施例中,上述当前量化策略对应的模型结构搜索空间中的网络结构单元对当前量化策略中的量化方法的敏感度满足预设的敏感度筛选条件,其中,网络结构单元对预设量化方法的敏感度表征网络结构单元的量化方法由其他量化方法变更为预设量化方法时,对应的神经网络模型的性能的损失率。

在一些实施例中,上述生成单元执行的迭代操作还包括:基于当前的奖励反馈值,对神经网络模型的当前量化策略进行更新;以及上述生成单元进一步按照如下方式执行对更新后的神经网络模型进行训练的步骤:根据神经网络模型的更新后的当前量化策略,对更新后的神经网络模型进行训练。

在一些实施例中,上述生成单元进一步按照如下方式执行迭代操作中的基于当前的奖励反馈值,对神经网络模型的当前量化策略进行更新的步骤:对更新后的神经网络模型的各网络结构单元,在与该网络结构单元对应的量化方法搜索空间中确定出该网络结构单元的量化方法,得到神经网络模型的更新后的量化策略;其中,网络结构单元对与其对应的量化方法搜索空间中的量化方法的敏感度满足预设的敏感度约束条件,网络结构单元对预设量化方法的敏感度表征网络结构单元的量化方法由其他量化方法变更为预设量化方法时,对应的神经网络模型的性能的损失率。

第三方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面提供的模型生成方法。

第四方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现第一方面提供的模型生成方法。

本公开的上述实施例的模型生成方法和装置,通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型。其中,迭代操作包括:基于当前的奖励反馈值更新神经网络模型的结构,其中,奖励反馈值的初始值是预设的数值;根据神经网络模型的当前量化策略,对更新后的神经网络模型进行训练;获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新奖励反馈值;响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为用于执行深度学习任务的神经网络模型。上述模型生成方法和装置能够在指定量化策略的情况下自动搜索出可兼顾速度和精度的神经网络模型结构,能够减少神经网络模型的运算资源消耗。

附图说明

通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:

图1是本公开的实施例可以应用于其中的示例性系统架构图;

图2是根据本公开的模型生成方法的一个实施例的流程图;

图3是根据本公开的模型生成方法的另一个实施例的流程图;

图4是本公开的模型生成装置的一个实施例的结构示意图;

图5是适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。

具体实施方式

下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。

需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。

图1示出了可以应用本公开的模型生成方法或模型生成装置的示例性系统架构100。

图1示出了可以应用本公开的模型生成方法或模型生成装置的示例性系统架构100。

如图1所示,系统架构100可以包括如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是用户端设备,其上可以安装有各种客户端应用。例如,图像处理类应用、信息分析类应用、语音助手类应用、购物类应用、金融类应用等。

终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。

服务器105可以是运行各种服务的服务器,例如运行神经网络结构搜索任务的服务器,又例如运行模型蒸馏任务的服务器。服务器105可以从获取从终端设备101、102、103收集的深度学习任务数据、或者从数据库获取深度学习任务数据来构建训练样本,对用于执行深度学习任务的神经网络的模型结构进行自动搜索和优化。

服务器105还可以是为终端设备101、102、103上安装的应用提供后端支持的后端服务器。例如,服务器105可以接收终端设备101、102、103发送的待处理的信息,使用神经网络模型对信息进行处理,并将处理结果返回至终端设备101、102、103。

在实际场景中,终端设备101、102、103可以向服务器105发送与语音识别、文本分类、对话行为分类、图像识别等任务相关的深度学习任务请求。服务器105上可以运行已针对相应的深度学习任务训练得到的神经网络模型,利用该神经网络模型来处理信息。

需要说明的是,本公开的实施例所提供的模型生成方法一般由服务器105执行,相应地,模型生成装置一般设置于服务器105中。

在一些场景中,服务器105可以从数据库、存储器或其他设备获取模型生成所需要的源数据(例如训练样本,未优化的神经网络等),这时,示例性系统架构100可以不存在终端设备101、102、103和网络104。

需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。

应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

继续参考图2,其示出了根据本公开的模型生成方法的一个实施例的流程200。该模型生成方法,包括:通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型。

在本实施例中,可以预先设定神经网络结构的搜索空间,通过多次迭代操作搜索出最优的神经网络的结构,作为生成用于执行深度学习任务的神经网络模型的结构。在这里,深度学习任务可以是利用深度神经网络来完成的信息处理任务。在实践中,深度学习任务可以例如为:语音识别、语音合成、文本翻译、自然语言理解、图像处理、趋势预测、目标检测与跟踪,等等。实践中,可以根据深度学习任务类型构建对应的样本数据集,基于样本数据集进行对应的神经网络结构搜索。

具体地,迭代操作包括以下步骤201至步骤204:

步骤201,基于当前的奖励反馈值更新神经网络模型的结构。

可以采用强化学习的方法,利用奖励反馈值(reward)来引导神经网络模型结构的更新。在这里,奖励反馈值的初始值可以是预设的数值,例如可以预先设定为0。在执行第一次迭代操作时,可以将奖励反馈值的初始值作为当前迭代操作的奖励反馈值,来对模型结构控制器进行更新。在非第一次迭代操作中,可以上一次迭代操作后更新的奖励反馈值作为当前迭代操作中的奖励反馈值。

神经网络模型可以由多个网络结构单元堆叠形成。可以预先构建神经网络模型结构的搜索空间。该搜索空间可以包括常用的网络结构单元,例如由卷积层+批量归一化层+激活层(conv+bn+relu)形成的结构单元,或者由多个重复的卷积层+批量归一化层+激活层形成的结构单元(例如残差网络中的残差模块),还可以包括神经网络的常用的层结构,如卷积层、池化层、全连接层,等等。上述模型生成方法的执行主体可以通过堆叠组合搜索空间内的网络结构单元或层结构来更新神经网络模型的结构。

在本实施例中,可以采用模型结构控制器来更新神经网络模型的结构。模型结构控制器可以具体实现为各种机器学习算法,例如循环神经网络、递归神经网络、遗传算法等等。

在本实施例中,可以利用奖励反馈值来引导模型结构控制器进行更新,以使更新后的模型结构控制器生成的神经网络模型可以达到更高的奖励反馈值。例如,当模型结构控制器实现为递归神经网络时,可以基于奖励反馈值更新递归神经网络的参数,当模型结构控制器实现为遗传算法时,可以将奖励反馈值作为适应度来指导由待训练的神经网络形成的种群的进化。

需要说明的是,每一次迭代操作中,模型结构控制器可以生成多个结构不同的神经网络模型。

在具体实现中,模型结构控制器可以基于奖励反馈值生成超参数序列,然后根据预先设定的模型结构搜索空间将超参数序列解码为对应的模型结构。

在本实施例的一些可选的实现方式中,可以预先针对不同的量化策略构建对应的模型结构搜索空间。在这里,量化策略可以包括堆叠形成神经网络模型的各网络结构单元分别采用的量化方法。例如,对于某些指定的低量化位宽,对应的模型结构搜索空间不包含对精度要求较高的网络结构单元或层结构,这样,可以针对量化策略对搜索空间进行约束。这时,可以基于当前的奖励反馈值,在当前量化策略对应的模型结构搜索空间中确定出更新后的神经网络模型的结构。即可以基于奖励反馈值仅在当前量化策略对应的模型结构搜索空间内进行网络结构的搜索。通过约束搜索空间可以进一步减少搜索网络结构所消耗的运算资源,提升网络结构的搜索效率。

进一步地,当前量化策略对应的模型结构搜索空间中的网络结构单元对当前量化策略中的量化方法的敏感度可以满足预设的敏感度筛选条件。网络结构单元对于某一预设的量化方法的敏感度表征网络结构单元的量化方法由其他量化方法变更为该预设的量化方法时,对应的神经网络模型的性能的损失率。模型的性能损失率越高,则网络结构单元对于该预设的量化方法的敏感度越高。在这里,模型的性能损失率可以由模型的精度下降率、延时的增长率、所消耗内存资源的增长率等性能指标的变化率表示。上述预设的敏感度筛选条件可以包括:敏感度不高于预设的敏感度阈值,或者在所有的可选量化方法中的敏感度最高。这样,当前量化策略对应的模型结构搜索空间可以仅包含对当前量化策略的敏感度较低的网络结构单元,从而缩小了模型结构搜索空间,降低了内存占用率的同时可以保证所生成的神经网络模型的性能。

步骤202,根据神经网络模型的当前量化策略,对更新后的神经网络模型进行训练。

在本实施例中,执行迭代操作之前,可以预先指定神经网络模型的量化策略,具体可以指定神经网络模型各网络结构单元(例如各个层)所使用的量化方法,量化方法可以包括量化位宽,还可以包括将参数转换为对应的量化位宽的数据所使用的将数学转换方法。

在迭代操作中,获得基于奖励反馈值更新结构后的神经网络模型轴,可以采用样本数据集对该更新结构后的神经网络模型进行训练。具体地,样本数据集可以包括样本数据与深度学习任务对应的标注信息,例如语音样本数据集包括语音样本数据和与语音识别任务对应的文本标注信息,又例如图像数据集包括图像样本和与目标识别任务对应的目标类别标注信息,等等。这样,在训练过程中,可以基于神经网络模型完成相应深度学习任务的精度以及神经网络模型的运行效率、所消耗的内存资源等指标确定经过训练的神经网络的性能,从而基于经过训练的神经网络的性能来迭代调整模型的参数。在这里,调整模型的参数时,可以基于上述当前量化策略进行调整,即确保训练过程中调整后的参数都满足当前迭代操作中指定的当前量化策略。在训练中模型参数的迭代次数达到预设的次数阈值或者模型的性能达到一定的收敛条件时,可以停止当前迭代操作中神经网络模型的训练,得到当前迭代操作中训练后的神经网络模型。

步骤203,获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新奖励反馈值。

可以获取步骤202中最后一次训练后神经网络模型的性能,在这里,表征性能的指标可以包括以下至少一项:处理器(cpu、gpu等)延时、神经网络模型的精度、神经网络模型的大小或计算复杂度,等等。可以将这些指标中的至少一项转换为对应的奖励反馈值,例如可以将各性能指标归一化后进行加权求和,之后做线性或非线性变换得打奖励反馈值。该奖励反馈值与处理器延时、神经网络模型的大小或计算复杂度负相关,与神经网络模型的精度正相关。

更新后的奖励反馈值可以引导下一次迭代操作中更新神经网络模型的结构。这样,通过将训练后的模型的性能反向传导至模型的结构更新,可以逐步地优化神经网络模型的结构。

步骤204,响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为用于执行深度学习任务的神经网络模型。

更新奖励反馈值之后,可以判断奖励反馈值是否达到了预设的收敛条件,例如奖励反馈值在最近的连续几次迭代操作中的变化率是否低于预设的变化率阈值,若是,则可以停止迭代操作,并将当前迭代操作中经过训练的神经网络模型作为搜索出的用于执行深度学习任务的神经网络模型。

或者,在完成当前的迭代操作之后,可以对累计的迭代操作次数加1,然后判断累计的迭代操作的次数是否达到预设的次数阈值,若是,则可以停止迭代操作,并将当前迭代操作中经过训练的神经网络模型作为搜索出的用于执行深度学习任务的神经网络模型。

若奖励反馈值未达到预设的收敛条件且迭代操作的累计次数未达到预设的次数阈值,则基于更新后的奖励反馈值,执行下一次迭代操作,依次执行步骤201、步骤202、步骤203以及步骤204。这样,通过重复执行迭代操作,直到某一次迭代操作后的奖励反馈值达到预设的收敛条件或者迭代操作的累计次数达到预设的次数阈值,停止执行迭代操作,完成用于执行深度学习任务的神经网络模型结构的搜索。

上述实施例的模型生成方法通过模型的参数量化实现了模型运算效率的提升,减少了神经网络模型的运算资源消耗,同时搜索出的神经网络模型具有良好的性能,自动搜索出了可兼顾速度和精度的神经网络模型结构。

继续参考图3,其示出了本公开的模型生成方法的另一个实施例的流程图。本实施例的模型生成方法的流程300,包括通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型。

在本实施例中,迭代操作包括以下步骤301至步骤304:

步骤301,基于当前的奖励反馈值,对神经网络模型的当前量化策略进行更新,以及基于当前的奖励反馈值更新神经网络模型的结构。

其中,奖励反馈值的初始值是预设的数值。

在本实施例中,可以基于当前的奖励反馈值对神经网络模型的结构和神经网络模型的当前量化策略进行更新。即可以利用当前的奖励反馈值引导神经网络模型的结构和当前量化策略一并更新。

在具体的实现中,可以利用控制器实现模型结构和量化策略的更新。控制器可以实现为强化学习算法或遗传算法。在强化学习算法中,控制器可以例如实现为递归神经网络,奖励反馈值作为reward反馈至递归神经网络来使递归神经网络调整其参数后重新输出新的神经网络模型结构和新的量化策略。在遗传算法中,奖励反馈值可以作为由模型结构和对应的量化策略形成的种群的适应度,控制种群进化。

在本实施例的一些可选的实现方式中,每次迭代操作中可以首先基于奖励反馈值对神经网络模型的结构进行更新,然后按照如下方式对神经网络模型的当前量化策略进行更新:对更新后的神经网络模型的各网络结构单元,在与该网络结构单元对应的量化方法搜索空间中确定出该网络结构单元的量化方法,得到神经网络模型的更新后的量化策略。

上述网络结构单元是神经网络模型的组成单元,多个网络结构单元堆叠连接形成神经网络模型。每个网络结构单元对与其对应的量化方法搜索空间中的量化方法的敏感度满足预设的敏感度约束条件,其中,网络结构单元对预设量化方法的敏感度表征网络结构单元的量化方法由其他量化方法变更为该预设量化方法时,对应的神经网络模型的性能的损失率。敏感度与对应的神经网络模型的性能的损失率成正比。上述预设的敏感度约束条件可以例如是敏感度不低于预设的敏感度阈值。

可以获取各网络结构单元对不同量化方法的敏感度,例如可以通过基于测试集测试一个网络结构单元在不同量化方法下对整个神经网络模型精度的影响来获取对应的敏感度。然后根据上述敏感度预设条件对量化方法进行筛选以构建各网络结构单元分别对应的量化方法搜索空间。则在迭代操作中,基于奖励反馈值更新神经网络模型结构之后,对于更新后的神经网络模型中的各网络结构单元,在其对应的量化方法搜索空间中确定出当前迭代操作所使用的量化方法,进而更新整个神经网络模型的当前量化策略。

步骤302,根据神经网络模型的更新后的当前量化策略,对更新后的神经网络模型进行训练。

在本实施例中,可以基于样本数据集对更新后的神经网络模型进行训练。可以将更新后的当前量化策略作为约束条件,在更新结构后的神经网络模型的训练中,使模型各网络结构单元按照上述更新后的当前量化策略中的对应量化方法进行参数的迭代调整。

步骤303,获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新奖励反馈值。

在本实施例中,除了第一次迭代操作中奖励反馈值为预设的值之外,每次迭代操作后都会基于当前迭代操作中训练后的神经网络模型的速度、精度、所占用的内存空间等性能参数对奖励反馈值进行更新。这样,下一次迭代操作会基于当前迭代操作后更新的奖励反馈值对神经网络模型的结构和量化策略进行更新,从而实现了将模型性能反向传递至模型优化过程中,逐步优化模型的结构和量化策略。

步骤304,响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为用于执行深度学习任务的神经网络模型。

本实施例的步骤303和步骤304分别与前述实施例的步骤203和步骤204一致,步骤303和步骤304的具体实现方式可以分别参考前述实施例中对步骤203和步骤204的描述,此处不再赘述。

在前述实施例的基础上,本实施例中通过多次迭代操作中同步调整神经网络模型的结构和量化策略,能够进一步对神经网络模型的量化策略进行优化,从而提升神经网络模型的运算效率和精度。

在一些场景中,神经网络模型运行于其上的处理装置可支持低精度的量化位宽,例如为了确保数据运算效率仅支持8bit以下的量化位宽的芯片,则针对这类型处理装置,本公开的上述实施例可以搜索出最优的神经网络模型结构,还可以在可支持的量化位宽范围内搜索出最优的量化策略,同时对模型的结构和量化策略进行优化,在确保模型精度的情况下有效缩小运行模型所消耗的内存资源,进一步提升模型的运算效率。

上述实施例的模型生成方法所生成的模型可以应用于执行各种深度学习任务,例如语音识别、目标检测、自然语言理解、机器翻译,等等。在应用时,可以将待处理的数据输入至利用对应的数据集训练过的上述神经网络模型,得出待处理数据的处理结果。由于所生成的神经网络模型能兼顾速度和精度,相应的深度学习任务的效率和完成精度也得到了提升。

进一步参考图4,作为对上述模型生成方法的实现,本公开提供了一种模型生成装置的一个实施例,该装置实施例与图2和图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。

如图4所示,本实施例的模型生成装置400包括生成单元401。生成单元401被配置为通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型。其中,迭代操作包括:基于当前的奖励反馈值更新神经网络模型的结构,其中,奖励反馈值的初始值是预设的数值;根据神经网络模型的当前量化策略,对更新后的神经网络模型进行训练;获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新奖励反馈值;响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为用于执行深度学习任务的神经网络模型。

在一些实施例中,上述生成单元401被配置为按照如下方式执行迭代操作中基于当前的奖励反馈值更新的神经网络模型的结构的步骤:基于当前的奖励反馈值,在当前量化策略对应的模型结构搜索空间中确定出更新后的神经网络模型的结构。

在一些实施例中,上述当前量化策略对应的模型结构搜索空间中的网络结构单元对当前量化策略中的量化方法的敏感度满足预设的敏感度筛选条件,其中,网络结构单元对预设量化方法的敏感度表征网络结构单元的量化方法由其他量化方法变更为预设量化方法时,对应的神经网络模型的性能的损失率。

在一些实施例中,上述生成单元401执行的迭代操作还包括:基于当前的奖励反馈值,对神经网络模型的当前量化策略进行更新;以及上述生成单元401进一步按照如下方式执行对更新后的神经网络模型进行训练的步骤:根据神经网络模型的更新后的当前量化策略,对更新后的神经网络模型进行训练。

在一些实施例中,上述生成单元401进一步按照如下方式执行迭代操作中的基于当前的奖励反馈值,对神经网络模型的当前量化策略进行更新的步骤:对更新后的神经网络模型的各网络结构单元,在与该网络结构单元对应的量化方法搜索空间中确定出该网络结构单元的量化方法,得到神经网络模型的更新后的量化策略;其中,网络结构单元对与其对应的量化方法搜索空间中的量化方法的敏感度满足预设的敏感度约束条件,网络结构单元对预设量化方法的敏感度表征网络结构单元的量化方法由其他量化方法变更为预设量化方法时,对应的神经网络模型的性能的损失率。

上述装置400中的生成单元401执行的迭代操作与参考图2和图3描述的方法中的步骤相对应。由此,上文针对模型生成方法描述的操作、特征及所能达到的技术效果同样适用于装置400及其中包含的单元,在此不再赘述。

下面参考图5,其示出了适于用来实现本公开的实施例的电子设备(例如图1所示的服务器)500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。

如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(rom)502中的程序或者从存储装置508加载到随机访问存储器(ram)503中的程序而执行各种适当的动作和处理。在ram503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、rom502以及ram503通过总线504彼此相连。输入/输出(i/o)接口505也连接至总线504。

通常,以下装置可以连接至i/o接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置507;包括例如硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图5中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。

特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从rom502被安装。在该计算机程序被处理装置501执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所描述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。

上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型;其中,迭代操作包括:基于当前的奖励反馈值更新神经网络模型的结构,其中,奖励反馈值的初始值是预设的数值;根据神经网络模型的当前量化策略,对更新后的神经网络模型进行训练;获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新奖励反馈值;响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为用于执行深度学习任务的神经网络模型。

可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,生成单元还可以被描述为“通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型的单元”。

以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

技术特征:

1.一种模型生成方法,包括:通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型;

其中,所述迭代操作包括:

基于当前的奖励反馈值更新神经网络模型的结构,其中,所述奖励反馈值的初始值是预设的数值;

根据所述神经网络模型的当前量化策略,对所述更新后的神经网络模型进行训练;

获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新所述奖励反馈值;

响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为所述用于执行深度学习任务的神经网络模型。

2.根据权利要求1所述的方法,其中,所述基于当前的奖励反馈值更新的神经网络模型的结构,包括:

基于所述当前的奖励反馈值,在所述当前量化策略对应的模型结构搜索空间中确定出更新后的神经网络模型的结构。

3.根据权利要求2所述的方法,其中,所述当前量化策略对应的模型结构搜索空间中的网络结构单元对所述当前量化策略中的量化方法的敏感度满足预设的敏感度筛选条件,其中,所述网络结构单元对预设量化方法的敏感度表征所述网络结构单元的量化方法由其他量化方法变更为所述预设量化方法时,对应的神经网络模型的性能的损失率。

4.根据权利要求1所述的方法,其中,所述迭代操作还包括:

基于当前的奖励反馈值,对所述神经网络模型的当前量化策略进行更新;以及

所述根据所述神经网络模型的当前量化策略,对所述更新后的神经网络模型进行训练,包括:

根据所述神经网络模型的更新后的当前量化策略,对所述更新后的神经网络模型进行训练。

5.根据权利要求4所述的方法,其中,所述基于当前的奖励反馈值,对所述神经网络模型的当前量化策略进行更新,包括:

对更新后的神经网络模型的各网络结构单元,在与该网络结构单元对应的量化方法搜索空间中确定出该网络结构单元的量化方法,得到所述神经网络模型的更新后的量化策略;

其中,所述网络结构单元对与其对应的量化方法搜索空间中的量化方法的敏感度满足预设的敏感度约束条件,所述网络结构单元对预设量化方法的敏感度表征所述网络结构单元的量化方法由其他量化方法变更为所述预设量化方法时,对应的神经网络模型的性能的损失率。

6.一种模型生成装置,包括:生成单元,被配置为通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型;

其中,所述迭代操作包括:

基于当前的奖励反馈值更新神经网络模型的结构,其中,所述奖励反馈值的初始值是预设的数值;

根据所述神经网络模型的当前量化策略,对所述更新后的神经网络模型进行训练;

获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新所述奖励反馈值;

响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为所述用于执行深度学习任务的神经网络模型。

7.根据权利要求6所述的装置,其中,所述生成单元被配置为按照如下方式执行所述迭代操作中基于当前的奖励反馈值更新的神经网络模型的结构的步骤:

基于所述当前的奖励反馈值,在所述当前量化策略对应的模型结构搜索空间中确定出更新后的神经网络模型的结构。

8.根据权利要求7所述的装置,其中,所述当前量化策略对应的模型结构搜索空间中的网络结构单元对所述当前量化策略中的量化方法的敏感度满足预设的敏感度筛选条件,其中,所述网络结构单元对预设量化方法的敏感度表征所述网络结构单元的量化方法由其他量化方法变更为所述预设量化方法时,对应的神经网络模型的性能的损失率。

9.根据权利要求6所述的装置,其中,所述生成单元执行的迭代操作还包括:

基于当前的奖励反馈值,对所述神经网络模型的当前量化策略进行更新;以及

所述生成单元进一步按照如下方式执行对所述更新后的神经网络模型进行训练的步骤:

根据所述神经网络模型的更新后的当前量化策略,对所述更新后的神经网络模型进行训练。

10.根据权利要求9所述的装置,其中,所述生成单元进一步按照如下方式执行迭代操作中的基于当前的奖励反馈值,对所述神经网络模型的当前量化策略进行更新的步骤:

对更新后的神经网络模型的各网络结构单元,在与该网络结构单元对应的量化方法搜索空间中确定出该网络结构单元的量化方法,得到所述神经网络模型的更新后的量化策略;

其中,所述网络结构单元对与其对应的量化方法搜索空间中的量化方法的敏感度满足预设的敏感度约束条件,所述网络结构单元对预设量化方法的敏感度表征所述网络结构单元的量化方法由其他量化方法变更为所述预设量化方法时,对应的神经网络模型的性能的损失率。

11.一种电子设备,包括:

一个或多个处理器;

存储装置,用于存储一个或多个程序,

当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。

12.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-5中任一所述的方法。

技术总结

本公开涉及人工智能领域。本公开的实施例公开了模型生成方法和装置。该方法包括:通过依次执行多次迭代操作生成用于执行深度学习任务的神经网络模型;其中,迭代操作包括:基于当前的奖励反馈值更新神经网络模型的结构,其中,奖励反馈值的初始值是预设的数值;根据神经网络模型的当前量化策略,对更新后的神经网络模型进行训练;获取训练后的神经网络模型的性能,并根据训练后的神经网络模型的性能更新奖励反馈值;响应于确定奖励反馈值达到预设的收敛条件或迭代操作的次数达到预设的阈值,确定当前迭代操作中训练后的神经网络模型为用于执行深度学习任务的神经网络模型。该方法提升了神经网络模型的运算效率。

技术研发人员:希滕;张刚;温圣召

受保护的技术使用者:北京百度网讯科技有限公司

技术研发日:.11.11

技术公布日:.02.28

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。