学习程序、学习方法以及学习装置制造方法及图纸

技术编号:28705928 阅读:60 留言:0更新日期:2021-06-05 22:56
本发明专利技术涉及学习程序、学习方法以及学习装置。学习装置向学习完毕的学习模型输入作为学习对象的输入数据。而且,按照输入至学习模型的每个输入数据,学习装置根据多个特征量,使用与多个特征量中的每个特征量对应的多个恢复器来生成恢复数据,其中,与各输入数据对应地由学习模型生成上述多个特征量。之后,学习装置使多个恢复器学习,以使由多个恢复器分别生成的多个恢复数据中每个数据与输入数据接近。近。近。

【技术实现步骤摘要】
【国外来华专利技术】学习程序、学习方法以及学习装置


[0001]本专利技术涉及学习程序、学习方法以及学习装置。

技术介绍

[0002]在顺序学习等深度学习中,直接保存学习数据会带来信息泄漏等风险,因此以作为转换原始学习数据的形式的学习模型的特征量来保持。另外,在作为分别学习多个学习模型的学习数据,利用获取源不同的数据的情况下,也进行以特征量的形式来保持在之前的学习中利用的学习数据的处理。
[0003]像这样,在以特征量来保持的情况下,评价特征量中剩余多少原始学习数据的信息。例如,已知有在学习完毕的神经网络中求出特征量相同的输入数据,基于输入数据来推断通过特征量保持的信息,判断是否能够保持特征量的技术。
[0004]专利文献1:国际公开第二016/132468号
[0005]专利文献2:日本特开2017-174298号公报
[0006]专利文献3:日本特开2016-126597号公报
[0007]专利文献4:日本特开2017-126112号公报
[0008]然而,通过上述技术获得的输入数据未必是适合判断是否可以保持用于学习的学习数据的数据。例如,为了将输入数据x应用于学习完毕的学习模型而获得的特征量z转换为原始的输入数据x的形式,利用梯度法求出最佳地获得特征量z的输入数据x

。然而,由于存在多个获得某个特征量z的输入数据,所以利用梯度法获得的输入数据x

未必是对风险评价等的判断有用的数据。

技术实现思路

[0009]在一个侧面,目的在于提供一种能够适当地进行数据保持的判断的学习程序、学习方法以及学习装置。
[0010]在第一方案中,学习程序使计算机执行如下处理:按照输入至学习模型的每个输入数据,根据多个特征量,使用与上述多个特征量中每个特征量对应的多个恢复器生成恢复数据,其中,与各输入数据对应地由上述学习模型生成多个特征量。学习程序使计算机执行如下处理:使上述多个恢复器学习,以使由上述多个恢复器分别生成的多个恢复数据中每个数据与上述输入数据接近。
[0011]根据一个实施方式,能够适当地进行数据保持的判断。
附图说明
[0012]图1是对实施例1的学习装置的整体例进行说明的图。
[0013]图2是对参考技术进行说明的图。
[0014]图3是表示实施例1的学习装置的功能结构的功能框图。
[0015]图4是对学习模型的学习例进行说明的图。
[0016]图5是对特征量进行说明的图。
[0017]图6是对解码器的学习进行说明的图。
[0018]图7是对评价方法的一个例子进行说明的图。
[0019]图8是对评价方法的其它例子进行说明的图。
[0020]图9是表示处理的流程的流程图。
[0021]图10是对实施例2的学习例进行说明的图。
[0022]图11是对实施例3的学习例进行说明的图。
[0023]图12是对实施例4的学习例进行说明的图。
[0024]图13是对硬件构成例进行说明的图。
具体实施方式
[0025]以下,基于附图对本专利技术的学习程序、学习方法以及学习装置的实施例进行详细说明。此外,本专利技术并不被本实施例所限定。另外,各实施例能够在不矛盾的范围内适当地组合。
[0026]实施例1
[0027][整体例][0028]图1是对实施例1的学习装置的整体例进行说明的图。图1所示的学习装置10学习车、人等进行图像分类等的学习模型。具体而言,学习装置10为了执行使用机械学习、深度学习(深度学习(DL)
·
Deep Learning)等的学习处理,而能够对每个现象正确地辨别(分类)学习数据,学习神经网络(NN:Neural Network)等。
[0029]一般地,在深度学习等中,由于学习数据的量越多学习模型越提高,所以学习数据的量越多越好,但另一方面,收集学习数据很难。因此,也考虑使用获取目的地不同的学习数据,来进行多个学习模型的学习。但是,在使用顾客数据的业务环境中,在学习某位顾客数据结束后还继续保持、或用于其它顾客任务(学习)等会带来合同上的问题、信息泄漏的风险。由于这样的原因,存在以作为转换原始学习数据的形式的特征量来保持的情况。通过以特征量来保持能够减少风险,但正确地评价特征量中剩有多少原始学习数据的信息很重要。
[0030]因此,实施例1的学习装置10学习恢复器,该恢复器根据由学习模型生成的多个特征量来生成多个恢复数据,基于解码器的解码结果,来评价保持对象的特征量。具体而言,学习装置10对输入至学习模型的每个学习数据,根据与各学习数据对应地由学习模型生成的各特征量,使用与各特征量对应的恢复器来生成恢复数据。而且,学习装置10使多个恢复器学习,以使由多个恢复器分别生成的多个恢复数据中每个数据与学习数据接近。
[0031]若以图1为例进行说明,则学习装置10使用多个学习数据中的每个数据,学习使用NN的学习模型。之后,学习装置10将用于学习模型的原始学习数据输入至学习完毕的学习模型,从NN的各中间层获取特征量A、特征量B、特征量C。然后,学习装置10将特征量A输入至恢复器A生成恢复数据A,以恢复数据A与原始学习数据的误差变小的方式,学习恢复器A。同样地,学习装置10将特征量B输入至恢复器B生成恢复数据B,以恢复数据B与原始学习数据的误差变小的方式,学习恢复器B。同样地,学习装置10将特征量C输入至恢复器C生成恢复数据C,以恢复数据C与原始学习数据的误差变小的方式,学习恢复器C。
[0032]像这样,学习装置10使用将原始学习数据输入至学习完毕的学习模型而获得的各特征量,来学习各恢复器。然后,在各恢复器的学习完成后,学习装置10将各学习数据输入至学习完毕的学习模型来获取各特征量,将各特征量输入至学习完毕的各恢复器生成各恢复数据。之后,学习装置10基于各恢复数据的恢复程度,来决定可保持的特征量。
[0033]即,学习装置10在深度学习中选择作为原始学习数据的代替而保存的特征量时,能够根据从各特征量解码的解码数据的解码程度,来选择所保持的特征量,所以能够适当地进行特征量保持的判断。
[0034][参考技术][0035]在这里,作为评价保持对象的特征量的技术,对通常所利用的参考技术进行说明。首先,对参考技术和实施例1中均共用的针对神经网络的深度学习进行说明。
[0036]深度学习是针对学习模型利用梯度法学习参数,以对训练数据x获得所希望的y的方法,其中,上述学习模型以具有能够对输入x进行微分的参数的函数转换而获得输出y。所谓的深度学习的学习模型并不限于由线性转换f(x)=Ax+b和非线性激活函数g构成的模型y=g
N
(f
N
(

g1(f1(x))),也包含由任意的能够微分的运算h构成的模型h=h
N
(

h2(h1(x)))。
[0037]接下来,对参考技术进本文档来自技高网
...

【技术保护点】

【技术特征摘要】
【国外来华专利技术】1.一种学习程序,使计算机执行如下处理:按照输入至学习模型的每个输入数据,根据多个特征量,使用与上述多个特征量分别对应的多个恢复器生成恢复数据,其中,与各输入数据对应地由上述学习模型生成上述多个特征量;以及使上述多个恢复器学习,以使由上述多个恢复器分别生成的多个恢复数据中每个数据与上述输入数据接近。2.根据权利要求1所述的学习程序,使上述计算机执行如下处理:向学习完毕的上述多个恢复器输入上述输入数据,由上述多个恢复器分别生成多个恢复数据;计算上述多个恢复数据中的每个数据与上述输入数据的误差;以及基于上述误差,从作为上述多个恢复数据中的每个数据的生成源亦即上述多个特征量,选择所保持的特征量。3.根据权利要求1所述的学习程序,其中,上述学习模型是包含神经网络的学习模型,上述生成的处理使用与上述神经网络所具有的各中间层建立对应关系的上述多个恢复器,根据从上述各中间层输出的上述多个特征量中的每个特征量生成上述多个恢复数据。4.根据权利要求3所述的学习程序,其中,上述生成的处理使用上述多个恢复器生成将从靠前的中间层输出的特征量作为恢复对象的恢复数据,其中,上述靠前的中间层是比与上述多个恢复器中的每个恢复器建立对应关系的中间层靠前的中间层,上述学习的处理使上述多个恢复器中的每个恢复器学习,以使上述恢复数据与作为上述恢复对象的特征量的误差变小。5.根据权利要求1所述的学习程序,使上述计算机执行如下处理:对上述多个恢复器中的每个恢复器,将上述恢复数据输入至上述学习模型,获取上述恢复数据的特征量亦即恢复特征量,上述恢复特征量是由上述学习模型生成的特征量,上述学习的处理使上述多个恢复器中的每个恢复器学习,以使上述恢复数据与上述输入数据的误差、以及恢复对象的上述...

【专利技术属性】
技术研发人员:上村健人安富优河东孝
申请(专利权)人:富士通株式会社
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1