用于执行卷积神经网络运算的处理装置制造方法及图纸

技术编号:32651895 阅读:15 留言:0更新日期:2022-03-17 10:57
本实用新型专利技术提出一种用于执行卷积神经网络运算的处理装置。卷积神经网络运算包括多个卷积层。处理装置包括内部存储器与计算电路。计算电路执行各卷积层的卷积运算。内部存储器从外部存储器获取第一卷积层的权重数据,而计算电路利用第一卷积层的权重数据执行第一卷积层的卷积运算。于计算电路执行第一卷积层的卷积运算的期间,内部存储器从外部存储器获取第二卷积层的权重数据,以将第二卷积层的权重数据覆写第一卷积层的权重数据。数据覆写第一卷积层的权重数据。数据覆写第一卷积层的权重数据。

【技术实现步骤摘要】
用于执行卷积神经网络运算的处理装置


[0001]本揭露涉及一种计算装置,且特别是有关于一种用于执行卷积神经网络运算的处理装置与其操作方法。

技术介绍

[0002]人工智能近年得到迅速发展,极大地影响了人们的生活。基于人工神经网络,尤其是卷积神经网络(Convolutional Neural Network,CNN)在很多应用中的发展日趋成熟,例如在计算机视觉领域中得到广泛使用。随着卷积神经网络的应用越来越广泛,越来越多的芯片设计厂商开始设计用于执行卷积神经网络运算的处理芯片。执行卷积神经网络运算的处理芯片需要复杂的运算与庞大的参数量来分析输入数据。对于用于执行卷积神经网络运算的处理芯片而言,为了加速处理速度与降低重复存取外部存储器所产生的功耗,处理芯片内部一般设置有内部存储器(又称为芯片内建内存(on

chip

memory)) 来存储暂时计算结果与卷积运算所需的权重数据。然而,相对地,当需要高存储容量的内部存储器来存储所有权重数据时,也会造成处理芯片的芯片成本与芯片功耗上升。

技术实现思路

[0003]有鉴于此,本揭露提供一种用于执行卷积神经网络运算的处理装置与其操作方法,其可降低处理装置中内部存储器的容量需求,从而达成降低处理装置的功耗与成本的目的。
[0004]本技术实施例提出一种用于执行卷积神经网络运算的处理装置,此卷积神经网络运算包括多个卷积层。处理装置包括内部存储器与计算电路。计算电路耦接内部存储器,执行各卷积层的卷积运算。内部存储器从外部存储器获取这些卷积层中第一卷积层的权重数据,而计算电路利用第一卷积层的权重数据执行第一卷积层的卷积运算。于计算电路执行第一卷积层的卷积运算的期间,内部存储器从外部存储器获取卷积层中第二卷积层的权重数据,以将第二卷积层的权重数据覆写第一卷积层的权重数据。
[0005]本技术实施例提出一种用于执行卷积神经网络运算的处理装置的操作方法,此卷积神经网络运算包括多个卷积层。所述方法包括下列步骤。由内部存储器从外部存储器获取卷积层中第一卷积层的权重数据,并由计算电路利用第一卷积层的权重数据执行第一卷积层的卷积运算。接着,于执行第一卷积层的卷积运算的期间,由内部存储器从外部存储器获取卷积层中第二卷积层的权重数据,以将第二卷积层的权重数据覆写第一卷积层的权重数据。
[0006]基于上述,于本技术的实施例中,内部存储器先从外部存储器获取第一卷积层的权重数据,且计算电路自内部存储器取用第一卷积层的权重数据来执行第一卷积层的卷积运算。接着,内部存储器再从外部存储器获取卷积层中第二卷积层的权重数据,以将第二卷积层的权重数据覆写第一卷积层的权重数据。因此,于处理装置执行卷积神经网络运算的过程中,卷积神经网络运算所需的权重数据可分批依序写入处理装置的内部存储器。
于是,设置于处理装置内的内部存储器的存储容量需求可以降低,从而节省处理装置的硬件成本与电路面积。
[0007]为让本揭露的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图式作详细说明如下。
附图说明
[0008]图1是依照本技术一实施例的执行卷积神经网络运算的计算系统的示意图;
[0009]图2是依照本技术一实施例的卷积神经网络模型的示意图;
[0010]图3是依照本技术一实施例的卷积运算的示意图;
[0011]图4是依照本技术一实施例的处理装置的示意图;
[0012]图5是依照本技术一实施例的处理装置的操作方法的流程示意图;
[0013]图6A是依据本技术一实施例的更新内部存储器中权重数据的示意图;
[0014]图6B是依据本技术一实施例的更新内部存储器中权重数据的示意图;
[0015]图6C是依据本技术一实施例的更新内部存储器中权重数据的示意图。
[0016]附图标记说明
[0017]10:计算系统;
[0018]110:处理装置;
[0019]120:外部存储器;
[0020]130:总线;
[0021]d_i:输入数据;
[0022]d_o:输出数据;
[0023]20:卷积神经网络模型;
[0024]L1~L3:卷积层;
[0025]FM1、FM2、FM3、FM_i、FM_(i+1):特征图;
[0026]WM、WM_1~WM_5:卷积核;
[0027]31~35:子特征图;
[0028]111:内部存储器;
[0029]112:计算电路;
[0030]113:控制器;
[0031]41:权重缓冲器;
[0032]42:记忆电路;
[0033]W1、W2:权重数据;
[0034]WM1_1~WM1_a、WM2_1~WM2_b:卷积核;
[0035]61:卷积核的部份;
[0036]62:卷积核的部份;
[0037]S501~S502:步骤。
具体实施方式
[0038]现将详细地参考本揭露的示范性实施例,示范性实施例的实例说明于附图中。只
要有可能,相同组件符号在图式和描述中用来表示相同或相似部分。
[0039]应当理解,当诸如层、膜、区域或基板的组件被称为在另一组件“上”或“连接到”另一组件时,其可以直接在另一组件上或与另一组件连接,或者中间组件可以也存在。相反,当组件被称为“直接在另一组件上”或“直接连接到”另一组件时,不存在中间组件。如本文所使用的,“连接”可以指物理及/或电性连接。再者,“电性连接”或“耦合”可以是二组件间存在其它组件。
[0040]图1是依照本技术一实施例的执行卷积神经网络运算的计算系统的示意图。请参照图1,计算系统10可基于卷积神经网络运算来分析输入数据以提取有效信息。计算系统10可安装于各式电子终端设备中以实现各种不同的应用功能。举例而言,计算系统10可安装于智能型手机、平板计算机、医疗设备或机器人设备中,本技术对此不限制。于一实施例中,计算系统 10可基于卷积神经网络运算来分析指纹感测装置所感测的指纹图像或掌纹图像,以获取与感测指纹相关的信息。
[0041]计算系统10可包括处理装置110以及外部存储器120。处理装置110以及外部存储器120可经由总线130进行通讯。于一实施例中,处理装置110 可被实施为一系统芯片。处理装置110可依据接收到的输入数据执行卷积神经网络运算,其中卷积神经网络运算包括多个卷积层。这些卷积层至少包括第一卷积层与第二卷积层。需说明的是,本技术对于卷积神经网络运算所对应的神经网络模型并不加以限制,其可以为任何包括多个卷积层的神经网络模型,像是GoogleNet模型、AlexNet模型、VGGNet模型、ResNet模型、 LeNet模型等各种卷积神经网络模型。
[0042]外部存储器120耦接处理装置110,用于记录处理装置110执行卷积神经网本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种用于执行卷积神经网络运算的处理装置,所述卷积神经网络运算包括多个卷积层,其特征在于,包括:内部存储器;以及计算电路,耦接所述内部存储器,执行各所述卷积层的卷积运算,所述计算电路包括权重缓冲器,所述计算电路经配置以分析生理特征感测装置所感测的生理特征图像,其中所述处理装置经由总线耦接外部存储器,所述内部存储器经配置以被写入由所述外部存储器输出的所述多个卷积层中的第一卷积层的权重数据,并且提供所述第一卷积层的权重数据至所述计算电路的所述权重缓冲器,所述计算电路经配置以利用所述权重缓冲器所存储的所述第一卷积层的权重数据执行所述第一卷积层的卷积运算,并且所述内部存储器经配置以被写入由所述外部存储器输出的所述多个卷积层中的第二卷积层的权重数据,以覆写所述第一卷积层的权重数据,其中所述生理特征感测装置为指纹感测装置,并且所感测的生理特征图像为指纹图像或掌纹图像,或其中所述生理特征感测装置为脸部感测装置,并且所感测的生理特征图像为脸部图像。2.根据权利要求1所述...

【专利技术属性】
技术研发人员:程韦翰
申请(专利权)人:神盾股份有限公司
类型:新型
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1