会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
首页 / 专利库 / 人工智能 / 人工神经网络 / 人工神经网络运算电路

人工神经网络运算电路

阅读:1122发布:2020-05-13

IPRDB可以提供人工神经网络运算电路专利检索,专利查询,专利分析的服务。并且本发明公开了一种人工神经网络运算电路。其中,该人工神经网络运算电路包括:控制器,用于生成学习参数,并根据所述学习参数调整多个神经元单元之间的连接关系;存储器,与所述控制器连接,用于存储输入数据、所述学习参数以及连接关系;所述多个神经元单元,与所述控制器和所述存储器连接,用于基于所述连接关系,根据所述学习参数对所述输入数据进行神经元运算,并输出运算结果。本发明解决了由于人工神经网络的连接结构复杂导致的系统功耗较高的技术问题。,下面是人工神经网络运算电路专利的具体信息内容。

1.一种人工神经网络运算电路,其特征在于,包括:

控制器,用于生成学习参数,并根据所述学习参数调整多个神经元单元之间的连接关系;

存储器,与所述控制器连接,用于存储输入数据、所述学习参数以及连接关系;

所述多个神经元单元,与所述控制器和所述存储器连接,用于基于所述连接关系,根据所述学习参数对所述输入数据进行神经元运算,并输出运算结果。

2.根据权利要求1所述的人工神经网络运算电路,其特征在于,所述多个神经元单元设置于多层神经网络中,每层神经网络包括至少一个神经元单元。

3.根据权利要求2所述的人工神经网络运算电路,其特征在于,所述多层神经网络中第i层神经网络根据输入数据进行神经元运算,生成第i个运算结果,并将所述第i个运算结果传输至第i+1层神经网络,i为正整数。

4.根据权利要求2或3所述的人工神经网络运算电路,其特征在于,所述控制器用于执行以下步骤根据所述学习参数调整所述多个神经元单元之间的连接关系:获取所述多层神经网络中最后一层神经网络输出的运算结果;

根据所述运算结果与预设值之间的差值,调整所述学习参数;

若调整后的所述学习参数小于预设阈值,断开与调整后的所述学习参数对应的神经元单元的连接。

5.根据权利要求4所述的人工神经网络运算电路,其特征在于,所述控制器,还用于在所述多个神经元单元中的一个或几个神经元单元的调整后的所述学习参数均小于所述预设阈值的情况下,删除所述一个或几个神经元单元。

6.根据权利要求4所述的人工神经网络运算电路,其特征在于,所述控制器,还用于在所述多层神经网络中的一层或几层神经网络的所有神经元单元的调整后的所述学习参数均小于所述预设阈值的情况下,删除所述一层或几层神经网络。

7.根据权利要求3所述的人工神经网络运算电路,其特征在于,所述多个神经元单元用于执行以下步骤根据所述学习参数对所述输入数据进行神经元运算:从所述存储器中读取所述输入数据和所述学习参数;

依据所述学习参数对所述输入数据进行加权求和,得到加权求和结果;

将所述加权求和结果输入预设激励函数,得到所述运算结果。

8.根据权利要求7所述的人工神经网络运算电路,其特征在于,所述多个神经元单元用于执行以下步骤依据所述学习参数对所述输入数据进行加权求和,得到加权求和结果:计算所述输入数据与所述学习参数的乘积;

对各个所述乘积进行求和运算,得到所述加权求和结果。

9.根据权利要求2所述的人工神经网络运算电路,其特征在于,所述多层神经网络中第一层神经网络与输入层全连接。

10.根据权利要求2所述的人工神经网络运算电路,其特征在于,所述存储器包括以下至少之一:寄存器单元、静态存储器、动态存储器。

说明书全文

人工神经网络运算电路

技术领域

[0001] 本发明涉及图像处理领域,具体而言,涉及一种人工神经网络运算电路。

背景技术

[0002] 人工神经网络(Artificial Neural Network),是20世纪80年代以来人工智能领域兴起的研究热点,它从生物信息处理角度对大脑神经元单元网络进行抽象,按不同的连接方式组成不同的网络。人工神经网络特有的非线性适应性信息处理能力,克服了传统人工智能方法对于直觉,如模式、语音识别、非结构化信息处理等方面的缺陷,使之在模式识别、智能控制、优化组合、预测等领域得到成功应用。
[0003] 人工神经网络的层次结构复杂,学习能力和神经网络的层次成正比,然而更深的层次结构意味着更大的数据运算和更复杂的连接,从而会导致计算量较大、系统功耗较高。
[0004] 针对上述的问题,目前尚未提出有效的解决方案。

发明内容

[0005] 本发明实施例提供了一种人工神经网络运算电路,以至少解决由于人工神经网络的连接结构复杂导致的系统功耗较高的技术问题。
[0006] 根据本发明实施例的一个方面,提供了一种人工神经网络运算电路,包括:控制器,用于生成学习参数,并根据学习参数调整多个神经元单元之间的连接关系;存储器,与控制器连接,用于存储输入数据、学习参数以及连接关系;多个神经元单元,与控制器和存储器连接,用于基于连接关系,根据学习参数对输入数据进行神经元运算,并输出运算结果。
[0007] 可选地,多个神经元单元设置于多层神经网络中,每层神经网络包括至少一个神经元单元。
[0008] 可选地,多层神经网络中第i层神经网络根据输入数据进行神经元运算,生成第i个运算结果,并将第i个运算结果传输至第i+1层神经网络,i为正整数。
[0009] 可选地,控制器用于执行以下步骤根据学习参数调整多个神经元单元之间的连接关系:获取多层神经网络中最后一层神经网络输出的运算结果;根据运算结果与预设值之间的差值,调整学习参数;若调整后的学习参数小于预设阈值,断开与调整后的学习参数对应的神经元单元的连接。
[0010] 可选地,控制器,还用于在多个神经元单元中的一个或几个神经元单元的调整后的学习参数均小于预设阈值的情况下,删除一个或几个神经元单元。
[0011] 可选地,控制器,还用于在多层神经网络中的一层或几层神经网络的所有神经元单元的调整后的学习参数均小于预设阈值的情况下,删除一层或几层神经网络。
[0012] 可选地,多个神经元单元用于执行以下步骤根据学习参数对输入数据进行神经元运算:从存储器中读取输入数据和学习参数;依据学习参数对输入数据进行加权求和,得到加权求和结果;将加权求和结果输入预设激励函数,得到运算结果。
[0013] 可选地,多个神经元单元用于执行以下步骤依据学习参数对输入数据进行加权求和,得到加权求和结果:计算输入数据与学习参数的乘积;对各个乘积进行求和运算,得到加权求和结果。
[0014] 可选地,多层神经网络中第一层神经网络与输入层全连接。
[0015] 可选地,存储器包括以下至少之一:寄存器单元、静态存储器、动态存储器。
[0016] 在本发明实施例中,采用控制器生成学习参数,并根据学习参数调整多个神经元单元之间的连接关系;存储器存储输入数据、学习参数以及连接关系;多个神经元单元基于连接关系,根据学习参数对输入数据进行神经元运算,并输出运算结果的方式,通过控制器根据学习参数调整多个神经元单元之间的连接关系,在下一轮运算中采用调整后的连接关系,达到了简化神经网络连接结构的目的,从而实现了提高人工神经网络运算速度的技术效果,进而解决了由于人工神经网络的连接结构复杂导致的系统功耗较高的技术问题。

附图说明

[0017] 此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
[0018] 图1是根据本发明实施例的一种可选的人工神经网络运算电路的结构示意图;
[0019] 图2是根据本发明实施例的另一种可选的人工神经网络运算电路的结构示意图;
[0020] 图3是根据本发明实施例的一种可选的神经元运算的结构示意图;
[0021] 图4是根据本发明实施例的又一种可选的人工神经网络运算电路的结构示意图;
[0022] 图5是根据本发明实施例的又一种可选的人工神经网络运算电路的结构示意图;
[0023] 图6是根据本发明实施例的又一种可选的人工神经网络运算电路的结构示意图。

具体实施方式

[0024] 为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
[0025] 需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0026] 根据本发明实施例,提供了一种人工神经网络运算电路的结构实施例,图1是根据本发明实施例的人工神经网络运算电路,如图1所示,该人工神经网络运算电路包括:控制器10、存储器11以及多个神经元单元12。
[0027] 其中,控制器10,用于生成学习参数,并根据学习参数调整多个神经元单元之间的连接关系;存储器11,与控制器10连接,用于存储输入数据、学习参数以及连接关系;多个神经元单元12,与控制器10和存储器11连接,用于基于连接关系,根据学习参数对输入数据进行神经元运算,并输出运算结果。
[0028] 可选地,多个神经元单元设置于多层神经网络中,每层神经网络包括至少一个神经元单元。
[0029] 可选地,多层神经网络中第i层神经网络根据输入数据进行神经元运算,生成第i个运算结果,并将第i个运算结果传输至第i+1层神经网络,i为正整数。
[0030] 结合图2所示,以三层结构的人工神经网络为例,神经元单元00、神经元单元01、神经元单元02为第一层神经网络,神经元单元10、神经元单元11为第二层神经网络;神经元单元20为第三层神经网络,D0/D1/D2为原始输入数据,控制器用来产生各神经元单元的学习参数和连接关系,存储器用来存储输入数据、学习参数及连接关系,各个神经元单元用来在控制器设置的连接关系下,根据学习参数对输入数据进行神经元运算,并输出结果。
[0031] 在本发明实施例中,采用控制器生成学习参数,并根据学习参数调整多个神经元单元之间的连接关系;存储器存储输入数据、学习参数以及连接关系;多个神经元单元基于连接关系,根据学习参数对输入数据进行神经元运算,并输出运算结果的方式,通过控制器根据学习参数调整多个神经元单元之间的连接关系,在下一轮运算中采用调整后的连接关系,达到了简化神经网络连接结构的目的,从而实现了提高人工神经网络运算速度的技术效果,进而解决了由于人工神经网络的连接结构复杂导致的系统功耗较高的技术问题。
[0032] 可选地,控制器10用于执行以下步骤根据学习参数调整多个神经元单元之间的连接关系:获取多层神经网络中最后一层神经网络输出的运算结果;根据运算结果与预设值之间的差值,调整学习参数;若调整后的学习参数小于预设阈值,断开与调整后的学习参数对应的神经元单元的连接。
[0033] 本实施例的人工神经网络运算电路由一个控制器、一个存储器和多个神经元单元构成,图2以初始的三层神经网络为例,可根据实际应用拓展到多层多连接,网络结构为输入层包括D0/D1/D2,第一隐层包括神经元单元00/01/11,第二隐层包括神经元单元10/11,第三隐层包括神经元单元20。输入层D0/D1/D2为输入外部数据,可以为音频、视频或其他待处理的数据,它们通过全连接方式接入到第一隐层;第一隐层根据输入数据进行神经元运算,并将结果传送给下一层,依次类推到最后一层。控制器通过比较最终输出和预设值的误差,再针对各层神经元的学习参数进行调整。
[0034] 本实施例的神经元运算如图3所示,为输入数据的加权求和运算,再经过激励函数处理,即D0、D1、D2、D3为输入数据,w0、w1、w2、w3为对应权值(即学习参数),SUM为求和运算,f为预设激励函数,可以为sigmoid函数或者tanh函数等函数。如果输入权值w过小,则对应的输入数据对最终的输出非常小,如果权值w为0,则对应是输入数据对输出完全没有影响。利用此特性,控制器根据各神经元单元的输入权值w(即学习参数)来调整神经网络的连接,如果w值小于某一预设阈值T(T可以是某一固定经验值或是根据学习调整后的阈值),说明该条通路对输出影响非常小,可以简化该连接,即断开该连接。
[0035] 假设输入数据D1/D2对应于神经元单元00的权值非常小,小于预设阈值T,则可以断开D1/D2与神经元单元00之间的连接,具体如图4所示,神经元单元00只用计算输入数据D0通路,由此简化了神经元单元的计算量。同时,控制器将该连接关系存储到存储器中,依次类推,神经网络所有权值w做比较简化后的结构如图4。
[0036] 可选地,控制器10,还用于在多个神经元单元中的一个或几个神经元单元的调整后的学习参数均小于预设阈值的情况下,删除一个或几个神经元单元。
[0037] 本实施例的人工神经网络运算电路,不仅可以简化神经元单元的连接关系,也可以简化神经元单元的个数,如图5所示,假设神经元单元00的所有输入权值w(即学习参数)都小于预设阈值T,说明该神经元单元对最终输出硬件极小,可以简化掉该神经元单元的所有连接,依次类推简化后续神经元单元。
[0038] 可选地,控制器10,还用于在多层神经网络中的一层或几层神经网络的所有神经元单元的调整后的学习参数均小于预设阈值的情况下,删除一层或几层神经网络。
[0039] 本实施例的人工神经网络运算电路,同样可以简化神经网络的层次,如果某一层次的所有神经元的输入权值都小于预设阈值T,则可以简化该网络层次,如图6所示,第二隐层即被简化掉。
[0040] 最终将整个神经网络的简化后的连接关系存储到存储器中,再下一次的运算中采用新的连接关系,简化后神经网络结构计算量更小,计算速度更快。
[0041] 可选地,多个神经元单元12用于执行以下步骤根据学习参数对输入数据进行神经元运算:从存储器中读取输入数据和学习参数;依据学习参数对输入数据进行加权求和,得到加权求和结果;将加权求和结果输入预设激励函数,得到运算结果。
[0042] 可选地,多个神经元单元12用于执行以下步骤依据学习参数对输入数据进行加权求和,得到加权求和结果:计算输入数据与学习参数的乘积;对各个乘积进行求和运算,得到加权求和结果。
[0043] 结合如图3所示,D0、D1、D2、D3为输入数据,w0、w1、w2、w3为对应权值(即学习参数),SUM为求和运算,f为预设激励函数,可以为sigmoid函数或者tanh函数等函数。多个神经元单元读取存储器中的输入数据和学习参数,根据输入节点(输入数据)的权值(学习参数)进行加权求和,再将其加权求和结果输入一预设激励函数中,预设激励函数可以为sigmoid、tanh等函数运算,并将结果输出。
[0044] 其中,sigmoid函数,即f(x)=1/(1+e-x),是神经元单元的非线性作用函数;tanh函数用于返回任意实数的双曲正切值。
[0045] 可选地,多层神经网络中第一层神经网络与输入层全连接。
[0046] 仍如图2所示,输入层D0/D1/D2为输入外部数据,可以为音频、视频或其他待处理的数据,它们通过全连接方式接入到第一隐层;第一隐层根据输入数据进行神经元运算,并将结果传送给下一层,依次类推到最后一层。控制器通过比较最终输出和理想结果的误差,再针对各层神经元的学习参数进行调整。
[0047] 可选地,存储器包括以下至少之一:寄存器单元、静态存储器、动态存储器。
[0048] 其中,存储器可为寄存器单元、SRAM(静态存储器)、DRAM(动态存储器)等。
[0049] 本实施例所提出的人工神经网络运算电路,可以简化神经网络的连接和神经网络层数,减少计算量,提高计算速度,降低系统功耗。
[0050] 上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0051] 在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0052] 在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
[0053] 作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0054] 另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0055] 集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
[0056] 以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
高效检索全球专利

IPRDB是专利检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,专利查询、专利分析

电话:13651749426

侵权分析

IPRDB的侵权分析产品是IPRDB结合多位一线专利维权律师和专利侵权分析师的智慧,开发出来的一款特色产品,也是市面上唯一一款帮助企业研发人员、科研工作者、专利律师、专利分析师快速定位侵权分析的产品,极大的减少了用户重复工作量,提升工作效率,降低无效或侵权分析的准入门槛。

立即试用