[发明专利]基于自适应联合剪枝-量化的神经网络压缩算法在审

专利信息
申请号: 201910592425.9 申请日: 2019-07-03
公开(公告)号: CN110443359A 公开(公告)日: 2019-11-12
发明(设计)人: 郑秋梅;王璐璐;曹佳 申请(专利权)人: 中国石油大学(华东)
主分类号: G06N3/063 分类号: G06N3/063;G06N3/04;G06N3/08;G06K9/00
代理公司: 暂无信息 代理人: 暂无信息
地址: 266580 山*** 国省代码: 山东;37
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提出一种基于自适应联合剪枝‑量化(AJP‑Q)的网络压缩算法对神经网络进行压缩加速,提高智能交通的多目标车辆在线跟踪准确率和效率。本发明提出的AJP‑Q压缩算法可以联合执行权重修剪和量化,通过微调预先训练的神经网络来学习压缩网络,并移除连接和减少编码剩余连接所需的位数,得到稀疏的网络连接,通过共享权重进行分区,接着量化全精度权重更新权重,将更新后的权重值进行前向传播和反向传播,达到最大迭代数。此算法利用了权重修剪和量化的互补性,并从过早修剪错误中恢复过来,随着时间推移做出灵活的剪枝和量化策略。改进了现有方法分别执行剪枝和量化的过程,并且在第一阶段产生的误差在第二阶段无法矫正问题。本算法通过在KITTI数据集上对SAVD_VGG网络进行的压缩试验,结果显示,相比未压缩的网络模型在不影响精度(精度仅下降3%)的前提下运行速度提升近10倍,且网络模型尺寸较小、精简紧凑、具有较低的计算开销和占用较小内存的优势,能够在车载平台下实时的对前方车辆视频流进行检测。
搜索关键词: 量化 权重 剪枝 神经网络 算法 修剪 网络模型 压缩算法 自适应 多目标车辆 最大迭代数 车载平台 反向传播 计算开销 前方车辆 前向传播 权重更新 时间推移 速度提升 网络连接 网络压缩 压缩试验 在线跟踪 智能交通 压缩 灵活的 视频流 数据集 未压缩 小内存 联合 准确率 微调 稀疏 移除 矫正 紧凑 互补性 分区 网络 占用 共享 检测 更新 改进 恢复 学习
【主权项】:
1.本发明提出的网络压缩算法AJP‑Q可以联合执行权重修剪和量化,通过微调预先训练的神经网络来学习压缩网络,并移除连接和减少编码剩余连接所需的位数。此算法利用了修剪和量化的互补性,并能够从早修剪错误中及时恢复过来,改进了现有方法分别执行剪枝和量化的过程,并且在第一阶段产生的误差在第二阶段无法矫正问题。主要包括以下步骤:步骤一、对全精度网络权重值执行剪枝操作,网络学习有效连接;101、首先设置两个截止点标量d和d+,用超参数p来确定,使得统一卷积层中(p×100)%的正权重值小于或等于d+,同时使(p×100)%的负权重值大于或等于d。而位于d和d+之间的所有权重在下一个前向传递中设置为零。此时会在处理下一个小批量(mini‑batch)时从网络中删除相应的连接。这种剪枝决策时暂时的,在下一次迭代中,用上述表述的规则重新作用于更新后的参数,则之前被剪枝的连接可能会重新出现。虽然超参数p是常数,但阈值d和d+在每次迭代中改变。剪枝这一步骤能够将SAVD_VGG网络参数降低到原来的1/13。总体上,通过网络训练学习连接,将小于一定阈值权值直接移除,最终得到稀疏的网络连接。步骤二、得到的最终稀疏网络连接采用稀疏压缩行(CSR)存储稀疏权重矩阵,设存在a个非0元素,行数为n,则共需要2a+n+1个存储单元。存储时采用3元组结构:先存储a个非零数,稀疏矩阵记为A;非零数所在列的列号;每行首个元素在A中的位置。步骤三、对全精度权重进行共享并分区;301、将未被减掉的权重值分到不同的量化区间进行权重共享,这些量化区间被可视化为不同的颜色范围。给定权重宽b,可将数轴划分为2b‑1个分区(划分为类),再加上被修剪了的从d到d+的0分区。权重共享限制了需要存储的有效权重的数量从而进一步压缩剪枝后的网络。302、具体的权重共享分区策略使用K‑means聚类算法来确定训练网络中每一层的共享权重,所有属于同一个聚类的权重都将共享相同的权重,权重不能跨层共享。将n个原始权重W={w1,w2,K,wn}分为k个簇C={c1,c2,K,ck},其中n>>k,以聚类算法最小化类内误差,目标函数如下所示:步骤四、量化全精度权重并更新权重值;网络量化通过减少表示每个权重所需的位数进一步压缩网络。通过对落入相应量化分区内的全精度权重求平均值来计算每个量化区间的量化值。然后,通过在下一个前向传播中将他们设置为新的量化级别来量化权重。随着网络学习的进展,量化值和权重的分配随着时间的推移不断变化。步骤五、用更新后的权重值进行前向传播计并算损失值;用量化好的权重值进行前向传播计并算损失值。在训练期间,全精度量化值用于剪枝‑量化操作中前向计算。在前向传播阶段存在一级间接查找权重表,为每个连接存储共享权重表的索引,计算时查表即可。步骤六、反向传播以更新全精度权重值,最后达到最大迭代数。用量化好的权重值进行反向传播更新权重。反向传播用于更新权重值。用L表示损失函数,第i列和第j行的权重由Wij表示,Iij为聚类中心的索引,Ck为第k个聚类中心,1(·)为指示函数,则梯度计算如下所示:每次用小批量样本进行训练时都会更新剪枝状态、量化级别及其分配。当先前修剪的连接可能再次变得相关时,可以将其拼接回网络。此外,可以重新分配量化级别,量化级别本身随时间演进。训练期间对全精度权重进行微调,并在训练完成后丢弃。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国石油大学(华东),未经中国石油大学(华东)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910592425.9/,转载请声明来源钻瓜专利网。

同类专利
  • 基于自适应联合剪枝-量化的神经网络压缩算法-201910592425.9
  • 郑秋梅;王璐璐;曹佳 - 中国石油大学(华东)
  • 2019-07-03 - 2019-11-12 - G06N3/063
  • 本发明提出一种基于自适应联合剪枝‑量化(AJP‑Q)的网络压缩算法对神经网络进行压缩加速,提高智能交通的多目标车辆在线跟踪准确率和效率。本发明提出的AJP‑Q压缩算法可以联合执行权重修剪和量化,通过微调预先训练的神经网络来学习压缩网络,并移除连接和减少编码剩余连接所需的位数,得到稀疏的网络连接,通过共享权重进行分区,接着量化全精度权重更新权重,将更新后的权重值进行前向传播和反向传播,达到最大迭代数。此算法利用了权重修剪和量化的互补性,并从过早修剪错误中恢复过来,随着时间推移做出灵活的剪枝和量化策略。改进了现有方法分别执行剪枝和量化的过程,并且在第一阶段产生的误差在第二阶段无法矫正问题。本算法通过在KITTI数据集上对SAVD_VGG网络进行的压缩试验,结果显示,相比未压缩的网络模型在不影响精度(精度仅下降3%)的前提下运行速度提升近10倍,且网络模型尺寸较小、精简紧凑、具有较低的计算开销和占用较小内存的优势,能够在车载平台下实时的对前方车辆视频流进行检测。
  • 运算方法、装置及相关产品-201811634962.7
  • 不公告发明人 - 北京中科寒武纪科技有限公司
  • 2018-12-29 - 2019-11-12 - G06N3/063
  • 本公开涉及一种运算方法、装置及相关产品,所述产品包括控制模块,所述控制模块包括:指令缓存单元、指令处理单元和存储队列单元;所述指令缓存单元,用于存储所述人工神经网络运算关联的计算指令;所述指令处理单元,用于对所述计算指令解析得到多个运算指令;所述存储队列单元,用于存储指令队列,该指令队列包括:按该队列的前后顺序待执行的多个运算指令或计算指令。通过以上方法,本公开可以提高相关产品在进行神经网络模型的运算时的运算效率。
  • 循环与库融合-201810015644.6
  • 埃利·本德斯基;罗伯特·洪特;马克·赫弗南;吴景岳 - 谷歌有限责任公司
  • 2018-01-08 - 2019-11-12 - G06N3/063
  • 本申请涉及循环与库融合。用于生成有效的编译代码的方法、系统和装置,包括在计算机存储介质上编码的计算机程序。在一个示例方法中,编译系统获得未优化的计算图,未优化的计算图包括表示运算的多个节点和表示数据依赖性的有向边。使用模式匹配来分析未优化的计算图以确定可以被一起融合成单个融合运算的可融合运算。通过用表示单个融合运算的融合节点替换表示未优化的计算图中的可融合运算的节点,将未优化的计算图变换成优化的计算图。编译系统通过将优化计算图的融合节点转换为执行融合运算的调用来产生有效代码。
  • 运算方法、装置及相关产品-201811635181.X
  • 不公告发明人 - 北京中科寒武纪科技有限公司
  • 2018-12-29 - 2019-11-12 - G06N3/063
  • 本公开涉及一种运算方法、装置及相关产品,所述产品包括控制模块,所述控制模块包括:指令缓存单元、指令处理单元和存储队列单元;所述指令缓存单元,用于存储所述人工神经网络运算关联的计算指令;所述指令处理单元,用于对所述计算指令解析得到多个运算指令;所述存储队列单元,用于存储指令队列,该指令队列包括:按该队列的前后顺序待执行的多个运算指令或计算指令。通过以上方法,本公开可以提高相关产品在进行神经网络模型的运算时的运算效率。
  • 一种基于忆阻器实现多样化STDP学习规则的突触仿生电路-201910787215.5
  • 叶葱;张鑫;夏天;刘昕怡;刘炎欣 - 湖北大学
  • 2019-08-25 - 2019-11-08 - G06N3/063
  • 本发明涉及一种基于忆阻器实现多样化STDP学习规则的突触仿生电路,包括增强模块、抑制模块及忆阻突触模块,增强模块、抑制模块各包括两个输入端及一个输出端,两个输入端用于接收前神经元信号pre及后神经元信号post,输出端均与忆阻突触模块连接;当前神经元信号pre先于后神经元信号post到达时,增强模块工作,抑制模块停止运行,增强模块根据两种信号的输入时间差,输出不同宽度的直流电平;当后神经元信号post先于前神经元信号pre到达时,抑制模块工作,增强模块停止运行,抑制模块根据两种信号的输入时间差,输出不同宽度的直流电平;忆阻突触模块根据不同宽度的直流电平相应抑制忆阻器电导权重,进而改变模拟实现STDP学习函数的对应参数,其应用范围广泛。
  • 基于N-GRAM和WFST模型的人工神经网络芯片及其应用方法-201810249286.5
  • 于涌;陈云霁 - 中国科学院计算技术研究所
  • 2018-03-23 - 2019-11-08 - G06N3/063
  • 本公开提供了一种基于深度神经网络的自动聊天方法,包括以下步骤:获取用户输入信息,并经深度神经网络编码器生成固定长度向量;所述固定长度向量输入attention模型之后输出分数;根据所述分数判定经由attention模型或自然模型生成与所述输入信息对应的答复信息;其中,若所述分数小于一分数阈值,则进入语言模型,经语言模型生成与所述输入信息对应的答复信息;反之,直接经由attention模型生成与所述输入信息对应的答复信息。本公开还提供了一种基于深度神经网络的自动聊天机器人。本公开基于深度神经网络的自动聊天方法及机器人保证了聊天过程中答复信息的准确性,使得聊天内容更切合实际。
  • 神经网络运算装置及方法-201610868238.5
  • 陈天石;刘少礼;陈云霁 - 北京中科寒武纪科技有限公司
  • 2016-09-29 - 2019-11-08 - G06N3/063
  • 本公开提供了一种神经网络运算装置及方法。该神经网络运算装置包括:控制单元、存储单元、稀疏选择单元和神经网络运算单元;其中:控制单元,用于产生分别对应各个单元的微指令,并将微指令发送至相应单元;稀疏选择单元,用于根据控制单元下发的对应稀疏选择单元的微指令,依照其中的稀疏数据表示的位置信息,在存储单元存储的神经网络数据中选择与有效权值相对应的神经网络数据参与运算;以及神经网络运算单元,用于根据控制单元下发的对应神经网络运算单元的微指令,对稀疏选择单元选取的神经网络数据执行神经网络运算,得到运算结果。本公开可以提升神经网络运算装置处理不同数据类型的能力,加快神经网络运算速度的同时降低功耗。
  • 含有三维纵向存储阵列的神经网络处理器-201910029528.4
  • 张国飙 - 杭州海存信息技术有限公司
  • 2019-01-13 - 2019-11-05 - G06N3/063
  • 神经网络处理器(100)含有多个储算单元(100aa‑100mn),每个储算单元(100ij)含有至少一三维纵向存储(3D‑MV)阵列(170)和一神经计算电路(180)。3D‑MV阵列(170)存储突触权重,神经计算电路(180)利用突触权重进行神经计算。神经计算电路(180)位于半导体衬底(0)中,3D‑MV阵列(170)堆叠在神经计算电路(180)之上并通过多个芯片内连接(160)电耦合。
  • 池化运算装置-201810377097.6
  • 梁晓峣;景乃锋;崔晓松;陈云 - 华为技术有限公司
  • 2018-04-25 - 2019-11-01 - G06N3/063
  • 本申请提供一种池化运算装置,该装置包括:多个寄存器组,用于存储多个数据;多个计算单元,用于对该多个数据执行池化操作,其中,不同的计算单元操作的数据位于该多个寄存器组中的不同寄存器组中;该多个计算单元中的第一计算单元用于:对该多个数据中的第一数据和第二数据进行第一池化运算,获得第一运算结果;存储该第一运算结果;从该多个寄存器中的第一寄存器组中获取第三数据;对该第一运算结果和该第三数据进行第二池化运算。本申请可以实现并行池化,其中的计算单元中可以存储中间计算结果,能提高数据读写效率,可以提高池化效率。
  • 具有3D堆叠结构的神经形态电路和包括其的半导体装置-201811405971.9
  • 赵佑荣;吴成一;柳鹤洙;崔*洙 - 三星电子株式会社
  • 2018-11-23 - 2019-10-29 - G06N3/063
  • 提供了具有三维堆叠结构的神经形态电路和包括该神经形态电路的半导体装置。半导体装置包括包含一个或更多个突触核心的第一半导体层,每个突触核心包括被布置为执行神经形态计算的神经电路。第二半导体层堆叠在第一半导体层上,并包括在突触核心之间形成物理传输路径的互连件。第三半导体层堆叠在第二半导体层上并包括一个或更多个突触核心。形成至少一个贯通电极,信息通过所述至少一个贯通电极在第一半导体层至第三半导体层之间传输。来自第一半导体层中的第一突触核心的信息经由一个或更多个贯通电极和第二半导体层的互连件传输到第三半导体层中的第二突触核心。
  • 神经网络引擎-201910305973.9
  • M·C·蒙特亚努 - 快图有限公司
  • 2019-04-16 - 2019-10-29 - G06N3/063
  • 本发明题为“神经网络引擎”。本发明公开了一种神经网络引擎,所述神经网络引擎包括多个浮点乘法器,每个浮点乘法器具有连接到输入映射值的输入以及连接到对应内核值的输入。乘法器对将输出提供给节点的树,所述树的每个节点被配置为提供与以下任一者相对应的浮点输出:所述节点的所述输入中的较大者;或所述输入的总和,所述树的一个输出节点提供输出模块的第一输入,并且所述乘法器之一将输出提供给所述输出模块的第二输入。所述引擎被配置为根据所述内核值以及所述节点和输出模块被配置为输出其输入的较大者还是其输入的总和,来处理神经网络的任一卷积层,即平均池化层或最大池化层。
  • 面向向量处理器的卷积神经网络运算向量化方法-201810687639.X
  • 刘仲;田希;陈海燕;郭阳;扈啸;孙永节;陈跃跃;王丽萍 - 中国人民解放军国防科技大学
  • 2018-06-28 - 2019-10-29 - G06N3/063
  • 本发明公开一种面向向量处理器的卷积神经网络运算向量化方法,步骤包括:S1.将向量存储器的L1D设置为SRAM方式,并划分为两个缓冲区;S2.依次将输入特征数据传入到两个缓冲区中;S3.依次将卷积核数据传入到向量存储器的向量阵列中;S4.依次开启两个缓冲区的计算,每个缓冲区计算时依次选取一个移动卷积运算窗口进行卷积运算,每个移动卷积运算窗口进行运算时,依次读取一个输入特征数据并扩展为向量数据,各卷积核分别与扩展得到的向量数据进行乘累加;S5.由向量处理部件将卷积计算结果传输到片外存储中;S6.循环执行步骤S2~S5。本发明具有实现方法简单、处理器的并行性以及计算效率高等优点。
  • 一种计算装置及方法-201880002628.1
  • 不公告发明人 - 上海寒武纪信息科技有限公司
  • 2018-09-03 - 2019-10-25 - G06N3/063
  • 一种计算装置,该计算装置用于执行机器学习计算,该计算装置包括:用于获取输入数据以及计算指令的存储单元(10);用于从存储单元(10)提取计算指令,对该计算指令进行译码以得到一个或多个运算指令和并将一个或多个运算指令以及输入数据发送给运算单元(12)的控制器单元(11);和用于根据一个或多个运算指令对输入数据执行计算得到计算指令的结果的运算单元(12)。所述计算装置对参与机器学习计算的数据采用定点数据进行表示,可提升训练运算的处理速度和处理效率。
  • 一种混合信号二进制CNN处理器-201810321430.1
  • 刘洪杰 - 深圳市九天睿芯科技有限公司
  • 2018-04-11 - 2019-10-22 - G06N3/063
  • 一种混合信号二进制CNN处理器,它包括神经元阵列单元、二进制温度译码单元、控制单元、输入图像单元、输出图像单元和存储单元,RGB图像通过二进制温度译码单元的输入端输入,二进制温度译码单元的输出端通过输入图像单元与神经元阵列单元的输入端相连接,神经元阵列单元的输出端与输出图像单元相连接,控制单元与神经元阵列单元相连接,控制指令通过控制单元的输入端输入,存储单元与神经元阵列单元相连接;通过二进制温度译码单元的Binary Net算法来完成工作,其权重和激活约束为+1/‑1,极大地简化了乘法运算(XNOR)并允许集成所有片上存储单元;执行中等复杂度的图像分类(CIFAR‑10中为86%),并采用近存储器计算来实现3.8μJ的分类能量,比TrueNorth提高40倍。
  • 一种基于深度神经网络的自动聊天方法和机器人-201810249289.9
  • 于涌;陈云霁 - 中国科学院计算技术研究所
  • 2018-03-23 - 2019-10-18 - G06N3/063
  • 本公开提供了一种基于深度神经网络的自动聊天方法,包括以下步骤:获取用户输入信息,并经深度神经网络编码器生成固定长度向量;所述固定长度向量输入多个attention子模型之后分别输出分数;以及对所述多个attention子模型输出的分数进行比较,选择最高分数所对应的attention子模型作为最终模型,生成与所述输入信息对应的答复信息。本公开还提供了一种基于深度神经网络的自动聊天机器人。本公开基于深度神经网络的自动聊天方法及机器人保证了聊天过程中答复信息的准确性,使得聊天内容更切合实际。
  • 一种卷积神经网络的硬件加速方法、装置、设备及系统-201910384808.7
  • 杨宏斌;方兴;董刚;刘栩辰 - 苏州浪潮智能科技有限公司
  • 2019-05-09 - 2019-10-15 - G06N3/063
  • 本发明公开了一种卷积神经网络的硬件加速方法、装置、设备、系统及硬件加速卡,该方法包括:处理器根据接收的主机发送的开始计算命令,从存储器获取计算指令;根据计算指令,生成对应的计算指导参数,并将计算指导参数发送到卷积加速器,以控制卷积加速器利用存储器中的卷积核系数和待计算特征图进行卷积神经网络计算,并将计算结果存储到存储器;计算完成后,向主机发送计算完成信号;本发明中将硬件加速卡上的处理器作为控制中枢,通过处理器执行主机的指令来灵活适配各种卷积神经网络,进而指导卷积加速器正常有序工作,增强了硬件加速卡上计算任务运行的自主性,减少了主机干预,进一步减小了系统延时,提高了硬件加速的性能。
  • 一种神经网络模型的构建方法、装置、设备及存储介质-201910435113.7
  • 刘程浩;李昊沅;陈其锋;李峰;左小祥 - 腾讯科技(深圳)有限公司
  • 2019-05-23 - 2019-10-15 - G06N3/063
  • 本发明涉及一种神经网络模型的构建方法、设备及系统,包括:获取预设神经网络模型;在所述预设神经网络模型的隐藏层后增加伪量化层,得到新的神经网络模型;所述伪量化层用于将隐藏层输出的第一数据类型的数据量化为第二数据类型的数据,以及对所述第二数据类型的数据进行取整计算,以及将所述进行取整计算后的第二数据类型的数据反量化为第一数据类型的数据;基于目标任务,对所述新的神经网络模型进行训练得到收敛的神经网络模型,实现了在对神经网络模型的训练结果不会造成太大影响的情况下,减小了神经网络模型文件的占用空间,减少内存带宽,降低计算资源的需要,获取更高性能,实现低功耗运行。
  • 基于稀疏化Winograd算法的卷积计算方法和卷积神经网络加速器-201910648411.4
  • 王昊楠;刘文剑 - 南京风兴科技有限公司
  • 2019-07-18 - 2019-10-15 - G06N3/063
  • 本实施例提供一种基于稀疏化Winograd算法的卷积计算方法及卷积神经网络加速器,涉及集成电路及人工智能领域技术领域。该方法包括对激活数据进行分片,获得多个分片数据d;对每一个分片数据d进行域变换,获得U;以及,获取每一个分片数据d的权重数据V;访问每一组U和V中,所有相同地址上的两个非零值进行点乘计算,获得将所有中的同一像素位置的点乘数据相加,获得融合数据W;根据Winograd卷积公式Y=ATWA,计算激活数据的卷积Y,其中,A为第一变换矩阵。本实施例提供的方法和加速器,能够快速访问U和V中所有相同地址上的两个非零值进行点乘计算,以消除所有含有0输入的冗余乘法操作,提高卷积计算的效率。
  • 神经网络加速装置与方法-201880011107.2
  • 韩峰;谷骞;李似锦 - 深圳市大疆创新科技有限公司
  • 2018-04-26 - 2019-10-15 - G06N3/063
  • 提供一种神经网络加速装置与方法,该装置包括:输入单元,用于获取输入特征值;计算单元,用于对该输入单元接收的该输入特征值进行计算处理,获得输出特征值;输出单元,用于在该计算单元获得的该输出特征值的定点格式与预设定点格式不同的情况下,按照该预设定点格式对该输出特征值进行低位移出和/或高位截断,获得目标输出特征值,该目标输出特征值的定点格式为该预设定点格式。本申请通过神经网络加速装置对数据的定点格式进行调整,由于无需CPU来执行数据的定点格式的调整,在一定程度上减少了对DDR的占用,因此可以减少资源耗费。
  • 神经形态加速器多任务处理-201910146536.7
  • S·帕格斯利;B·埃金 - 英特尔公司
  • 2019-02-27 - 2019-10-08 - G06N3/063
  • 本文中描述了用于神经形态加速器多任务处理的系统和技术。神经元地址转换单元(NATU)可接收尖峰消息。在此,尖峰消息包括引起尖峰的神经元的物理神经元标识符(PNID)。NATU随后可将PNID转换为网络标识符(NID)和局部神经元标识符(LNID)。NATU基于NID来定位突触数据,并将该突触数据和LNID传递至轴突处理器。
  • 基于边缘服务器与移动端设备协同的深度学习模型推理加速方法-201910592713.4
  • 陈旭;周知;李恩 - 中山大学
  • 2019-07-03 - 2019-10-08 - G06N3/063
  • 本发明公开了一种基于边缘服务器与移动端设备协同的深度学习模型推理加速方法,提出结合模型分割与模型精简,通过训练与使用回归模型准确地估算深度学习模型的网络层在边缘服务器以及在移动端设备的运行时延,以此搜索出符合时延需求的退出点以及分割点,相较于传统的基于云数据中心的方法和直接在设备部署的方法,本方法不仅能实现在移动端设备上的深度学习模型高效与低时延推理,同时能够针对时延与准确率之间的权衡给出一个满足时延需求的深度学习模型推理方案。
  • 一种智能的权重信息的分区处理方法-201910483424.0
  • 景蔚亮;杜源;陈邦明 - 上海新储集成电路有限公司
  • 2019-06-04 - 2019-10-01 - G06N3/063
  • 本发明涉及信息技术领域,尤其涉及一种智能的权重信息的分区处理方法,应用于具有权重信息的神经网络;其中,在对神经网络进行不断训练的过程中,将变化频率大于第一预设阈值的权重信息存储在一第一类存储器中;以及将变化频率小于第一预设阈值的权重信息存储在一第二类存储器中;能够通过不断地学习,将权重信息存储在不同的位置,使得训练速度越来越快,且存储媒介的种类增加了,可以针对存储的权重信息的特征设置相适应的存储媒介,也不需要再从另外的存储器中取数据,降低了训练神经网络模型设备的价格。
  • 一种计算装置及方法-201810207915.8
  • 不公告发明人 - 上海寒武纪信息科技有限公司
  • 2018-03-14 - 2019-09-24 - G06N3/063
  • 本申请提供了一种计算装置,该计算装置用于执行网络模型的计算,该网络模型包括神经网络模型和/或非神经网络模型;计算装置包括:用于获取至少一个输入数据、网络模型以及计算指令的存储单元;用于从存储单元提取计算指令,对该计算指令进行译码以得到一个或多个运算指令和将一个或多个运算指令以及至少一个输入数据发送给运算单元的控制器单元;和用于根据一个或多个运算指令对至少一个输入数据执行计算得到计算指令的结果的运算单元。本发明实施例对参与网络模型计算的数据采用定点数据进行表示,可提升训练运算的处理速度和处理效率。
  • 一种基于FPGA的深度卷积神经网络的流水化加速系统-201710072223.2
  • 李开;邹复好;章国良;黄浩;杨帆;孙浩 - 武汉魅瞳科技有限公司
  • 2017-02-09 - 2019-09-20 - G06N3/063
  • 本发明提出了一种基于FPGA的深度卷积神经网络的流水化加速系统,该流水化加速系统主要由输入数据分配控制模块、输出数据分配控制模块、卷积计算顺序序列化实现模块、池化计算顺序序列化实现模块、卷积计算模块、池化计算模块和卷积计算结果分配控制模块组成,此外所述流水化加速系统还包含一个内部系统级联接口。按照本发明设计的流水化加速系统,能够在FPGA上高效并行流水化实现,并且有效地解决了计算过程中由于各类填充操作而导致的资源浪费和有效计算延误问题,能有效地降低系统功耗和大大提高运算处理速度。
  • 数模混合神经元电路-201910611138.8
  • 满梦华;马贵蕾 - 中国人民解放军陆军工程大学
  • 2019-07-08 - 2019-09-13 - G06N3/063
  • 本发明公开了一种数模混合神经元电路,包括数字电路模块以及模拟电路模块,所述模拟电路模块包括可重构电容阵列、钠通道模块以及钾通道模块,所述可重构电容阵列的容值受控于所述数字电路模块,用于在所述数字电路模块的控制下调整容值,进而实现不同的神经元放电行为;电源的输入端与所述可重构电容阵列的C+端连接,所述可重构电容阵列的C+端连接所述神经元电路的输出端,所述可重构电容阵列的C‑端接地;所述可重构电容阵列与泄放电阻RL并联,所述钠通道模块和所述钾通道模块与所述泄放电阻RL并联;所述神经元电路可以通过微控制实现在线精确控制可重构电容阵列,使所述神经元电路产生不同的放电形式,而且可以实现软件定义的神经元内部可塑性规则,为实现类脑神经网络提供基础单元。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top