当前位置:文档之家› 基于深度神经网络的驾驶员违章行为识别方法

基于深度神经网络的驾驶员违章行为识别方法

基于深度神经网络的驾驶员违章行为识别方法
基于深度神经网络的驾驶员违章行为识别方法

龙源期刊网 https://www.doczj.com/doc/6214550895.html, 基于深度神经网络的驾驶员违章行为识别方法

作者:姜雨凯周亢李志伟李杰丁政向阳邵叶秦

来源:《电脑知识与技术》2020年第12期

(完整版)深度神经网络及目标检测学习笔记(2)

深度神经网络及目标检测学习笔记 https://youtu.be/MPU2HistivI 上面是一段实时目标识别的演示,计算机在视频流上标注出物体的类别,包括人、汽车、自行车、狗、背包、领带、椅子等。 今天的计算机视觉技术已经可以在图片、视频中识别出大量类别的物体,甚至可以初步理解图片或者视频中的内容,在这方面,人工智能已经达到了3岁儿童的智力水平。这是一个很了不起的成就,毕竟人工智能用了几十年的时间,就走完了人类几十万年的进化之路,并且还在加速发展。 道路总是曲折的,也是有迹可循的。在尝试了其它方法之后,计算机视觉在仿生学里找到了正确的道路(至少目前看是正确的)。通过研究人类的视觉原理,计算机利用深度神经网络(Deep Neural Network,NN)实现了对图片的识别,包 括文字识别、物体分类、图像理解等。在这个过程中,神经元和神经网络模型、大数据技术的发展,以及处理器(尤其是GPU)强大的算力,给人工智能技术 的发展提供了很大的支持。 本文是一篇学习笔记,以深度优先的思路,记录了对深度学习(Deep Learning)的简单梳理,主要针对计算机视觉应用领域。 一、神经网络 1.1 神经元和神经网络 神经元是生物学概念,用数学描述就是:对多个输入进行加权求和,并经过激活函数进行非线性输出。 由多个神经元作为输入节点,则构成了简单的单层神经网络(感知器),可以进行线性分类。两层神经网络则可以完成复杂一些的工作,比如解决异或问题,而且具有非常好的非线性分类效果。而多层(两层以上)神经网络,就是所谓的深度神经网络。 神经网络的工作原理就是神经元的计算,一层一层的加权求和、激活,最终输出结果。深度神经网络中的参数太多(可达亿级),必须靠大量数据的训练来“这是苹在父母一遍遍的重复中学习训练的过程就好像是刚出生的婴儿,设置。.果”、“那是汽车”。有人说,人工智能很傻嘛,到现在还不如三岁小孩。其实可以换个角度想:刚出生婴儿就好像是一个裸机,这是经过几十万年的进化才形成的,然后经过几年的学习,就会认识图片和文字了;而深度学习这个“裸机”用了几十年就被设计出来,并且经过几个小时的“学习”,就可以达到这个水平了。 1.2 BP算法 神经网络的训练就是它的参数不断变化收敛的过程。像父母教婴儿识图认字一样,给神经网络看一张图并告诉它这是苹果,它就把所有参数做一些调整,使得它的计算结果比之前更接近“苹果”这个结果。经过上百万张图片的训练,它就可以达到和人差不多的识别能力,可以认出一定种类的物体。这个过程是通过反向传播(Back Propagation,BP)算法来实现的。 建议仔细看一下BP算法的计算原理,以及跟踪一个简单的神经网络来体会训练的过程。

(完整版)深度神经网络全面概述

深度神经网络全面概述从基本概念到实际模型和硬件基础 深度神经网络(DNN)所代表的人工智能技术被认为是这一次技术变革的基石(之一)。近日,由IEEE Fellow Joel Emer 领导的一个团队发布了一篇题为《深度神经网络的有效处理:教程和调研(Efficient Processing of Deep Neural Networks: A Tutorial and Survey)》的综述论文,从算法、模型、硬件和架构等多个角度对深度神经网络进行了较为全面的梳理和总结。鉴于该论文的篇幅较长,机器之心在此文中提炼了原论文的主干和部分重要内容。 目前,包括计算机视觉、语音识别和机器人在内的诸多人工智能应用已广泛使用了深度神经网络(deep neural networks,DNN)。DNN 在很多人工智能任务之中表现出了当前最佳的准确度,但同时也存在着计算复杂度高的问题。因此,那些能帮助DNN 高效处理并提升效率和吞吐量,同时又无损于表现准确度或不会增加硬件成本的技术是在人工智能系统之中广泛部署DNN 的关键。 论文地址:https://https://www.doczj.com/doc/6214550895.html,/pdf/1703.09039.pdf 本文旨在提供一个关于实现DNN 的有效处理(efficient processing)的目标的最新进展的全面性教程和调查。特别地,本文还给出了一个DNN 综述——讨论了支持DNN 的多种平台和架构,并强调了最新的有效处理的技术的关键趋势,这些技术或者只是通过改善硬件设计或者同时改善硬件设计和网络算法以降低DNN 计算成本。本文也会对帮助研究者和从业者快速上手DNN 设计的开发资源做一个总结,并凸显重要的基准指标和设计考量以评估数量快速增长的DNN 硬件设计,还包括学界和产业界共同推荐的算法联合设计。 读者将从本文中了解到以下概念:理解DNN 的关键设计考量;通过基准和对比指标评估不同的DNN 硬件实现;理解不同架构和平台之间的权衡;评估不同DNN 有效处理技术的设计有效性;理解最新的实现趋势和机遇。 一、导语 深度神经网络(DNN)目前是许多人工智能应用的基础[1]。由于DNN 在语音识别[2] 和图像识别[3] 上的突破性应用,使用DNN 的应用量有了爆炸性的增长。这些DNN 被部署到了从自动驾驶汽车[4]、癌症检测[5] 到复杂游戏[6] 等各种应用中。在这许多领域中,DNN 能够超越人类的准确率。而DNN 的出众表现源于它能使用统计学习方法从原始感官数据中提取高层特征,在大量的数据中获得输入空间的有效表征。这与之前使用手动提取特征或专家设计规则的方法不同。 然而DNN 获得出众准确率的代价是高计算复杂性成本。虽然通用计算引擎(尤其是GPU),已经成为许多DNN 处理的砥柱,但提供对DNN 计算更专门化的加速方法也越来越热门。本文的目标是提供对DNN、理解DNN 行为的各种工具、有效加速计算的各项技术的概述。 该论文的结构如下:

深度神经网络及目标检测学习笔记

深度神经网络及目标检测学习笔记 https://youtu.be/MPU2HistivI 上面是一段实时目标识别的演示,计算机在视频流上标注出物体的类别,包括人、汽车、自行车、狗、背包、领带、椅子等。 今天的计算机视觉技术已经可以在图片、视频中识别出大量类别的物体,甚至可以初步理解图片或者视频中的内容,在这方面,人工智能已经达到了3岁儿童的智力水平。这是一个很了不起的成就,毕竟人工智能用了几十年的时间,就走完了人类几十万年的进化之路,并且还在加速发展。 道路总是曲折的,也是有迹可循的。在尝试了其它方法之后,计算机视觉在仿生学里找到了正确的道路(至少目前看是正确的)。通过研究人类的视觉原理,计算机利用深度神经网络(DeepNeural Network,NN)实现了对图片的识别,包括文字识别、物体分类、图像理解等。在这个过程中,神经元和神经网络模型、大数据技术的发展,以及处理器(尤其是GPU)强大的算力,给人工智能技术的发展提供了很大的支持。 本文是一篇学习笔记,以深度优先的思路,记录了对深度学习(Deep Learning)的简单梳理,主要针对计算机视觉应用领域。 一、神经网络 1.1 神经元和神经网络 神经元是生物学概念,用数学描述就是:对多个输入进行加权求和,并经过激活函数进行非线性输出。 由多个神经元作为输入节点,则构成了简单的单层神经网络(感知器),可以进行线性分类。两层神经网络则可以完成复杂一些的工作,比如解决异或问题,而且具有非常好的非线性分类效果。而多层(两层以上)神经网络,就是所谓的深度神经网络。 神经网络的工作原理就是神经元的计算,一层一层的加权求和、激活,最终输出结果。深度神经网络中的参数太多(可达亿级),必须靠大量数据的训练来设置。训练的过程就好像是刚出生的婴儿,在父母一遍遍的重复中学习“这是苹

深度残差网在图像分类上的应用(Deep Residual Learning for Image Recognition”)

深度残差网学习在图像分类上的应用 何凯明张翔宇任少卿孙剑 微软研究院 {kahe, v-xiangz, v-shren,jiansun}@https://www.doczj.com/doc/6214550895.html, 摘要 当前,深度神经网络比普通神经网络更难训练。我们提出了一种减轻网络训练负担的残差学习框架,这种网络比以前使用过的网络本质上层次更深。我们明确地重定义这层为学习输入层相关的残差函数,而不是学习未知的函数。同时,我们提供了全面经验数据,这些数据证明残差网络更容易优化,并且可以从深度增加中大大提高精度。我们在ImageNet数据集用152 层--比VGG网络[41]深8倍的深度神经网络来评估残差网络,但它仍具有较低的复杂度。在ImageNet测试集中,这些残差网络整体达到了3.57%的误差。该结果在2015年大规模视觉识别挑战赛分类任务中赢得了第一。此外,我们还用了100到1000层深度分析了的CIFAR-10。 对于大部分视觉识别任务,深度表示是非常重要的。正式由于使用极深的表示,在COCO对象检查数据集上,我们就得到了近28%相关的改进。深度残差网络是我们提交给ILSVRC和COCO2015竞赛[1]的基础,而且在ImageNet检测任务,ImageNet定位,COCO检测和COCO分割等领域赢我们也都获得了第一。 1. 简介 深度卷积网络[21,22]引领了一系 列图像分类上的突破[21,50,40]。深度网络通过层的叠加(深度),自然而然的以一种端到端的多层模式集成了低/中/高级的特征[50]和分类器,并且特征的―水平‖都能变得更加丰富。最近证据[41,44]表明网络深度非常重要,并且ImageNet数据集[36]挑战赛中领先的结果[41,44,13,16]都是在探索―很 深‖[41]的模型,这些模型从16层[41]到30层[16]。许多其他的重大的视觉识别任务[8,12,7,32,27]也都从深度模 型中获益良多。 在深度的意义驱使下,一个问题出现了:学习更好的网络是不是和叠加层数一样容易呢?解决这个问题的一个障碍就是那个重名昭著的梯度消失/爆炸[1,9]问题,他从一开始就阻碍了网络的收敛。然而,这个问题很大程度上被归一的初始化[23,9,37,13]和中间层归一化[16]解决了,它们确保数10层的网络开始用反向传播算法以随机梯度下降(SGD)的方式收敛[22]。 当更深的网络能够开始收敛时,降级问题的问题开始出现:随着网络深度的增加,精准度开始饱和(这并不令人吃惊),然后迅速下降。预料之外的是,在[11,42]中报道并且经过我们实验验证发现,精准度的下降并不是由过度拟合造成的,而且在合适的深度模型中增加更多的层数,会造成更高的训练误差。图1展示了一个经典的实例。 图1 CIFAR-10数据集上的20层和56层的―平‖网络的训练误差(左)和测试误差(右)。更深的网络有更高的训练误差和测试误差,图4显示了在ImageNet也有相似的现象(在训练集上精度)降级显示并不是所有的系统都容易去优化。我们考 虑一个较浅的体系结构与在深度增加

(完整word版)深度学习-卷积神经网络算法简介

深度学习 卷积神经网络算法简介 李宗贤 北京信息科技大学智能科学与技术系 卷积神经网络是近年来广泛应用在模式识别、图像处理领域的一种高效识别算法,具有简单结构、训练参数少和适应性强的特点。它的权值共享网络结构使之更类似与生物神经网络,降低了网络的复杂度,减少了权值的数量。以二维图像直接作为网络的输入,避免了传统是被算法中复杂的特征提取和数据重建过程。卷积神经网络是为识别二维形状特殊设计的一个多层感知器,这种网络结构对于平移、比例缩放、倾斜和其他形式的变形有着高度的不变形。 ?卷积神经网络的结构 卷积神经网络是一种多层的感知器,每层由二维平面组成,而每个平面由多个独立的神经元组成,网络中包含一些简单元和复杂元,分别记为C元和S元。C元聚合在一起构成卷积层,S元聚合在一起构成下采样层。输入图像通过和滤波器和可加偏置进行卷积,在C层产生N个特征图(N值可人为设定),然后特征映射图经过求和、加权值和偏置,再通过一个激活函数(通常选用Sigmoid函数)得到S层的特征映射图。根据人为设定C层和S层的数量,以上工作依次循环进行。最终,对最尾部的下采样和输出层进行全连接,得到最后的输出。

卷积的过程:用一个可训练的滤波器fx去卷积一个输入的图像(在C1层是输入图像,之后的卷积层输入则是前一层的卷积特征图),通过一个激活函数(一般使用的是Sigmoid函数),然后加一个偏置bx,得到卷积层Cx。具体运算如下式,式中Mj是输入特征图的值: X j l=f?(∑X i l?1?k ij l+b j l i∈Mj) 子采样的过程包括:每邻域的m个像素(m是人为设定)求和变为一个像素,然后通过标量Wx+1加权,再增加偏置bx+1,然后通过激活函数Sigmoid产生特征映射图。从一个平面到下一个平面的映射可以看作是作卷积运算,S层可看作是模糊滤波器,起到了二次特征提取的作用。隐层与隐层之间的空间分辨率递减,而每层所含的平面数递增,这样可用于检测更多的特征信息。对于子采样层来说,有N 个输入特征图,就有N个输出特征图,只是每个特征图的的尺寸得到了相应的改变,具体运算如下式,式中down()表示下采样函数。 X j l=f?(βj l down (X j l?1) +b j l)X j l) ?卷积神经网络的训练过程 卷积神经网络在本质上是一种输入到输出的映射,它能够学习大量的输入和输出之间的映射关系,而不需要任何输入和输出之间的精确数学表达式。用已知的模式对卷积网络加以训练,网络就具有了输

深度神经网络语音识别系统快速稀疏矩阵算法

深度神经网络语音识别系统快速稀疏矩阵算法 一. 背景 1.1语音识别、深度神经网络与稀疏矩阵运算 深度神经网络(DNN)已经广泛应用在当代语音识别系统中,并带来识别率的极大提高。一个典型的深度神经网络如图1所示,其中包含一个输入层,多个隐藏层,一个输出层,每层有若干个结点,每个结点的输入由前一层的结点的输出经过线性叠加得到,并通过一个线性或非线性的激励函数,形成该结点的输出。 图1 DNN结构 在进行语音识别系统模型训练和识别时,语音数据被分成短时语音帧,这些语音帧经过信号处理之后形成一系列语音特征向量,输入到DNN的输入层,经过神经网络的各个隐藏层,最后进入输出层,形成识别器可用的概率值。 可见,在进行DNN操作时,主要计算为输入向量在整个神经网络的前向传导。这些传导运算可以抽象为矩阵运算。具体而言,将第t层结点的所有结点输出表示成一个向量OU t ,将第t层到第t+1层之间的网络联接系数表示成A t, 则第t+1层结点的输入IN t+1可以表示成IN t+1 = A t x OU t 其输出表示为OU t+1 = f (IN t), 其中f为激励函数。 当前语音识别系统中所用的神经网络一般为5-10层,每层结点数为1000到10000,这意味着网络矩阵A t 相当庞大,带来巨大的计算压力。如何快速进行矩阵运算,是一个急需解决的问题。 稀疏矩阵为减小计算量提供了可能。通过将矩阵中绝大部分元素置零,一方面可以节约随储空间,同时可以极大减小计算总量。然则,稀疏矩阵本身的存储和数据索取都需要相应的空间和时间,简单对矩阵依其元素值的大小进行稀疏化并不会提高计算效率。本发明提出一种通过改变稀疏矩阵的拓朴结构对稀疏矩阵进行快速计算的方法。 在下文中的背景知中,我们将简单的介绍一下稀疏矩阵的存储方式和对拓朴结构进行修正过程中需要用到的遗传算法。

深度神经网络

1. 自联想神经网络与深度网络 自联想神经网络是很古老的神经网络模型,简单的说,它就是三层BP网络,只不过它的输出等于输入。很多时候我们并不要求输出精确的等于输入,而是允许一定的误差存在。所以,我们说,输出是对输入的一种重构。其网络结构可以很简单的表示如下: 如果我们在上述网络中不使用sigmoid函数,而使用线性函数,这就是PCA模型。中间网络节点个数就是PCA模型中的主分量个数。不用担心学习算法会收敛到局部最优,因为线性BP网络有唯一的极小值。

在深度学习的术语中,上述结构被称作自编码神经网络。从历史的角度看,自编码神经网络是几十年前的事情,没有什么新奇的地方。 既然自联想神经网络能够实现对输入数据的重构,如果这个网络结构已经训练好了,那么其中间层,就可以看过是对原始输入数据的某种特征表示。如果我们把它的第三层去掉,这样就是一个两层的网络。如果,我们把这个学习到特征再用同样的方法创建一个自联想的三层BP网络,如上图所示。换言之,第二次创建的三层自联想网络的输入是上一个网络的中间层的输出。用同样的训练算法,对第二个自联想网络进行学习。那么,第二个自联想网络的中间层是对其输入的某种特征表示。如果我们按照这种方法,依次创建很多这样的由自联想网络组成的网络结构,这就是深度神经网络,如下图所示:

注意,上图中组成深度网络的最后一层是级联了一个softmax分类器。 深度神经网络在每一层是对最原始输入数据在不同概念的粒度表示,也就是不同级别的特征描述。 这种层叠多个自联想网络的方法,最早被Hinton想到了。 从上面的描述中,可以看出,深度网络是分层训练的,包括最后一层的分类器也是单独训练的,最后一层分类器可以换成任何一种分类器,例如SVM,HMM等。上面的每一层单独训练使用的都是BP算法。相信这一思路,Hinton早就实验过了。 2. DBN神经网络模型 使用BP算法单独训练每一层的时候,我们发现,必须丢掉网络的第三层,才能级联自联想神经网络。然而,有一种更好的神经网络模型,这就是受限玻尔兹曼机。使用层叠波尔兹曼机组成深度神经网络的方法,在深度学习里被称作深度信念网络DBN,这是目前非

大数据分析的深度神经网络方法

章毅 四川大学计算机学院2016.03.25 重庆

提纲 大数据简介 大脑新皮层的神经网络结构 大脑新皮层神经网络的记忆 大数据分析GPU深度神经网络计算平台

大数据商业应用诞生 全世界兴起大数据分布式存储与并行计Google Brain 计划,激起大规模神经网络在深度神经网络在语音大数据、图像大数据领域接连取得巨大突破 G. E. Hinton 教授在《Science 》发表文章,基于深度神经网络的大数据分析方法在学术界和工工信部白皮书指出:大数据分析是大数据研究的重要环节,其中大数据分“大数据” 一词诞生 2000 1997 2004 2006 2011 2012 2014 2015 我国大数据产业兴起 2013 美国奥巴马政府发布了大数据计划,将大数据战略上升为美国国家意志 国务院发布大数据发展行动纲要,大数据正式上升为我国国家意志

体量浩大Volume 多源异构Variety 生成快速Velocity 价值稀疏Value 大数据的基本特点大数据的目标实现大数 据转换为 价值 大数据的概念 问题:怎样实现大数据的目标?

大数据 关键技术 价值 大数据分析是大数据转化为价值的桥梁 问题:怎样设计大数据分析方法? 展示平台 ?大数据知识展示 ?大数据产品 数据平台 ?大数据采集,标记 ?大数据存储,管理 大数据分析是大数据转 换为价值的最重要的环 节,否则,大数据仅仅 是一堆数据而已。

?每秒信息传递和交换1000亿次,PB 级数据 ?同步处理声音、温度、气味、图像等数据 ?50亿本书的存储容量 ?每秒人眼数据量140.34GB ? 在识别、判断、预测等智能行为方面展现出十分强大的能力 ?优秀的大数据处理器 人类大脑是天然的大数据处理器! 进入大脑的信息被编码为某种数据,进而由大脑神经网络处理

【CN109977794A】一种用深度神经网络进行人脸识别的方法【专利】

(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 201910164908.9 (22)申请日 2019.03.05 (71)申请人 北京超维度计算科技有限公司 地址 100142 北京市海淀区西四环北路160 号9层一区907 (72)发明人 张心宇 张颢 向志宏 杨延辉  (74)专利代理机构 北京亿腾知识产权代理事务 所(普通合伙) 11309 代理人 陈霁 (51)Int.Cl. G06K 9/00(2006.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种用深度神经网络进行人脸识别的方法 (57)摘要 本发明涉及一种用深度神经网络进行人脸 识别的方法,其特征在于,包括以下步骤:通过第 一相机采集人脸区域的2D RGB图片,以及通过第 二相机实时采集人脸区域的3D点云;对于采集的 2D RGB图片进行脸部区域的截取和缩放,减少距 离的影响;对于采集的3D点云,投影到二维平面, 用灰度信息代替深度信息,形成二维深度图;并 进行脸部区域的截取;将截取过的D2D RGB图片 输入到2D特征提取网络,以及将截取过的脸部区 域二维深度图输入3D特征提取网络,进行特征向 量提取;根据提取的特征向量,结合环境信息进 行人脸识别。本发明结合2D和3D人脸识别技术, 既保证了正常使用情况(正脸无遮挡)下的正确 率,又提高了系统应对恶劣使用条件下的鲁棒性 和系统的安全性。权利要求书1页 说明书4页 附图2页CN 109977794 A 2019.07.05 C N 109977794 A

神经网络算法的应用

神经网络算法的应用 别以为名字中带“网络”二字,神经网络就是一种设备,事实上神经网络是一种模拟人脑结构的算法模型。其原理就在于将信息分布式存储和并行协同处理。虽然每个单元的功能非常简单,但大量单元构成的网络系统就能实现非常复杂的数据计算,并且还是一个高度复杂的非线性动力学习系统。1 神经网络的结构更接近于人脑,具有大规模并行、分布式存储和处理、自组织、自适应和自学能力。神经网络的用途非常广泛,在系统辨识、模式识别、智能控制等领域都能一展身手。而现在最吸引IT巨头们关注的就是神经网络在智能控制领域中的自动学习功能,特别适合在需要代入一定条件,并且信息本身是不确定和模糊的情况下,进行相关问题的处理,例如语音识别。 神经网络的发展史 神经网络的起源要追溯到上世纪40年代,心理学家麦克库罗克和数理逻辑学家皮兹首先提出了神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。因而,他们两人就是神经网络研究的先驱。随着计算机的高速发展,人们以为人工智能、模式识别等问题在计算机面前都是小菜一碟。再加上当时电子技术比较落后,用电子管或晶体管制作出结构复杂的神经网络是完全不可能的,所以神经网络的研究一度陷于低潮当中。到了20世纪80年代,随着大规模集成电路的发展,让神经网络的应用成为了可能。而且人们也看到了神经网络在智能控制、语音识别方面的潜力。但是这一技术的发展仍然缓慢,而硬件性能的发展以及应用方式的变化,再加上谷歌、微软、IBM等大公司的持续关注,神经网络终于又火了起来。本该在上世纪80年代就出现的诸多全新语音技术,直到最近才与我们见面,神经网络已经成为最热门的研究领域之一。 机器同声传译成真 在国际会议上,与会人员来自世界各地,同声传译就成了必不可少的沟通方式。但是到目前为止,同声传译基本上都是靠人来完成的,译员在不打断讲话者演讲的情况下,不停地将其讲话内容传译给听众。用机器进行同声传译,这个往往只出现在科幻电影中的设备,却成为了现实。 在2012年底天津召开的“21世纪的计算-自然而然”大会上,微软研究院的创始人里克·雷斯特在进行主题演讲时,展示了一套实时语音机器翻译系统。这个系统在里克.雷斯特用英文演讲时,自动识别出英文字词,再实时翻译成中文,先在大屏幕上显示出来,同时用电脑合成的声音读出。最令人惊奇的是,与常见的合成语音声调非常机械不同。在演示之前,雷斯特曾经给这套系统输入过自己长达1个多小时的录音信息,所以由电脑合成的中文语音并不是机械声,而是声调听上去和雷斯特本人一致。 这套实时语音机器翻译系统就是基于神经网络算法,由微软和多伦多大学历时两年共同研发。这个被命名为“深度神经网络”的技术,模仿由不同层次神经元构成的人脑,组成一个多层次的系统。整个系统共分为9层,最底层用来学习将要进行分析的语音有哪些特征,上一层就将这些分析进行组合,并得出新的分析结果,这样经过多次分析处理之后,增加识别的准确性。而最上面的一层用来分析出听到的声音究竟是哪个音组,再通过和已注明音组的语音库里的数据进行比对,从而将正确的结果反馈出来。经过如此复杂精密的处理之后,系统对于语音的识别能力就会有显着的提升,其性能优于以往的办法。 根据微软的测试,运用了这种“深度神经网络”技术的实时语音翻译器,相比旧系统出错率至少降低30%,最好的情况下能达到8个单词仅错1个,这是一个非常不错的成绩了。这个实时语音翻译器已经能支持包括普通话在内的26种语言,不过这个实时语音翻译器目前还不成熟,使用之前必须先在系统中输入1个小时以上的音频资料,让系统识别发言人声

深度神经网络的关键技术及其在自动驾驶领域的应用

ISSN 1674-8484 CN 11-5904/U 汽车安全与节能学报, 第10卷第2期, 2019年 J Automotive Safety and Energy, Vol. 10 No. 2, 2019 1/13 119—145 深度神经网络的关键技术及其在自动驾驶领域的应用 李升波1,关?阳1,侯?廉1,高洪波1,段京良2,梁?爽3,汪?玉3,成?波1, 李克强1,任?伟4,李?骏1 (1. 清华大学车辆与运载学院,北京100084,中国;2. 加州大学伯克利分校机械系,加州 94720,美国; 3. 清华大学电子工程系,北京100084,中国; 4. 加州大学河滨分校电子计算机系,加州92521,美国) 摘?要:?智能化是汽车的三大变革技术之一,深度学习具有拟合能力优、表征能力强和适用范围广的 特点,是进一步提升汽车智能性的重要途径。该文系统性总结了用于自动驾驶汽车的深度神经网络(DNN)技术,包括发展历史、主流算法以及感知、决策与控制技术应用。回顾了神经网络的历史及现状, 总结DNN的“神经元-层-网络”3级结构,重点介绍卷积网络和循环网络的特点以及代表性模型; 阐述了以反向传播(BP)为核心的深度网络训练算法,列举用于深度学习的常用数据集与开源框架,概 括了网络计算平台和模型优化设计技术;讨论DNN在自动驾驶汽车的环境感知、自主决策和运动控 制3大方向的应用现状及其优缺点,具体包括物体检测和语义分割、分层式和端到端决策、汽车纵 横向运动控制等;针对用于自动驾驶汽车的DNN技术,指明了不同问题的适用方法以及关键问题的 未来发展方向。 关键词:?智能汽车;自动驾驶;深度神经网络(DNN);深度学习;环境感知;自主决策;运动控制 中图分类号:?TP 18;U 463.6 文献标志码:?A DOI:?10.3969/j.issn.1674-8484.2019.02.001 Key technique of deep neural network and its applications in autonomous driving LI Shengbo1, GUAN Yang1, HOU Lian1, GAO Hongbo1, DUAN Jingliang2, LIANG Shuang3, WANG Yu3, CHENG Bo1, LI Keqiang1, REN Wei4, LI Jun1 (1. School of Vehicle and Mobility, Tsinghua University, Beijing 100084, China; 2. Mechanical Engineering, University of California Berkeley, Berkeley, CA 94720, USA; 3. Electronic Engineering, Tsinghua University, Beijing 100084, China; 4. Electrical and Computer Engineering, University of California Riverside, Riverside, CA 92521, USA) Abstract: Autonomous driving is one of the three major innovations in automotive industry. Deep learning is a crucial method to improve automotive intelligence due to its outstanding abilities of data fitting, feature representation and model generalization. This paper reviewed the technologies of deep neural network (DNN) 收稿日期?/?Received?:?2019-01-19。 基金项目?/?Supported?by?: “十三五”国家重点研发计划(2016YFB0100906);国家自然科学基金面上项目(51575293);国家自然科学基金优秀青年科学基金项目(U1664263);国家自然科学基金重点项目(51622504);北京市自然科学基金杰出青 年科学基金项目(JQ18010);汽车安全与节能国家重点实验室开放基金课题(KF1828)。 第一作者?/?First?author?:?李升波(1982—),男(汉),山东,副教授。E-mail: lishbo@https://www.doczj.com/doc/6214550895.html,。

基于SVD裁剪的深度神经网络压缩技术研究与实现

基于SVD裁剪的深度神经网络压缩技术研究与实现近年来,深度学习算法在解决抽象认知问题上展现了强大的建模 能力,并在音频事件检测与音频场景分类任务中显著的提高了性能。 因此深度学习算法受到了学术界的广泛青睐。深度学习算法强大的建模能力得益于较深的网络结构,较多的神经元和层数。因此,一些神经网络的参数量达到数百万甚至数十亿。利用处理器计算大规模神经网络需要消耗很大的计算资源,对处理器的计算能力提出了严苛的要求。本文为了减少深度神经网络参数量,研究基于SVD裁剪的深度神经网 络压缩方法,以达到压缩深度神经网络的目的。本文首先提出基于SVD 的全连接神经网络的裁剪方法。矩阵相乘是全连接神经网络最主要的计算方式,网络中参数主要集中在权重矩阵中。对于全连接神经网络 裁剪,本文利用SVD分解将一个大权重矩阵裁剪为两个小矩阵的乘积,并利用两个小矩阵重构原始的网络结构,减少网络中的参数量以达到 简化全连接神经网络的目的。在基于全连接神经网络的DCASE2016稀有音频事件检测任务上,该方法可以保留4.35%参数量时,而网络的精度仅仅下降了3%。对于卷积神经网络,本文提出了基于SVD分解的卷积层通道的裁剪方法,利用矩阵分解减少卷积层中特征图的数量,以 达到减少卷积神经网络中的参数量的目的。利用矩阵分解的方法分别压缩原卷积层的输入通道和输出通道,并重构新的卷积层,将原始卷 积层分解为三个小卷积层,使得组合之后的卷积层比原始卷积层具有 更少的参数。应用在基于GCRNN的DCASE2018声学场景分类任务上, 该方法可以保留原卷积层10.76%参数量,而网络的精度仅仅下降了

0.34%。对于循环神经网络的压缩,本文主要研究了GRU的SVD裁剪方法,主要思想是将GRU的更新门和重置门中的各个权重矩阵进行分解,从而减少网络整体的参数量。在矩阵分解之后,本文利用权重共享方法减少裁剪之后的更新门与重置门中的权重矩阵,从而进一步减少GRU中的参数量。利用裁剪之后的权重矩阵以及共享矩阵重构新的GRU网络。应用在基于GCGRU的声学场景分类任务上,该方法可以保留GRU层23.00%参数量,而网络的精度仅仅下降了0.55%。为了分析SVD能有效裁剪神经网络的原因,本文定义了权重活跃度,即如果权重参数的绝对值大于设定阈值所占的比例。通过分析SVD裁剪全连接神经网络、卷积神经网络和循环神经网络,本文发现SVD裁剪是通过增加神经网络权重活跃度来保持模型的性能。

深度神经网络带来的影响

深度神经网络带来的影响 人工智能近几年实现了爆炸式发展,深度学习可以说是其主要的推动力。 在计算机视觉领域,大部分的问题都已经开始使用深度神经网络进行解决,也确实取得了广泛的成功。在很多视觉任务中,如图像识别、语义分割、目标检测与跟踪、图像检索等,作为提取特征的CNN网络模型往往起到了关键的作用。我们经常见到最新的方法将基础网络换一下,性能就会得到很大的提升。因此,研究并设计一个更好的网络模型变得至关重要。 基础网络模型的结构样例最新研究进展经典的神经网络模型主要在宽度与深度方面进行不同程度的扩增。借助于大规模数据的训练,AlexNet、VGG-16、VGG-19等经典网络通过宽度或深度增加的参数可以有效地提升其模型的表达能力。但当网络变得越来越深,其训练难度也随之相应增加,反而会导致性能的下降。最近的ResNet和Highway Networks 等方法通过引入Skip跳跃结构来试图解决极深网络在优化上带来的问题。 ResNet和Highway Networks结构的简单示意图 最新的一些研究尝试从其他角度来解释Highway、ResNet和GoogLeNet等网络结构表现优异的原因。其中我在微软实习的导师王井东研究员、实习生魏祯和张婷以及曾文君研究员提出Deep Fusion (Jingdong Wang,Zhen Wei,TIng Zhang,Wenjun Zeng:Deeply-Fused Nets. CoRR abs/1605.07716 (2016))深度融合的概念,认为不同分支的网络在中间层进行融合(加和或拼接等方式)能够(1)产生很多潜在的共享参数的基础网络,(2)同时优化信息的流动,(3)从而帮助深层网络的训练过程。 Deep Fusion深度融合最简单形式的概念示意图 我们可以发现很多有代表性的网络结构基本都可以按照深度融合的概念进行理解。除去LeNet、AlexNet、VGGNet等单分支网络,近两年提出的ResNet、Highway Networks、

相关主题
文本预览
相关文档 最新文档