《计算机视觉课件》课件1210v1-4.pptx
《《计算机视觉课件》课件1210v1-4.pptx》由会员分享,可在线阅读,更多相关《《计算机视觉课件》课件1210v1-4.pptx(40页珍藏版)》请在文字多文库上搜索。
1、目录,背景介绍,Contents,章节概述,小节介绍,本章总结,背景介绍,BACKGROUND,机器学习背景介绍及神经网络结构与功能简介,ONE,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。其专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,其主要使用归纳、综合而不是演绎。,机器学习背景,最近十多年来,神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、
2、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题。在计算机视觉领域,神经网络作为深度学习模型的基础,在本章节将进行详细介绍。,神经网络的用途,背 景 介 绍,神经网络(Neural Network,即NN)此处指的是人工神经网络,属于机器学习方法中的一个分支,是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。,神经网络背景及结构,章节概述,CHAPTER OVERVIEW,本章节内容
3、简介及思维导图,TWO,本章将首先介绍神经网络的基础感知器模型的原理及激活函数相关内容,之后从原理及公式推导方面介绍神经网络的结构与前向传播及反向传播算法,最后在普通神经网络的基础之上,详细介绍卷积神经网络及循环神经网络的原理、结构、应用及演变模型。,本章简介,思维导图,章 节 概 述,小节介绍,SECTION INTRODUCTION,各小节内容详细讲解,THREE,深度学习始于神经网络,神经网络始于感知器。,4.1 感知器,感知器由Frank Rosenblatt在1957年第一次提出。,这种结构以一个向量作为输入,计算输入每一维度的值的线性组合,然后和一个阈值进行比对,高于阈值则输出1,
4、否则输出-1。简单来说就是加权求和,然后再和b进行比大小。,基本概念,感知器本质上就是一个仿射变换接一个非线性变换,激活函数,表示一个非线性变换。在机器学习领域,这种非线性变换通常被称为激活函数。,4.2 神经网络基础,输入层的向量传递到隐藏层之后,变成了一个四维向量,而这个三维向量到达输出层之后,最终变成二维。每一层的输出都和下一层所有的感知器输入相连,也就是通常所说的全连接(Fully Connected)。,W代表权值的总数,Pi代表第i层的感知器数量:,神经网络基础,最原始的输入层(x1,x2,x3)和4个不同感知器相连,这 4个感知器有2个输出,最终输出y1和y2。在这样一个经典的网
5、络结构中,输入层后面的一层叫隐藏层,因为通常在训练和使用的时候,其输出对使用者来说是不可见的,然后是输出层。,W代表权值的总数,Pi代表第i层的感知器数量:,神经网络基础,分层结构:如果把输入也当成一层,则每一层有一定数量的输出作为下一层的输入。从这个角度来说,可以把神经网络看作是对一个向量进行分步变换,每一层的输入向量经过这一层感知器变换之后,相当于变成了一个新的向量,并且新向量的维度等于这一层感知器单元的数量,这样一层层变换直到形成最后的输出。整个神经网络的作用就是一个向量x,经过了变换之后成了一个向量y而己。所以在这种经典的结构中,对于一个n层(包含输入层和输出层)的网络,权值的数目和神
6、经元数目的关系如下,当网络层数不多的时候,随着感知器单元数量的增加,权值数目是平方增加的趋势,4.3 前向传播与反向传播算法,随着神经网络的崛起而名声大噪的方法,假设上一层结点i,j,k,与本层的结点w有连接,结点w的计算方法就是通过上一层的i,j,k等结点以及对应的连接权值进行加权和运算,最终结果再加上一个偏置项(图中为了简单省略了),最后通过一个非线性函数(即激活函数),如ReLU,sigmoid等函数,得到的结果就是本层结点w的输出。最终通过逐层运算的方式,得到输出层结果。,前向传播算法,对于前向传播来说,不管维度多高,其过程都可以用如下公式表示:,前向传播算法,其中,上标代表层数,*表
7、示卷积,b表示偏置项bias,表示激活函数。,反向传播算法原理及推导,正向传播后:,反向传播:,最终结果:,更新权值:,链式推导:,4.4 卷积神经网络概述,计算机视觉核心网络。,卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网络由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层。这一结构使得卷积神经网络能够利用输入数据的二维结构,其中最早比较有名的卷积神经网络为LeNet-5。与其他深度学习结构相比,卷积神经网络在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进
8、行训练。相比较其他深度、前馈神经网络,卷积神经网络需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。,卷积神经网络概述,普通神经网络,卷积神经网络,卷积神经网络利用输入是图片的特点,把神经元设计成三个维度:width,height,depth(注意这个depth不是神经网络的深度,而是用来描述神经元的)。比如输入的图片大小是 32323(rgb),那么输入神经元就也具有32323的维度。一个卷积神经网络由很多层组成,它们的输入是三维的,输出也是三维的,有的层有参数,有的层则不需要参数。,卷积神经网络概述,4.5&4.6 卷积神经网络结构与组成,卷积神经网络通常包含以下几种层:(1)卷积
9、层:卷积神经网路中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。(2)线性整流层:这一层神经的活性化函数使用线性整流f(x)=max(0,x)。事实上,其他的一些函数也可以用于增强网络的非线性特性,如双曲正切函数f(x)=tanh(x),f(x)=|tanh(x)|,或者Sigmoid函数f(x)=(1+e(-x)(-1)。相比其它函数来说,线性整流函数更受青睐,这是因为它可以将神经网络的训练速度提升数倍,而并不会对
10、模型的泛化准确度造成显著影响。,卷积网络组成,(3)池化层:通常指在卷积层之后会得到维度很大的特征,将特征切成几个区域,取其最大值或平均值,得到新的、维度较小的特征。有多种不同形式的非线性池化函数,而其中“最大池化”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效地原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。除了最大池化之外,池化层也可以使用其他池化函数,例如“平均池化”甚至“L2-范数池化”等。(4)连接层:
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 计算机视觉课件 计算机 视觉 课件 1210 v1
