当前位置: 首页 > news >正文

网站滚动图片怎么做旅游景点推广软文

网站滚动图片怎么做,旅游景点推广软文,东莞凤岗做网站,包头做网站公司深度学习网络组件 RNN公式讲解计算示意图讲解 CNN计算示意 Normalization(归一化层)Normalization常见两种方式 Dropout层 RNN 循环神经网络(recurrent neural network) 主要思想: 即将整个序列划分成多个时间步,将每一个时间步的…

深度学习网络组件

  • RNN
    • 公式讲解
    • 计算示意图讲解
  • CNN
    • 计算示意
  • Normalization(归一化层)
    • Normalization常见两种方式
  • Dropout层

RNN

循环神经网络(recurrent neural network)
主要思想: 即将整个序列划分成多个时间步,将每一个时间步的信息依次输入模型,同时将模型输出的结果传给下一个时间步。

说人话: 将一句话,划分为一个个的字或者词;然后将这句话拆分的字,一个个的按照顺序输入进行计,从第一个字开始计算的结果加入到第二个字的计算中,依次类推,最后一个字计算完成时,我们认为它包含了前面所有字的特征信息。

举例: “你个扑该!” 就会拆分成五份,先将“你”进行计算,得到结果,然后加入“个”,进行计算;最后计算完成“!”时,得到的值,我们认为已经包含前面整句话的特征语义了。

公式讲解

RNN的计算公式如下图:
在这里插入图片描述
释义:

1.tanh是激活函数
2.其中x是输入的值,t代表次数或者步数
3.h代表计算值,t-1代表前一次,即代表前一个输入的字符的计算值
4.所以公式中可以进行计算的权重参数即为:b、W、U

计算示意图讲解

在这里插入图片描述
如果输入的256维,要求输出为128维,我们分析各个部分的维度情况

1.由于将句子进行拆分了,所以每一个X肯定是:1x256
2.因为输出要求128维,所以U肯定是:256x128
3.h要能够和计算值相加,所以是:1x128
4.w要和h能够相乘得到128维结果,所以w:128x128
5.b要能够相加,则b: 1x128
通过上述的逻辑,我们就能够清楚的知道,模型的内部有多少可训练的权重参数

CNN

卷积神经网络(Convolutional Neural Network)
主要思想: 和CNN类似,对于图片或是视频类的数据,更多的是像素点,我们通过设定卷积核的大小,作为一个特征提取词,每次通过上下移动一步,将范围内的像素特征进行提取。

计算示意

如图:第一步
在这里插入图片描述
第二步:
在这里插入图片描述
释义

1.上面的图片中,黄色部分就是我们的卷积核
2.绿色就是我们的图片像素点位,转为数字表达的信息
3.红色就是我们提取处理的特征,池化的结果
4.其中黄色部分,每个点位相乘的下标数据,就是我们模型需要计算的权重,这个权重和图谱的对应点位进行相乘,结果相加就是我们提取的值
注意:上面介绍的是一种普通的卷积方法,卷积还要膨胀卷积等
注意2:卷积同样可以用于NLP,再NLP中卷积的移动方向只有上下两个

Normalization(归一化层)

释义: 对于神经网络模型,我们需要经过多层的计算,那么某一层的某个参数过大或者过小都会导致梯度的膨胀和消失;为了避免这个问题,我们使用Normalization将某一层的神经网络输出,给收缩到一个范围内,避免上述的问题

公式:
在这里插入图片描述

释义:

1.公式1表示对任意一层的输出进行求平均
2.公式2求该输出的方差
3.公式3通过方差、均值,可以将输出值分布收缩到一个小的范围
4.公式4中:β和γ需要学习的参数,Y才是归一化层的输出;目的是为了减少归一化所造成的数据中特征的损失

Normalization常见两种方式

如图:
在这里插入图片描述
释义:

1.左右两种normalization主要是对输出的向量的求平均和方差的方向不同,一个是batch样本之间;一个是样本内进行
2.batch normalization主要用于CV任务中,因为是归一化在样本间,图像我们考虑两张类似的图片存在一些相似性和关系
3.layer normalization主要是用于NLP任务中,求的是样本间的,因为我们认为,语言的差异较大,两句话间相似性小
注意:归一化层不是只有上述的操作,还有其他的类型,目的都一致,约束

Dropout层

作用: 减少过拟合
逻辑: 按照指定的概率,随机丢弃一些神经元,每一个神经元都按照这个概率去判断一下,要不要丢弃,即将对应位置值设为0;其余元素乘以1/(1-p)进行放大

案例说明: 有一个向量[1,2,3,4,5,6],经过p=0.5的dropout层,得到的结果可能为:[0,4,0,0,0,12]。

理解说明

1.强迫一个神经单元,和随机挑选出来的其他神经单元共同工作,消除减弱了神经元节点间的联合适应性,增强了泛化能力
2.可以看做是一种模型平均,由于每次随机忽略的隐层节点都不同,这样就使每次训练的网络都是不一样的,每次训练都可以单做一个“新”的模型

类比说明: 养了一群娃;目的是能够在社会上叱咤风云,为了避免在训练阶段,即读书阶段成为书呆子,让他们每个人都去跳崖,这个跳崖的死亡率(p)我们可以设置;嘎掉的娃,我们就把他们的高考成绩打0分;没有噶掉的就把分数进行1/(1-p)放大,奖励;这样就避免,其中某个孩子王的影响了,每一个娃都会是强者。

http://www.khdw.cn/news/35671.html

相关文章:

  • 合肥高端网站建设cnfg星巴克seo网络推广
  • 社交网站可以做亚马逊联盟吗武汉seo托管公司
  • 禹州市城乡建设局网站seo的基本工作内容
  • 江西网站建设合肥网站优化推广方案
  • 怎么在国外网站做推广女生做sem专员的工作难吗
  • wordpress博客登陆百度seo怎么做
  • 关于政府网站建设建议成都seo的方法
  • 如何去掉wordpress文章标题与内容之间的日期和作者长春关键词优化排名
  • 单位做网站资料需要什么软件最好用的搜索引擎
  • 中国企业500强标准网站seo主要是做什么的
  • 设计logo网站推荐seo培训学什么
  • 文化馆网站数字化建设介绍平台app如何推广
  • 政府网站制作建设百度搜索引擎排名规则
  • 网站开发源代码修改石家庄百度搜索引擎优化
  • 做棋牌开发的网站seo推广公司教程
  • 淘宝客网站开发平台优化一个网站需要多少钱
  • 成都私人做网站网络营销八大工具
  • 关于企业网站建设的请示百度公司是国企还是私企
  • 单页网站有哪些抖音关键词优化排名靠前
  • 哪个网站可以查建筑公司资质西安seo代运营
  • 成都哪里有做网站的哪里可以学网络运营和推广
  • 电子商务网站开发费用网站做seo教程
  • 郑州汽车网站建设哪家好百度手机端排名如何优化
  • 做网站搞流量全国教育培训机构平台
  • 福建省高速公路建设管理网站广东做seo的公司
  • 茶叶网站建设方案业务推广网站
  • java做独立网站爬虫sem营销
  • 荣耀手机商城官方网seo长沙
  • 最优网络做网站怎么样优化工作流程
  • 墨刀做网站网页电脑速成班短期电脑培训班