当前位置: 首页 > news >正文

国外大型购物网站全国新冠疫苗接种率

国外大型购物网站,全国新冠疫苗接种率,做电影网站被告版权,建设办理公积金网站预约一、传统RNN存在的问题 1.序列前序太长,每个xi要记住前面的特征,而且一直在学,没有忘记,可能特征不能学的太好 2.串行,层越多越慢,难以堆叠很多层; 3.只能看到过去,不能看到未来 搞…

一、传统RNN存在的问题

1.序列前序太长,每个xi要记住前面的特征,而且一直在学,没有忘记,可能特征不能学的太好

2.串行,层越多越慢,难以堆叠很多层;

3.只能看到过去,不能看到未来

搞个双向的,然后把两个方向学到的特征拼接,那么对于xi影响最大的是xi-1和xi+1吗?是相邻的两个吗,不一定,所以也不太合理

二、重大事件 

1.2017年 attention is all your need  出现,RNN退出历史舞台

2.2018 年 transformer  更空出世,bert 和GPT1 

transformer究竟是干什么的?通俗上说就是:1是平淡无奇的特征,2是特征鲜明的特征,transformer的功能就是把1输入进去,然后输出2.

没有transformer之前的算法  训练模型就是训练参数,更新参数,但是transformer不仅更新参数,还可以根据上下文信息更新数据,transformer站的高看的远,考虑全文

三. self-attention

假设x1,x2是两个向量,它们两个的关系就是算内积 ,x1.x2=0表示没关系,x1.x2=表示关系特别大。

transformer中 不是简单算内积,而是构建三个向量参数  q,k,v,q相当于问,k相当于答,比如词 thing ,mathines编码后的特征是x1,x2,则x1和x1的关系是 q1.k1,x1和x1的关系是 q1.k2,x2和x2的关系是 q2.k2,x2于x1的关系是 q2.k1,怎么得到q,k,v呢?

q,k,v都是需要设计一个wx+b(w,b都是先初始化,再通过训练更新)的矩阵,通过和向量矩阵x1x2  全连接 计算得来的。参数值是通过训练得到的。transformer本质就是提特征。最后得到w,b,q,k,v ,怎么得到v呢?

value 表示自身特征,表示对自身的认知。也是需要学习的,输出attention value

向量维度越大,得到内积就越大,这是不合适的,需要排除特征维度的影响。所以要归一化,将值变成概率,dk是特征的维度。

比如想得到500维的特征向量,那就可以分5个头,也就是5组q,k,v,最后拼接,就可以得到更丰富的特征。

此例子中,我打你  ,你打我,两句话中的词 的特征是不变的,也就是说transformer对位置特征不敏感,所以需要加入位置信息

加入one-hot的位置编码,特征与对应位置的编码做加法就可以了

可以堆叠多层self-attention吗?可以模仿15年出世的resnet残差结构来实现,因为每一次的self-attention的输入和输出维度都一样,所以可以堆叠多层。

self-attention相当于encoder层,会得到每一个词的特征,那输出就是要利用这个学出来的特征去做事,比如翻译,就是decoder层了。左边的encoder部分每个词都通过self-attention学到了特征,右边decoder部分每一个词要提供q, encoder提供k,v ,q1k1=v1,q1k2=v2,q1k3=v3,q1k4=v4, 这就是cross-attention,decoder需要self-attention吗?要,只不过是只需要算后面和前面的关系,即算q2和q1的关系,不需要算q1和q2的关系,因为算去q1的时候,还没有q2呢,只能从后往前看,不能从前往后看,所以加入MASK机制遮挡后面看不到的

input: 输入一个词   

input Embedding  :词嵌入,即把词变成一个特征向量

norm:BN,批处理

add:残差链接

feed forward: 全连接     linear  也是全连接

注意:decoder部分 既有self-attention,又有cross-attention

多模态就是要学习各种特征,实际上就是cross- attention

bert  : 自监督  ,随机遮挡15%的词,然后预测这些词

http://www.khdw.cn/news/17290.html

相关文章:

  • 中山专业做网站的公司厦门seo顾问屈兴东
  • 微信网络推广方案班级优化大师功能介绍
  • 公司企业邮箱怎么登录宁波seo推广
  • seo关键词推广案例仁茂网络seo
  • 天津网站建设有哪些整合网络营销外包
  • 个人可以做聊天网站备案吗交换链接网站
  • 电气毕业设计代做网站seo教学实体培训班
  • 网站建设08keji线下推广方案
  • 网站内容优化细节杭州网站优化公司哪家好
  • 网站推广技术哪家好北京做网站的公司有哪些
  • 浙江城乡建设网站网络营销推广合同
  • 网站计划任务怎么做惊艳的网站设计
  • 网站建设与维护税点小规模手机网站建设平台
  • 网站建设期末实践报告百度推广登录入口官网网
  • 网站宣传与推广谷歌sem推广
  • 广州旅游网站建设设计南通关键词优化平台
  • 做门户网站私活多少钱今天国内新闻
  • 网站规划步骤有哪些百度app下载官方免费最新版
  • 网站搭建的公司网站如何制作
  • 网页搜索的快捷键关键词优化公司排名榜
  • 做传媒网站公司今日疫情最新消息全国31个省
  • 学建筑的女生后悔吗提升seo排名平台
  • 电脑软件制作入门教程惠州seo排名优化
  • 房地产最新消息政策代表了什么外包seo服务口碑好
  • 重庆最专业的房产网站建设百度指数查询官网入口登录
  • 男和男做那个视频网站aso优化平台
  • 南昌高端网站定制seo全网优化推广
  • 商城类网站建设数据库深圳网站设计
  • 集团网站建设方案书热门关键词排名查询
  • 江门网站设计模板爱站网ip反域名查询