当前位置: 首页 > news >正文

合肥做装修哪个网站好产品推广词

合肥做装修哪个网站好,产品推广词,企业电子商务网站建设策划书,微信代理网站模板基于人类反馈的强化学习(RLHF)技术详解 RLHF 技术拆解 RLHF 是一项涉及多个模型和不同训练阶段的复杂概念,我们按三个步骤分解: 预训练一个语言模型 (LM) ;训练一个奖励模型 (Reward Model,RM) &#xf…

基于人类反馈的强化学习(RLHF)技术详解

RLHF 技术拆解

RLHF 是一项涉及多个模型和不同训练阶段的复杂概念,我们按三个步骤分解:

  1. 预训练一个语言模型 (LM) ;
  2. 训练一个奖励模型 (Reward Model,RM) ;
  3. 用强化学习 (RL) 方式微调 LM。

请添加图片描述

步骤一:使用SFT微调预训练语言模型

先收集⼀个提示词集合,并要求标注⼈员写出⾼质量的回复,然后使⽤该数据集以监督的⽅式微调预训练的基础模型。对这⼀步的模型,OpenAI 在其第⼀个流⾏的 RLHF 模型 InstructGPT 中使⽤了较⼩版本的 GPT-3; Anthropic 使⽤了 1000 万 ~ 520 亿参数的 Transformer 模型进⾏训练;DeepMind 使⽤了⾃家的 2800 亿参数模型 Gopher。

请添加图片描述

步骤二:训练奖励模型(Reward Model)

RM 的训练是 RLHF 区别于旧范式的开端。这⼀模型接收⼀系列⽂本并返回⼀个标量奖励,数值上对应⼈的偏好。我们可以⽤端到端的⽅式⽤ LM 建模,或者⽤模块化的系统建模 (⽐如对输出进⾏排名,再将排名转换为奖励) 。这⼀奖励数值将对后续⽆缝接⼊现有的 RL 算法⾄关重要。

请添加图片描述

步骤三:使用 PPO 优化微调语言模型

将微调任务表述为 RL 问题:

首先,该策略 (policy) 是一个接受提示并返回一系列文本 (或文本的概率分布) 的 LM。这个策略的行动空间 (action space) 是 LM 的词表对应的所有词元 (一般在 50k 数量级)

观察空间 (observation space) 是可能的输入词元序列,也比较大 (词汇量 ^ 输入标记的数量) 。

奖励函数是偏好模型和策略转变约束 (Policy shiftconstraint) 的结合。

PPO 算法确定的奖励函数具体计算如下:将提示 x 输入初始 LM 和当前微调的 LM,分别得

到了输出文本 y1, y2,将来自当前策略的文本传递给 RM 得到一个标量的奖励 rθ 。将两个模型的生成文本进行比较计算差异的惩罚项KL散度。

这一项被用于惩罚 RL 策略在每个训练批次中生成大幅偏离初始模型,以确保模型输出合理连贯的文本。如果去掉这一惩罚项可能导致模型在优化中生成乱码文本来愚弄奖励模型提供高奖励值

请添加图片描述

请添加图片描述

使用 Hugging Face TRL 实现 PPO 流程图解

请添加图片描述

http://www.khdw.cn/news/62182.html

相关文章:

  • 国内网站做国外服务器整合营销的案例
  • 网站开发技术一般需要什么语言外链是什么
  • 东莞樟木头网站制作在线生成网页网站
  • 做爰 网站网络营销具有哪些优势和吸引力
  • 专门做效果图的网站百度网站链接提交入口
  • 杭州网站建设索q479185700推广方式怎么写
  • 西安网站建设流程什么软件可以找客户资源
  • 做招聘网站如何宣传品牌网络推广运营公司
  • 做的好的网站开发自媒体平台app下载
  • 一般网站用什么数据库百度老年搜索
  • 网站设计代码案例seo网站技术培训
  • 苏州网站建设新手seo助理
  • 手机微信网页版登录关键词优化顾问
  • 关于网站项目建设的申请网络广告代理
  • 外贸soho自己建站seo和sem哪个工资高
  • 家庭做网站推广营销策划方案
  • 微信公众号做微网站百度下载安装官方下载
  • 产品网站建设公司哪家好国家市场监督管理总局
  • 教育行业手机wap网站长尾关键词挖掘熊猫
  • 淘宝做的网站会不会过期东莞seo网站排名优化
  • wordpress po文件国内seo做最好的公司
  • 唯品会一家专门做特卖的网站宁波seo服务
  • html5手机网站免费模板全媒体广告代理加盟
  • 问政东营山东seo百度推广
  • 网站的ico图标做多大成都网络推广
  • 大众点评做团购网站中国突然宣布大消息
  • 响应式网站检测工具淘宝权重查询
  • 专业建设特色亮点seo入门书籍
  • 深圳东门新冠东莞搜索优化十年乐云seo
  • 东阳哪里可以做网站百度电话客服24小时