当前位置: 首页 > news >正文

大淘客网站上的推广怎么做市场营销推广策划

大淘客网站上的推广怎么做,市场营销推广策划,机械加工分类,建设学院网站的通知书前言 在此之前,我司论文审稿项目组已经通过我司处理的paper-review数据集,分别微调了RWKV、llama2、gpt3.5 16K、llama2 13b、Mistral 7b instruct、gemma 7b 七月论文审稿GPT第1版:通过3万多篇paper和10多万的review数据微调RWKV七月论文审…

前言

在此之前,我司论文审稿项目组已经通过我司处理的paper-review数据集,分别微调了RWKV、llama2、gpt3.5 16K、llama2 13b、Mistral 7b instruct、gemma 7b

  • 七月论文审稿GPT第1版:通过3万多篇paper和10多万的review数据微调RWKV
  • 七月论文审稿GPT第2版:用一万多条paper-review数据集微调LLaMA2 7B最终反超GPT4
  • 七月论文审稿GPT第2.5和第3版:分别微调GPT3.5、Llama2 13B以扩大对GPT4的优势
  • 七月论文审稿GPT第3.2版和第3.5版:通过paper-review数据集分别微调Mistral、gemma

虽然其中gemma 7b已经把对GPT4-1106的胜率达到了78%,但效果提升是永无止境的,故继续折腾,在本文要介绍的第4版我们则微调mixtral 8x7b(关于mixtral 87的介绍,详见此文:从Mistral 7B到MoE模型Mixtral 8x7B的全面解析:从原理分析到代码解读),且首次把对GPT4-1106的胜率达到了80%

第一部分 通过llama factory微调mixtral 8x7b

1.1 模型训练

Mixtral-8x7b地址:魔搭社区

GitHub: hiyouga/LLaMA-Factory: Unify Efficient Fine-tuning of 100+ LLMs (github.com)

1.1.1 环境配置

git clone https://github.com/hiyouga/LLaMA-Factory.git
conda create -n llama_factory python=3.10
conda activate llama_factory
cd /root/path/LLaMA-Factory
pip install -r requirements.txt

有些得单独版本对齐,本人使用的是cuda11.8

pip install torch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 --index-url https://download.pytorch.org/whl/cu118
pip install bitsandbytes==0.41.3
# 下载对应版本 https://github.com/Dao-AILab/flash-attention/releases
pip install flash_attn-2.5.2+cu118torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl

1.1.2 训练代码

python src/train_bash.py \--stage sft \--do_train True \--model_name_or_path /root/weights/Mixtral-8x7B-Instruct-v0.1 \--finetuning_type lora \--quantization_bit 4 \--template mistral \--flash_attn True \--dataset_dir data \--dataset paper_review_data \--cutoff_len 12288 \--learning_rate 5e-05 \--num_train_epochs 3.0 \--max_samples 1000000 \--per_device_train_batch_size 16 \--gradient_accumulation_steps 1 \--lr_scheduler_type cosine \--max_grad_norm 0.3 \--logging_steps 10 \--warmup_steps 0 \--lora_rank 128 \--save_steps 1000 \--lora_dropout 0.05 \--lora_target q_proj,o_proj,k_proj,v_proj,down_proj,gate_proj,up_proj \--output_dir saves/Mixtral-8x7B-Chat/lora/train_2024-03-23 \--fp16 True \--plot_loss True

1.2 模型推理

1.2.1 部署API接口

这里使用lora执行src/api_demo.py时会出现一个问题:

NotImplementedError: Cannot copy out of meta tensor; no data! · Issue #2940 · hiyouga/LLaMA-Factory (github.com)

解决方案:训练时使用了--quantization_bit 4 和 --flash_attn True,这里也要使用统一的才行。

CUDA_VISIBLE_DEVICES=0 API_PORT=8000 python src/api_demo.py \--model_name_or_path /root/weights/Mixtral-8x7B-Instruct-v0.1 \--adapter_name_or_path /root/path/saves/Mixtral-8x7B-Chat/lora/train_train_2024-03-23 \--template mistral \--finetuning_type lora \--quantization_bit 4 \--flash_attn True

推理所需显存为34318MiB

1.2.2 调用API接口

更多见七月的《大模型商用项目之审稿GPT微调实战》

第二部分 通过xtuner微调mixtral 8x7b

// 待更

http://www.khdw.cn/news/15395.html

相关文章:

  • 南平网站怎么做seo在线刷关键词网站排名
  • 专业网页制作产品网络推广网站seo服务公司
  • 西宁网站制作哪家公司好原创文章代写
  • 建设九九网站深圳seo优化电话
  • 软件开发和前端开发的区别江西网络推广seo
  • 安徽平台网站建设设计营销的手段和方法
  • wordpress轮播图设置百度快照优化排名
  • dedecms网站的源码如何安装seo优化的搜索排名影响因素主要有
  • 网站百度流量怎么做网站做优化一开始怎么做
  • 鞍山做网站专业公司杭州做百度推广的公司
  • 莆田市城厢区建设局网站b2b平台推广
  • 国际外贸网站腰肌劳损的自我治疗和恢复的方法有什么?
  • 电子商务动态网站开发怎么做神马搜索排名seo
  • 做简历网站 知乎如何建立一个自己的网站?
  • 做阿里巴巴怎么进公司网站qq群引流推广软件
  • 网站建设公司客户分析推广计划怎么做推广是什么
  • 专门做淘宝主图的网站新媒体推广渠道有哪些
  • 常德做网站成都网络推广中联无限
  • 新乡手机网站建设国内最好的危机公关公司
  • 做网站需要哪些语言网站备案查询
  • 龙岗网站建设哪家好搜索引擎平台排名
  • 佛山做外贸网站的公司吗我想创建一个网络平台
  • 手机端企业网站模板快速整站排名seo教程
  • 深圳个人注册公司要求seo网络推广
  • 网页制作流程及详细步骤网站seo优化发布高质量外链
  • 论坛网站的建立四川旅游seo整站优化站优化
  • wordpress页面加载很慢自动app优化官网
  • 顾家家居网站是哪个公司做的互联网营销师培训课程免费
  • 沈阳定制网站开发公司seo排名优化的网站
  • 佛山网站建设佛山网站制作58精准推广点击器