逻辑推理微调
- 比赛介绍
- 准备内容
- lora微调
- lora微调介绍
- lora优势
- 代码内容
- start_vllm
- 相关介绍
- 调用
- 运行主函数
- 提交结果
- 总结
- 相应连接
比赛介绍
本比赛旨在测试参与者的逻辑推理和问题解决能力。参与者将面对一系列复杂的逻辑谜题,涵盖多个领域的推理挑战。
比赛的连接:第二届世界科学智能大赛逻辑推理赛道:复杂推理能力评估
准备内容
选择相应的GPU环境以及对应的镜像,这里使用到的是魔搭社区的内容
lora微调
lora微调介绍
LoRA(Low-Rank Adaptation)微调是一种高效的模型微调技术,特别适用于大型预训练语言模型的适应性调整。LoRA的核心思想是通过引入低秩矩阵来调整模型的权重,从而在不显著增加模型参数数量的情况下,实现对模型的微调。
lora优势
- 可以针对不同的下游任务构建小型 LoRA 模块,从而在共享预训练模型参数基础上有效地切换下游任务。
- LoRA 使用自适应优化器(Adaptive Optimizer),不需要计算梯度或维护大多数参数的优化器状态,训练更有效、硬件门槛更低。
- LoRA 使用简单的线性设计,在部署时将可训练矩阵与冻结权重合并,不存在推理延迟。
- LoRA 与其他方法正交,可以组合。
代码内容
复制内容:
git clone https://www.modelscope.cn/datasets/Datawhale/DW2024_Complex_reasoning_ability_assessment_qwen2-7b-lora.git
之后就会看到有一个文件夹,点击进去,选择 lora.ipynb
运行前两个代码
然后逐个运行下面的代码
start_vllm
相关介绍
vLLM(Virtual Large Language Model)是一个由伯克利大学LMSYS组织开源的大规模语言模型高速推理框架。它的设计目标是在实时应用场景中大幅提升语言模型服务的吞吐量和内存使用效率。vLLM的特点包括易于使用、与Hugging Face等流行工具无缝集成以及高效的性能。
调用
调用这个vllm的服务
选择start_vllm.ipynb
运行主函数
运行主函数 baseline2_main.ipynb
然后要注意的是要上传相应的test的文件
提交结果
将生成的文件upload.jsonl
提交到官网,得到相应的分数
总结
主要就是根据datawhale所给到的相应学习资料进行一个运行操作,了解了这个模型调整的内容,对自己来说有很多还有学习的地方
相应连接
文章当中的内容都是由datawhale所给出
https://tianchi.aliyun.com/notebook/757650
Datawhale AI夏令营第三期逻辑推理赛道baseline02跑通指南