目录:
1. Linux基础知识
2.python基础知识
3.Git基础知识
4.书生大模型全链路开源体系
=====================================================================
1.1-Linux基础知识
配置环境后,运行 hello_word.py
在本地终端中进行端口映射
映射成功后,访问 127.0.0.1:7860
1.2-python基础知识
任务1:实现wordcount函数
任务2:通过VScode,debug wordcount.py文件
远程连接服务器后,确认服务器端安装好python插件,随后打断点,进行debug,debug过程如下
1.3-git基础知识
1.破冰行动-自我介绍
1.首先把项目仓库fork到自己仓库
2.通过git clone到本地
3.创建自定义分支并切换到自定义的新分支
4.创建自我介绍文件并上传
2.创建git仓库并添加介绍
创建的仓库连接
1.4-书生大模型全链路开源体系
书生大模型已经开源一周年,能处理1M超长上下文,互联网搜索和信息整合等复杂任务,大海捞针测试中,1百万token中获得全绿表现,能够调用搜索引擎,从海量搜索结果中,进行筛选和总结,回答相关问题,现在共有4个版本,其中有1.8B,7B,20B,102B模型,20B模型出现了涌现的现象(自我基于数据集生成),从数据集到微调工具等进行了全开源。
数据集方面
1.miner u: pdf文档提取工具
2. Label LLM: llm对话标注,能实现多人协作,任务管理等
3. label U: 轻量级开源图像标注工区,支持图像,视频,音频等
微调框架 XTuner
支持QLoRA微调, LoRA微调, 使用训练引擎为MMengine,解决显存
智能体
支持多种大语言模型,GPT3.5/4, InternLM, Llama等
1.5-8G显存玩转书生大模型demo
1.激活自带环境
2.部署InternLM2-Chat-1.8B ,创建demo并运行,交互
3.部署 InternLM2-Chat-1.8B 模型
启动streamlit服务
本地启动端口映射
在服务器中启动服务
4. 部署InternLM-XComposer2-VL-1.8B模型
1.5-LangGPT结构化提示词编写实践
1.使用LMDeploy进行部署
2.运行测试脚本,测试InternLM2-chat-1_8b模型并测试是否部署成功
3.启动图形化界面
完成相关数字比较任务
提示工程
增加提示词,并使用langgpt回答相关问题