观看本关卡视频和官网https://internlm.intern-ai.org.cn/后,写一篇关于书生大模型全链路开源开放体系的笔记发布到知乎、CSDN等任一社交媒体,将作业链接提交到以下问卷,助教老师批改后将获得 100 算力点奖励!!!
提交地址:https://aicarrier.feishu.cn/share/base/form/shrcnZ4bQ4YmhEtMtnKxZUcf1vd
自2023年7月书生浦语陆续开源InternLM-chat-7B,InternLM-chat-20B,InternLM2-chat-7B,InternLM2-chat-20B,InternLM2.5-chat-7B,InternLM22.5-chat-20B。2.5版本相较2版本推理性能提升20%,且支持100万字上下文—小伙伴注意一般的书籍一本是20万字-50万字,所以这个超长窗口上下文几乎完全可以免去rag,而直接把文档给大模型直接实现问答了。其核心技术思路是通过高质量的数据构造,反复迭代,基于规则的数据构造、基于模型的数据扩充、基于反馈的数据生成。2.5能实现基于规划和搜索解决复杂问题。书生浦语全链路开源,从数据到预训练框架InternEvo、微调框架Xtuner、部署框架LMDeploy,评测体系OpenCompass,到应用体系包括Mindsearch,lagent,MinerU,Huixiangdou,
(详情见(笔记)第三期书生·浦语大模型实战营(十一卷王场)–书生基础岛第1关—书生大模型全链路开源体系)