大模型部署手记(9)LLaMa2+Chinese-LLaMA-Plus-7B+Windows+llama.cpp+中文文本补齐

news2024/11/19 18:24:21

1.简介:

组织机构:Meta(Facebook)

代码仓:GitHub - facebookresearch/llama: Inference code for LLaMA models

模型:llama-2-7b、Chinese-LLaMA-Plus-7B(chinese_llama_plus_lora_7b) 

下载:使用download.sh下载

硬件环境:暗影精灵7Plus

Windows版本:Windows 11家庭中文版 Insider Preview 22H2

内存 32G

GPU显卡:Nvidia GTX 3080 Laptop (16G)

https://blog.csdn.net/snmper/article/details/133744694大模型部署手记(8)LLaMa2+Windows+llama.cpp+英文文本补齐icon-default.png?t=N7T8https://blog.csdn.net/snmper/article/details/133744694 一文中,张小白完成了基于原始 llama-2-7b 模型的文本补齐。这个模型只有英文问答,但是勤劳的中国人肯定不会局限于此的。

打开 GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs)中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs) - GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs)icon-default.png?t=N7T8https://github.com/ymcui/Chinese-LLaMA-Alpaca

可以看到诱人的中文对话:

在这里可以看到 Chinese-LLaMA-Alpaca 的家族图谱关系:

其中,LLaMA模型是基础模型,主打“文本补齐”(给定上文内容,让模型生成下文),Alpaca是对话模型,主打“文本对话”(指令理解:问答、写作、建议;多轮上下文理解:聊天)

而模型类型的命名跟手机后缀差不多,分为基础版、Plus版和Pro版。例如对于Alpaca模型,plus偏向于短回复,pro偏向于对过短的回复进行改进。从名字可以看出,可以根据自己的经济能力(显卡内存和算力)选择适当的版本。

而一个中文模型的生成过程是这样的:

1、先去Meta官网申请原版的LLaMa模型(需要到官网申请授权,并通过邮箱获取URL,然后使用download.sh下载)

2、从 https://github.com/ymcui/Chinese-LLaMA-Alpaca 提供的链接下载 原版模型对应的Lora模型

3、进行模型合并:(参考 手动模型合并与转换 · ymcui/Chinese-LLaMA-Alpaca Wiki · GitHub )

(1)使用transformers提供的脚本convert_llama_weights_to_hf.py,将原版LLaMA模型转换为HuggingFace格式,举例如下:

python src/transformers/models/llama/convert_llama_weights_to_hf.py \

--input_dir path_to_original_llama_root_dir \

--model_size 7B \

--output_dir path_to_original_llama_hf_dir

(2)对原版LLaMA模型(HF格式)扩充中文词表,合并LoRA权重并生成全量模型权重,这时可以选择pyTorch版本权重(.pth文件)或者输出HuggingFace版本权重(.bin文件)。对于llama.cpp部署,应转为pth文件。

(a)对于基座模型,采用单LoRA权重合并方式 ( Chinese-LLaMA, Chinese-LLaMA-Plus, Chinese-Alpaca)

python scripts/merge_llama_with_chinese_lora_low_mem.py \

--base_model path_to_original_llama_hf_dir \

--lora_model path_to_chinese_llama_or_alpaca_lora \

--output_type [pth|huggingface] \

--output_dir path_to_output_dir

(b)对于对话模型,采用多LoRA权重合并方式( Chinese-LLaMA, Chinese-LLaMA-Plus, Chinese-Alpaca)

python scripts/merge_llama_with_chinese_lora_low_mem.py \

--base_model path_to_original_llama_hf_dir \

--lora_model path_to_chinese_llama_plus_lora,path_to_chinese_alpaca_plus_lora \

--output_type [pth|huggingface] \

--output_dir path_to_output_dir

其中lora_model的模型顺序为先LLaMA,后Alpaca,比如 先LLaMA-Plus-LoRA后Alpaca-Plus/Pro-LoRA

(3)对合并后的模型进行SHA256检查

根据 https://github.com/ymcui/Chinese-LLaMA-Alpaca/blob/main/SHA256.md 提供的表格检查SHA256值的一致性。

windows的SHA256检查方法是:

certutil -hashfile your-model-file sha256

Linux的SHA256检查方法是:

sha256sum your-model-file

参考资料:【LLM】Windows本地CPU部署民间版中文羊驼模型(Chinese-LLaMA-Alpaca)踩坑记录 【LLM】Windows本地CPU部署民间版中文羊驼模型(Chinese-LLaMA-Alpaca)踩坑记录_提笔忘字的帝国的博客-CSDN博客想必有小伙伴也想跟我一样体验下部署大语言模型, 但碍于经济实力, 不过民间上出现了大量的量化模型, 我们平民也能体验体验啦~, 该模型可以在笔记本电脑上部署, 确保你电脑至少有16G运行内存。https://blog.csdn.net/qq_38238956/article/details/130113599

2.代码和模型下载:

llama.cpp 代码仓按照 https://blog.csdn.net/snmper/article/details/133744694大模型部署手记(8)LLaMa2+Windows+llama.cpp+英文文本补齐icon-default.png?t=N7T8https://blog.csdn.net/snmper/article/details/133744694 一文的方式下载。

Chinese-LLaMA-Alpaca的代码仓:

d:

cd \

git clone https://github.com/ymcui/Chinese-LLaMA-Alpaca

cd Chinese-LLaMA-Alpaca

1.原版的LLaMa模型

已经在 https://blog.csdn.net/snmper/article/details/133578456大模型部署手记(7)LLaMA2+Jetson AGX Orinicon-default.png?t=N7T8https://blog.csdn.net/snmper/article/details/133578456 讲了具体步骤。

在上次的 https://blog.csdn.net/snmper/article/details/133744694大模型部署手记(8)LLaMa2+Windows+llama.cpp+英文文本补齐icon-default.png?t=N7T8https://blog.csdn.net/snmper/article/details/133744694 一文中,原版的LLaMa-7B模型已经被放到了 D:\llama.cpp\models\7B 目录下:

2.原版模型对应的Lora模型

根据 GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs) 提供的 模型推荐清单,原版LLaMa-7B对应的基座模型只有 Chinese-LLaMA-Plus-7B:

点击链接 百度网盘 请输入提取码 下载百度网盘的压缩包:chinese-alpaca-lora-7b.zip

将其解压到D:\llama.cpp\models 目录:注意由于zip不带目录,使用压缩软件解压时要选择 解压到chinese-alpaca-lora-7b

3.安装依赖

cd Chinese-LLaMA-Alpaca

其中合并的脚本merge_llama_with_chinese_lora.py 在 D:\Chinese-LLaMA-Alpaca\scripts 目录下:

可将其复制到 d:\llama.cpp 目录:

将 scripts/merge_llama_with_chinese_lora_low_mem.py 文件也复制过来:

下载 https://github.com/huggingface/transformers/blob/main/src/transformers/models/llama/convert_llama_weights_to_hf.py

保存到 d:\llama.cpp 目录

4.部署验证

打开Anaconda Powershell Prompt

conda activate llama

在models目录下,创建以下几个目录:

  • path_to_original_llama_hf_dir 转换好的HF版模型权重
  • path_to_output_dir 合并后的模型权重
  • 7B目录相当于 path_to_original_llama_root_dir
  • chinese_llama_plus_lora_7b 目录相当于 path_to_chinese_llama_or_alpaca_lora

在7B目录下,上次是将 原始模型转换成了 ggml-model-f16.gguf,并int4量化成了 ggml-model-q4_0.gguf

(1)使用transformers提供的脚本convert_llama_weights_to_hf.py,将原版LLaMA模型转换为HuggingFace格式

cd D:\llama.cpp

python convert_llama_weights_to_hf.py --input_dir models/7B --model_size 7B --output_dir path_to_original_llama_hf_dir

pip install tokenizers==0.13.3

再来:

python convert_llama_weights_to_hf.py --input_dir models/7B --model_size 7B --output_dir path_to_original_llama_hf_dir

将7B上层目录的 tokenizer.model 复制到 models/7B目录下:

再来:

python convert_llama_weights_to_hf.py --input_dir models/7B --model_size 7B --output_dir path_to_original_llama_hf_dir

这个需要耐心等待一会儿。

不好意思,目的目录应该是 models/path_to_original_llama_hf_dir

将结果挪过去吧!

mv path_to_original_llama_hf_dir/* models/path_to_original_llama_hf_dir/

rmdir path_to_original_llama_hf_dir

(2)单LoRA权重合并

python merge_llama_with_chinese_lora_low_mem.py --base_model models/path_to_original_llama_hf_dir --lora_model models/chinese_llama_plus_lora_7b --output_type pth --output_dir models/path_to_output_dir

合并好的模型放到了 models/path_to_output_dir 目录:

(3)SHA检查

certutil -hashfile models\path_to_output_dir\consolidated.00.pth sha256

找不到这个SHA256值。。。

原版pth的SHA256:

certutil -hashfile models\7B\consolidated.00.pth sha256

这个SHA256可以找到:

Lora Tokenizer.model SHA256:

certutil -hashfile models\chinese_llama_plus_lora_7b\tokenizer.model sha256

(llama) PS D:\llama.cpp> certutil -hashfile models\chinese_llama_plus_lora_7b\tokenizer.model sha256
SHA256 的 models\chinese_llama_plus_lora_7b\tokenizer.model 哈希:
e2676d4ca29ca1750f6ff203328d73b189321dc5776ceede037cbd36541d70c0
CertUtil: -hashfile 命令成功完成。
(llama) PS D:\llama.cpp>

这个SHA256可以找到:

Lora权重 adapter_model.bin SHA256:

certutil -hashfile models\chinese_llama_plus_lora_7b\adapter_model.bin sha256

(llama) PS D:\llama.cpp> certutil -hashfile models\chinese_llama_plus_lora_7b\adapter_model.bin sha256
SHA256 的 models\chinese_llama_plus_lora_7b\adapter_model.bin 哈希:
8c928db86b2a0cf73f019832f921eb7e1e069ca21441b4bfa12c4381c6cc46be
CertUtil: -hashfile 命令成功完成。
(llama) PS D:\llama.cpp>

这个SHA256可以找到:

那就是合并之后的模型权重文件不对吗?张小白也不知道。。。

(4)合并完了之后,进行以下操作:

将合并后的模型权重 models\path_to_output_dir\consolidated.00.pth 转换为ggml的FP16格式:ggml-model-f16.gguf,保存在 models/path_to_output_dir 目录下。

python convert.py models/path_to_output_dir

结果写到了 models\path_to_output_dir\ggml-model-f16.gguf 文件中:13G左右。

刚才转换好的FP16模型进行4-bit量化:

./quantize ./models/path_to_output_dir/ggml-model-f16.gguf ./models/path_to_output_dir/ggml-model-q4_0.gguf q4_0

大小只有3.8G了。

进行推理:

./main -m ./models/path_to_output_dir/ggml-model-q4_0.gguf -n 512 --prompt "我给大家介绍一下加拿大"

好像有点不大对头。但是中文确实生成了。

./main -m ./models/path_to_output_dir/ggml-model-q4_0.gguf -n 128 --prompt "Tell me something about Canada"

我知道了,提示词可能需要是是英文。

结果如下:

Tell me something about Canada Day. 我说... 加拿大的节日!Canada Day是2011年4月29日,为庆祝加拿大的国家日。在各省市与英联邦国家之间,节日日期会因各省市的不同而有所差异;因此,各省市也有不同的名称来表示该节日,例如:阿尔伯塔省的“NationalDay”、安大略省的“CanadaDay”等。每年4月29日在各省市庆祝加拿大国家日的时候,都会举行各种娱乐活动、庆典活动、游行活动 等等,以示对国家的重视与喜爱。而在4月29

放长一点:

./main -m ./models/path_to_output_dir/ggml-model-q4_0.gguf -n 512 --prompt "Tell me something about Canada"

结果如下:

Tell me something about Canada (Canada) (2016-04-23) [已完结] 故事背景是二战时的日本,有位年事已高的老人,名叫小林。他以一种特殊的方式记起了自己的生活,这个老男人的记忆和想象 是如此丰富、奇幻又如此可信!小林说:“我从那时起就生活在我的记忆里。”故事中老… 无题书评(2015-11-23) 作者: 阿尔布雷思·希茨 出版社: 四川文艺 语言: 中文 简体字 初版:2012年04月 /  新版:2015年09月 本书以1925-1950年间发生在中国上海及长江中游地区,对中国历史和文化的研究者而言,无疑是一个极富史料价值的宝库。本书共分五卷,第一卷《白俄罗斯》、第二卷《克里木》、第三卷《… 无题书评(2015-11-23) 作者: 周天仇 / 高培夫 出版社: 上海人民 语言: 中国语系 (包括汉语、繁体中文、粤语、吴语等) 小说《北京,我爱你》是中国作家周天仇和歌手高培夫的合作作品。这是继2013年两人共同出版的小说《中国大… 无题书评(2015-11-23) 作者: 艾伦·麦席恩 / 伊登·威廉姆斯 (译者) 出版社: 三联书店 语言: 中国语系 (包括汉语、繁体中文、粤语、吴语等)  《无题书评》是“世界文坛最有分量的批评家之一”艾伦·麦席恩的代表作,也是他在三十年写作生涯中,最伟大的杰作。这本无名指的小说集,在欧美广受好评,也受到了中国的高度… 无题书评(2015-11-23) 作者: 阿尔布雷思·希茨 / 爱德华·威廉姆斯 (译者) 出版社: 南方文艺 语言: 中国语系 (包括汉语、繁体中文、粤语、吴语等) 《无题书评》是“世界文坛最有分量的批评家之一”阿尔布雷斯— 希茨的代表作,也是他在三十年写作生涯中,最伟大的杰作。这本书在欧美广受好评,也受到了中国的高度关注… 无

张小白以为这个真的是一个图书简介,不过,看看搜到了啥:

看来中文是可以生成了,但是也不是每次都能出中文,出的中文也不见得都能对题。

./main -m ./models/path_to_output_dir/ggml-model-q4_0.gguf -n 512 --prompt "Introduce the special products of Nanjing"

想让它介绍一下南京的特产:

结果如下:

 Introduce the special products of Nanjing 发布人:administrator 来源:Nanjing-tourism 时间:2017/7/9 15:00:37 点击:192 摘要:Nanjing是国家历史文化名城,也是华东地区重要的中心城市。在“一带一路”战略的推动下,近年来,这座历史文化名城更是成为众多海内外游客向往的地方。“一带一路”战略下,中国对外开放政策也与此同时出台,为外国企业和投资者进入中国的大门越开越大。在这样的国际背景下,Nanjing市充分发挥了自身的地缘优势,在不断加大对外资企业的吸引力上,让其成为“一带一路”建设的生力军。而此次专题文集是希望通过介绍城市的独特魅力,为更多 的海内外游客打开了解这座名城的一扇窗户。[全文] Introduce the special products of Nanjing 发布人:administrator 来源:Nanjing-tourism 时间:2017/7/9 15:00:37 点击:192 摘要:Nanjing是国家历史文化名城,也是华东地区重要的中心城市。在“一带一路”战略的推动下,近年来,这座历史文化名城更是成为众多海内外游客向往的地方。“一带一路”战略下,中国对外开放政策也与此同时出台,为外国企业和投资者进入中国的大门越开越大。在这样的国际背景下,Nanjing市充分发挥了自身的地缘优势,在不断加大对外资企业的吸引力上,让其成为“一带一路”建设的生力军。而此 次专题文集是希望通过介绍城市的独特魅力,为更多的海内外游客打开了解这座名城的一扇窗户。[全文] Introduce the special products of Nanjing 发布人:administrator 来源:Nanjing-tourism 时间:2017/7/9 15:00:37 点击:192 摘要:Nanjing是国家历史文化名城,也是华东地区重要的中心城市。在“一带一路”战略的推动下,近年来,这座历史文化名城更是成为众多海内外游客向往的地方。“一带一路”战略下,中国对外开放政策也与此同时出台,为外国企业和投资者进入中国的大门越开越大。在这样的国际背景下,Nanjing市充分发挥了自身的地缘优势,在不断加大对外资企业的

可能需要微调一下了。

换一个:

./main -m ./models/path_to_output_dir/ggml-model-q4_0.gguf -n 512 --prompt "I want to fly"

I want to fly,but too heavy. (19张) 何思聪(Talitha Hoffman),1988年5月22日出生于美国佛罗里达州,美国影视演员。2002年,出演了爱情喜剧《我最好朋友的婚礼》中的小角色;2006年,参演科幻电影《变形金刚3:起义》;2010年,凭借青春励志剧《篮球节育子》获得青少年选择奖最佳突破TV女演员提名;2014年,在奇幻冒险片《冰雪奇缘》中出演了女魔幻师Elsa。何思聪早年经历 编辑1988年5月22日,出生于美国佛罗里达州。2005年,参加“America’s next top model”的试镜会,最终未能晋级;2006年,参演科幻电影《变形金刚3:起义》,该片最终在全球票房超过10亿美元,成为当年全球卖座冠军影片。2008年,参演家庭剧情《舞出我人生》。2009年4月1日,在纽约举行的“America’s next top model”试镜会中,何思聪因拍摄封面照时表现得镇定自然而顺利获得试镜的资格;同年12月15日,参加“America’s next top model”的总决赛,最终没能成为年度亚军。2010年1月6日,参演青春励志剧《篮球节育子》中霍特一角,该剧播出后获得青少年观众选择奖最佳突破TV女演员提名;同年5月16日,与约翰·博伊维斯克、艾莉森·威廉姆斯合作出演的科幻喜剧电影《超时空接触》上映。2011年3月1日,参演奇幻冒险片《冰雪奇缘》中女魔幻师Elsa的试镜会,最终获得试镜 资格;6月18日,在美国上映。2012年2月5日,与布莱恩·戴维斯合作出演的电影《I want to fly,but too heavy.》在纽约举行首映礼;同年7月4日,参演科幻恐怖片《僵尸世界大战》的试镜会中,获得试镜资格。何思聪个人生活编辑2011年11月20日,与美国男演员乔·林恩结婚。何思聪主要作品编辑何思聪参演电影何思聪参与配音何思聪获奖记录编辑 谢天狗(Rasputin),霹雳布袋戏系列中的虚拟人物。为神灭

也不知道它说的是真的,还是在一本正经地胡说八道。她怎么不叫王思聪的。。

(全文完,谢谢阅读)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1076046.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

使用/deep/覆盖element中的样式

我们在开发Vue项目的时候一般都会在组件中的style标签上面添加scoped属性&#xff0c;从而避免父组件影响子组件的样式&#xff0c;达到只修改当前组件样式的目的。 <style scoped lang"scss">... </style> 其原理是——在打包的时候会给每个选择器都添…

什么是存储服务器?

随着互联网的发展&#xff0c;越来越多的信息会在网络上暴露&#xff0c;所以企业就会更加重视数据&#xff0c;因此更加安全可靠的数据存储服务器受到了大多数人的信赖&#xff0c;今天就让小编带大家了解一下什么是存储服务器吧&#xff01; 存储服务器的含义。存储服务器是…

基于乌燕鸥优化的BP神经网络(分类应用) - 附代码

基于乌燕鸥优化的BP神经网络&#xff08;分类应用&#xff09; - 附代码 文章目录 基于乌燕鸥优化的BP神经网络&#xff08;分类应用&#xff09; - 附代码1.鸢尾花iris数据介绍2.数据集整理3.乌燕鸥优化BP神经网络3.1 BP神经网络参数设置3.2 乌燕鸥算法应用 4.测试结果&#x…

常见的Web安全漏洞(2021年9月的OWASP TOP 10)

聊Web安全漏洞&#xff0c;就不得不提到OWASP TOP10。开放式Web应用程序安全项目&#xff08;OpenWeb Application Security Project&#xff0c;OWASP&#xff09;是一个开源的、非营利的组织&#xff0c;主要提供有关Web应用程序的实际可行、公正透明、有社会效益的信息&…

每日一题 2731. 移动机器人(中等,模拟)

思路: 机器人是完全相同的且移动速度一样&#xff0c;所以对于碰撞后转向的机器人&#xff0c;可以看作是不碰撞继续运动。可以这么理解&#xff0c;如果没有碰撞&#xff0c;在移动后坐标 i 处有一个机器人&#xff0c;那么存在碰撞的情况下&#xff0c;坐标 i 处任有一个机器…

全志R128芯片应用开发案例——驱动 WS2812 流水灯

驱动 WS2812 流水灯 本文案例代码下载地址驱动 WS2812 流水灯案例代码https://www.aw-ol.com/downloads?cat24 R128-DevKit 拥有4颗 WS2812 LED&#xff0c;本文将详细叙述如何点亮他们。 LEDC 模块简介 LEDC 硬件方框图如上图所示&#xff0c;CPU 通过 APB 总线操作 LEDC 寄…

使用“Apple 诊断”测试你的 Mac(查看电池是否到达更换标准)

使用“Apple 诊断”测试你的 Mac “Apple 诊断”&#xff08;以前称为“Apple Hardware Test”&#xff09;可以检查你的 Mac 是不是存在硬件问题。 如果你认为你的 Mac 可能存在硬件问题&#xff0c;可以使用“Apple 诊断”来帮助确定可能存在故障的硬件组件。“Apple 诊断”…

2023P企业管理系统提供商,助力大中型企业一体化管理,免费更新

大中型企业通常业务流程更为复杂&#xff0c;工作数据更庞大&#xff0c;数据迁移的过程中可能会遇到数据不一致、数据丢失等问题。因此大中型企业实施ERP系统是一项复杂的任务&#xff0c;需要企业投入大量的资源和精力&#xff0c;克服各种困难和挑战。 在过往为广西省大中型…

淘宝API官方商品、交易、订单、物流、插旗接口如下:

以下是一些淘宝官方商品、交易、订单、物流、插旗接口的参考&#xff1a; 获取一个产品的信息(taobao.product.get)&#xff1a;该接口可以获取一个产品的信息&#xff0c;包括商品ID、标题、价格、销量等。搜索产品信息(taobao.products.search)&#xff1a;该接口可以搜索产…

“UTONMOS”掀起元宇宙游戏热潮,全球发展前景广阔

我们都知道&#xff0c;市面上无论是PC端的网游还是移动端手游&#xff0c;它如果要做到源源不断的内容输出&#xff0c;不仅取决于游戏公司产品质量和业绩&#xff0c;也与公司的决策和市场沟通密不可分。 元宇宙游戏市场受到关注 近年来&#xff0c;元宇宙游戏市场逐渐升温…

算法题:柠檬水找零(典型的贪心算法问题)

这道题就是纯贪心算法题&#xff0c;遍历每个顾客&#xff0c;先把钱收了&#xff0c;如果是10块钱就判断手里头有没有5元用于找零&#xff1b;如果是20块钱&#xff0c;先判断是不是有10元5元&#xff0c;如果没有就再判断是否有3个5元。没有的话就直接返回 False。(完整题目附…

保研经历分享(一)

这个系列的文章主要是想记录一下自己大学期间最重要的一件事&#xff08;保研!!&#xff09;的经历、过程&#xff0c;外加一些保研流程介绍、面试经验、院校投递、踩坑经历&#xff0c;主要给学弟学妹们避雷&#xff0c;也做一些借鉴吧~ 这一篇主要是对保研过程的一些介绍&…

如何在虚幻引擎中渲染动画?

大家好&#xff0c;今天我将展示如何在虚幻引擎中渲染动画&#xff0c;以及虚幻引擎渲染动画怎么设置的方法步骤。 需要提前了解&#xff1a; 虚幻引擎本地运行慢、渲染慢、本地配置不够&#xff0c;如何解决&#xff1f; 渲云云渲染支持虚幻引擎离线渲染&#xff0c;可批量…

【UE5】Pixel Streaming 配置https协议

【UE5】Pixel Streaming 配置https协议 Pixel Streaming 传输视频流插件&#xff0c;使用任何现代Web浏览器进行连接&#xff0c;并从虚幻引擎应用程序中流式传输渲染的帧像素和音频。 用户无需安装或下载任何内容。 HTTPS &#xff08;全称&#xff1a;Hypertext Transfer Pro…

大模型部署手记(12)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+text-gen+中文对话

1.简介&#xff1a; 组织机构&#xff1a;Meta&#xff08;Facebook&#xff09; 代码仓&#xff1a;https://github.com/facebookresearch/llama 模型&#xff1a;chinese-alpaca-2-7b-hf 下载&#xff1a;使用百度网盘下载 硬件环境&#xff1a;暗影精灵7Plus Windows版…

“套壳”OpenAI,注定消亡!全球首个 20 万字大模型发布丨 RTE 开发者日报 Vol.63

开发者朋友们大家好&#xff1a; 这里是 「RTE 开发者日报」 &#xff0c;每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE &#xff08;Real Time Engagement&#xff09; 领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有…

见微知著:从企业售后技术支持看云计算发展

作者&#xff1a;余凯 售后业务中的细微变化 作为阿里云企业容器技术支持的一员&#xff0c;每天会面对全球各地企业级客户提出的关于容器的各种问题&#xff0c;通过这几年的技术支持的经历&#xff0c;逐步发现容器问题客户的一些惯性&#xff0c;哪些是重度用户&#xff0…

Unity设计模式——外观模式

子系统的几个类&#xff1a; class SubSystemOne {public void MethodOne(){Debug.Log("方法一");} } class SubSystemTwo {public void MethodTwo(){Debug.Log("方法2");} } class SubSystemThrre {public void MethodThree(){Debug.Log("方法三&qu…

企业视频直播画面时移看点的用法

企业视频直播画面时移时移功能&#xff0c;可以让客户在观看直播的时&#xff0c;实时回看直播内容&#xff1b;看点功能&#xff0c;可以将视频内容分段标记&#xff0c;能让客户明确内容结构&#xff0c;快速定位目标信息&#xff0c;提升观看体验&#xff0c;跟我一起来体验…