现在国产大模型多如牛毛。虽然可选的大模型产品很多,但普遍存在同质化、高分低能、实用性差、专业性不足的问题,哪怕是诸如ChatGPT、Gemini这样全球顶尖的大模型也会存在这种情况。
还有一点比较重要的是,由于大模型需要算力、算法、数据的基础支持,一般被大公司所把控,小企业和个人很难去参与,大公司普遍缺乏想象力的,而小企业和个人才是创新的底层动力。所以大模型需要有足够低的门槛让更多人参与进来,才能真正的走向商业化。
同时,也需要有硬实力。前段时间有粉丝和我说,他正在“BigModel开放平台”上在构建一款小说解读应用-小说神器,专门用来解读长篇小说,并提炼生成短篇故事脚本,然后再剪辑成自媒体视频,一整套的流程完全可以交给AI。我觉得这个还是蛮有意思的,让开发者自己去构建垂直应用。
他用的模型是GLM-4-Long,可以用于处理长文本。整个流程大概是:先构建知识库,比如各种小说文本。然后构建Ai应用,选择模型并微调,最后进行测试并上线。
长文本神器-GLM-4-Long模型
我特地查了下GLM-4-Long,这是智谱AI BigModel开放平台推出的一款专为处理超长文本和记忆型任务设计的大模型。
看了下文档介绍,GLM-4-Long具有高达100万字符的上下文长度支持,可以进行多文档分析、长篇幅内容生成等。
开发AI汽车选购应用
接下来,我尝试用GLM-4-Long模型构建了一个AI汽车选购建议工具-名叫“帮帮选车”,并提供一个具体的构建过程,包括使用Python接入API的示例代码。
- 需求分析
每次构建AI应用首先确定应用的目标用户和核心功能,“帮帮选车”是为不同需求的用户提供个性化的汽车推荐,你只需要提出自己的买车需求,它就可以针对性的给出建议。
比如prompt: “我是一名刚毕业的大学生,想买一辆经济实惠且皮实的轿车,预算有限10万左右,用于平时上班代步,周末自驾短途出游。请你推荐一款符合我需求的车”。
- 数据准备
“帮帮选车”是汽车类应用,所以必须学习汽车相关的知识,比如车型、参数、技术、价格、用户口碑等等,就需要收集汽车相关的长文本数据,如汽车说明书、用户评价、汽车参数等,用于GLM-4-Long大模型的学习。
- 环境配置
这里需要注册BigModel开放平台账号并获取API Key,然后安装BigModel 的Python库,用于连接接口,进行数据交互。
- 新建知识库
有了数据之后,可以新建一个知识库,由于我要搭建汽车选购类应用,因此新建了汽车类的知识库,里面包括我收集的汽车相关文档。
- 新建AI应用
创建好知识库后,新建AI应用,这里选择问答机器人
接着配置prompt格式和选择模型,这里选择GLM-4-Long模型,你可以对模型进行微调,选择适合对话场景的配置。
最后发布应用。
- 应用测试
模型发布后,可以在应用内进行测试,编写选车相关的prompt,看看它怎么回答。
以下是给到的提示和模型返回的答案。
- 功能开发和用户界面设计
如果模型成熟的话,可以将其产品化,基于模型输出结果,开发汽车推荐、问答等功能,然后设计用户友好UI界面,允许用户输入他们的汽车选购需求。接着对应用进行测试,根据反馈进行优化。
最后将应用部署到服务器,供用户使用。
- 模型API调用
在Python中使用API Key调用GLM-4-Long模型API,进行问答。
首先,确保你已经安装了BigModel的Python库-zhipuai,如果没有,你可以直接使用HTTP请求库(如requests)来调用API。
# 导入所需的库
import requests
import json
# 填写你的API Key
API_KEY = '你的API_KEY'
ENDPOINT = 'https://open.bigmodel.cn/api/paas/v4/chat/completions'
# 准备请求数据
headers = {
'Authorization': f'Bearer {API_KEY}',
'Content-Type': 'application/json'
}
data = {
"model": "GLM-4-Long",
"messages": [
{"role": "system", "content": "你是一个汽车专家,能够提供购车建议。"},
{"role": "user", "content": "我想要购买一辆家用轿车,预算在20万左右。"}
],
"stream": True
}
# 发送请求
response = requests.post(ENDPOINT, headers=headers, json=data)
# 检查响应
if response.status_code == 200:
# 解析响应内容
response_json = response.json()
for chunk in response_json.get('choices', []):
if chunk.get('finish_reason') == 'stop':
print(f"汽车选购建议: {chunk['message']['content']}")
else:
print(f"请求失败,状态码:{response.status_code}")
这里要注意下,以上代码只是示例,实际使用时需要根据BigModel开放平台提供的API文档进行相应的调整。然后有几个注意事项,确保处理好API Key,不要在公共代码库中暴露你的API Key。
另外,在生产环境中使用时,要考虑错误处理和日志记录,确保应用的稳定性和可维护性。
如何开发小说阅读神器呢?
前面讲了一个粉丝用BigModel开发了一款小说生成故事脚本并制作成视频的应用,这个是当前自媒体领域的热门项目,可以自动化的产出脚本。
首先创建知识库,我们上传小说合集到知识库里。
然后创建应用-小说神器,选择GLM-4-Long,并对模型进行微调。
最后测试模型的对话效果,让它解读一篇小说,并生成故事脚本。
prompt:总结小说《孔乙己》主要内容生成短视频解说文本,要求保留主要情节和人物,能体验冲突、转折和内涵,文本风格轻松有趣。
以下是给到的提示和模型返回的答案。
什么是BigModel开放平台?
前面讲了几个在BigModel开放平台上构建大模型应用的案例,这个平台和OpenAI GPTS、以及字节Coze有点类似,它是由智谱AI开发的大模型开发平台。
你可以把这类平台想象成一个大厨房,里面提供各种智能工具、模型、API接口、安全、财务管理等等一系列服务,开发者可以根据行业知识来构建自己的AI应用,就像厨师烧菜一样,锅碗瓢盆、油盐酱醋都给你准备好了,烧什么菜由你来决定。
比如说开发者关心的API接口,它能接入GLM-4、GLM-4V等主流模型,而且支持各种语言调用。你可以独立部署模型,进行模型微调。
每个行业都有一定的专业壁垒,垂直大模型也一样,需要专业知识库训练,BigModel开放平台支持注入开发者自己的专业知识,进行定制化训练。
总结
总的来说,如今国内的大模型行业还处于同质化较严重的阶段,大家都在卷算力算法,但应用创新比较少,我觉得可能是门槛太高,参与的人太少的缘故。
像BigModel这样的开放平台可能会起到一定的促进作用,毕竟作为个人或小企业开发者,你能用很低的成本能创建大模型应用,唯一需要担心的是数据和应用场景。但从整个行业来说参与的人越多越好,量变会产生质变。