目录
- 前言
- 文心千帆的申请和使用感受
- 1.1 注册流程简单
- 1.2 试用初体验
- 二、文心千帆大模型平台功能介绍
- 2.1 强大的对话式语言模型
- 2.2 丰富的应用场景
- 三、如何使用 API
- 3.1 API 列表
- ERNIE-Bot
- ERNIE-Bot-turbo
- BLOOMZ-7B
- Embedding-V1
- Prompt模板
- 3.2 API 调用基本流程
- 3.2.1 创建智能云应用
- 3.2.2 服务授权
- 3.2.3 获取访问凭证
- 3.2.4 调用API接口
- 四、Prompt 工程(如何在文心一言中限制问题范围)
- 4.1 什么是 Prompt
- 4.2 Prompt模板的使用
- 4.2.1 创建Prompt模板
- 4.2.2 操作Prompt模板
- 4.2.3 引用Prompt模板
- 五、百度文心一言与 ChatGPT 的对比
- 六、文心大模型3.5的升级和功能改进
- 七、总结
前言
近日,百度智能云宣布面向企业和个人客户开放文心千帆大模型平台公有版测试服务,这标志着全球首个一站式企业级大模型平台正式迎来公众体验。文心千帆旨在为用户提供大模型训练及推理的全流程工具链和整套环境,让客户以最简单最高效的方式使用和应用大模型。于是,我迫不及待地申请了文心千帆的测试服务,在本篇文章中,我将给大家带来我对文心千帆的使用感受以及对其中强大功能的介绍。
文心千帆的申请和使用感受
1.1 注册流程简单
申请文心千帆测试服务非常简单,作为对人工智能技术充满好奇的我,第一时间前往官方申请地址申请资格。申请流程十分简单,只需填写一些基本信息,选择测试版本和使用目的,然后提交申请即可。不久后,我便收到了测试资格,并立刻开始了我的文心千帆之旅。
经过一天的等待,我的申请通过了,我收到了文心千帆平台的测试账号和相关凭证。接着,我下载了百度提供的SDK和API文档,开始了对文心千帆大模型平台的测试和开发工作。
登录文心千帆平台后,我被它简洁直观的界面所吸引。在左侧,是一栏清晰的文档目录,展示了所有可用的插件和预置模型,右侧则是内容展示区域,这种布局使得查找和管理模型变得非常便捷。
1.2 试用初体验
首先我在后台创建了应用:海拥-AI
然后来到文心千帆的操作台,先尝试了大模型服务中的"在线测试"。我让它用python帮我写一个猜数字的游戏,响应速度很快。
然后我拿着代码去VS code 测试了一下,如下图
可以完美运行,就是代码缩进需要修改一下。
随后,我又问了一些其他的问题,无论是进行智能问答、内容创作还是代码编写,文心一言都给出了非常专业并且精准的回答。
二、文心千帆大模型平台功能介绍
2.1 强大的对话式语言模型
文心千帆大模型平台提供了强大的对话式语言模型,它可以通过自然语言交互的形式,根据用户的指令,完成问答、文本创作、代码查错等各种任务。这种对话式语言模型让我惊叹不已,它的应用场景非常广泛,可以帮助企业和个人快速构建智能化的应用和服务。
2.2 丰富的应用场景
文心千帆大模型平台的应用场景非常丰富。我发现它可以应用于搜索和数据分析领域,根据用户的查询,自动搜索和分析相关的数据,并以图表或文本的形式呈现给用户。同时,它还可以在程序生成和分析方面发挥作用,根据用户的描述或示例,自动生成或修改相应的代码,并对代码进行检查和优化,比如Python、Java、C++等。此外,文心千帆还支持内容创作,可以根据用户的需求和喜好,自动创作各种类型和形式的内容,比如音乐、视频、图片等。总之,文心千帆大模型平台的功能非常强大,让人眼花缭乱。在各个不同行业,不同领域,文心千帆大模型平台的应用都能带来巨大的价值和便利。
三、如何使用 API
3.1 API 列表
ERNIE-Bot
ERNIE-Bot是百度自行研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。
ERNIE-Bot-turbo
ERNIE-Bot-turbo是百度自行研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力,响应速度更快。
BLOOMZ-7B
BLOOMZ-7B是业内知名的大语言模型,由Hugging Face研发并开源,能够以46种语言和13种编程语言输出文本。
Embedding-V1
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
Prompt模板
Prompt工程指针对于Prompt进行结构、内容等维度进行优化的AI技术,它把大模型的输入限定在了一个特定的范围之中,进而更好地控制模型的输出。
3.2 API 调用基本流程
3.2.1 创建智能云应用
首先,我们需要在控制台中创建应用,这里我在一开始就创建了一个名为”海拥-AI“的应用。创建好应用后,保存AppID、API Key、Secret Key,后面我们需要用到。
3.2.2 服务授权
应用创建后,选择对应授权的公有云服务。
3.2.3 获取访问凭证
根据第一步中获取的API Key、Secret Key,获取access_token。更多详情方法可参考 鉴权认证机制。或参考以下curl命令向鉴权服务器请求access_token。
# 填充API Key与Secret Key
curl https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id=【API Key】&client_secret=【Secret Key】
注意:access_token默认有效期30天,生产环境注意及时刷新。
3.2.4 调用API接口
请求示例
请求数据(body)
生成的代码(Python):
import requests
import json
API_KEY = "cEZ2lRZ*******jKEmlyxk"
SECRET_KEY = "H4WLr8djnL*******M5jMZjmi"
def main():
url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions?access_token=" + get_access_token()
payload = json.dumps({
"messages": [
{
"role": "user",
"content": "介绍一下你自己"
},
{
"role": "assistant",
"content": "您好,我是文心一言,英文名是ERNIE Bot。我能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。"
}
]
})
headers = {
'Content-Type': 'application/json'
}
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)
def get_access_token():
"""
使用 AK,SK 生成鉴权签名(Access Token)
:return: access_token,或是None(如果错误)
"""
url = "https://aip.baidubce.com/oauth/2.0/token"
params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY}
return str(requests.post(url, params=params).json().get("access_token"))
if __name__ == '__main__':
main()
对话展示
四、Prompt 工程(如何在文心一言中限制问题范围)
有些企业在接入文心一言时,可能希望限制文心回复的问题范围,以确保用户获得的答案与公司相关。这个问题是值得考虑的,而文心千帆大模型平台提供了相应的解决方案。
4.1 什么是 Prompt
Prompt 也叫提示词,简单的理解成它是给大模型的指令。它可以是一个问题、一段文字描述,甚至可以是带有一堆参数的文字描述。大模型会基于 prompt 所提供的信息,生成对应的文本或者图片。
Prompt工程的作用,就是通过提供清晰和具体的指令,引导模型输出生成高相关、高准确且高质量的文本对答内容,属于自然语言处理领域突破的重要工程。
4.2 Prompt模板的使用
4.2.1 创建Prompt模板
在 Prompt 模板界面,选择“创建Prompt模板”按钮。填好模版名称后,模板标签可选,模版内容可以直接填入引用的内容,也可以用“{}”注入变量。
4.2.2 操作Prompt模板
在Prompt模板列表中可对指定模版进行如下操作:
- 编辑:重新编辑Prompt模板内容,包括模型名称、标签和内容。可查看创建Prompt模板相关内容。
- 删除:删除Prompt模板,一旦删除不可恢复。
- 复制ID:复制Prompt模版的ID,可以在后续API中或者检索备份中留有标识认证。
4.2.3 引用Prompt模板
Prompt 模版可以直接在预测服务测试中进行实现
在线测试支持测试工作台选择服务和应用进行参数配置,输入或引用prompt模板进行输入,完成测试。
检索需要引用的prompt模板,点击“引用”按钮,对于无变量设置的prompt模板,会直接输入,对于有变量设置的prompt模板需要输入变量才可进行验证,如下图所示:
部分或全部变量输出完成之后,点击“确定”即可引入模版至对话框。
通过文心千帆平台的 Prompt 功能,企业可以根据自己的需求,定制微调大模型,从而获取面向特定场景更精准的输出。在具体操作上,企业可以提供更多专属行业场景的数据,让模型在特定领域中进行微调,从而限制回复问题的范围。这种个性化的微调可以让文心一言更好地满足企业的需求,并提供与公司相关的答案,确保用户获得最准确的信息。
五、百度文心一言与 ChatGPT 的对比
文心一言作为百度文心大模型的官方服务平台,在与ChatGPT进行对比时,有几个方面值得关注。
- 在发布文心一言时,与ChatGPT相比的差距大约是两个月。然而,随着不断的技术创新和用户反馈,文心一言不断迎头赶上,目前的效果已经与ChatGPT接近,甚至超越了早期版本的ChatGPT。
- 在中文知识领域,国内模型明显优于国际模型。文心一言在中文处理上更加懂得中国文化和场景,这使得它在中文应用方面得分最高。
- 文心千帆团队在技术创新方面不断努力,不仅有监督精调、人类反馈的强化学习等前三项大模型关键技术,还不断探索知识增强、检索增强和对话增强等新技术,使文心一言的效果和应用场景逐步提升。
六、文心大模型3.5的升级和功能改进
文心大模型3.5相比3.0版本有多个方面的升级和功能改进,这些改进使得文心大模型在效果、功能和性能上全面提升。
首先文心大模型3.5新增了插件机制,通过插件方式扩增了大模型的能力边界。内置的插件"百度搜索"使文心一言具备实时准确信息的能力,而长文本摘要和问答插件"ChatFile"则支持超长文本输入。未来,文心一言将继续发布更多优质的官方和第三方插件,帮助开发者基于文心大模型打造更多个性化的应用。
另外,文心大模型3.5在技术方面进行了多方面优化。在基础模型训练中,采用了飞桨最先进的自适应混合并行训练技术和混合精度计算策略,大大加快了模型的迭代速度,提升了效果和安全性。同时,文心千帆团队创新了多类型多阶段有监督精调、多层次多粒度奖励模型、多损失函数混合优化策略等技术,进一步提升模型的效果和场景适配能力。
文心大模型3.5在推理方面也进行了优化,通过逻辑数据构建、逻辑知识建模、粗粒度与细粒度语义知识组合以及符号神经网络技术,显著提升了在逻辑推理、数学计算和代码生成等任务上的表现。
总的来说,文心大模型3.5的升级和功能改进使得它的训练速度提升了2倍,推理速度提升了17倍,大大提高了模型的迭代升级效率,降低了训练和使用成本,并进一步提升了用户体验。
七、总结
文心千帆大模型平台的公有版测试服务为企业和个人提供了强大的对话式语言模型,支持丰富的应用场景,尤其在金融行业的应用潜力巨大。通过微调大模型,企业可以限制文心一言的问题范围,让回复更加精准。与ChatGPT的对比显示,文心一言在中文应用方面具有优势,而在技术方面不断进行创新和改进,使其效果不断提升。文心大模型3.5的升级和功能改进让它在效果、功能和性能上全面提升,为用户带来更好的体验。通过合理应用和选择大模型,企业可以为自己的产品和服务赋能,迎接人工智能技术带来的变革。
我相信,随着文心千帆的持续技术创新和不断扩展的插件生态,更多企业和个人将能够在智能大模型时代发现新的商机和应用可能性。文心千帆无疑将在推动人工智能的发展进程中发挥巨大的作用,实现更广泛的智能化应用,为用户带来更好的体验和服务。
如果你对人工智能和大模型感兴趣,不妨申请试用文心千帆,亲自体验其强大功能和无限可能。文心千帆的开放将为你带来一场智能化的探索之旅,让我们一起见证人工智能的未来!