系列文章目录
第一章: 如何使用chatgpt
第二章: chatgpt的概述
第三章: langchain入门
第四章: index
第五章: prompt
目录
系列文章目录
前言
一、LLM是什么?
二、使用步骤
1.学习地址
2.阅读内容重点的介绍
2.答复
读入数据
总结
- 系列文章目录
- 前言
- 一、pandas是什么?
- 二、使用步骤
- 1.引入库
- 2.读入数据
- 总结
前言
随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了LLM(large language model)学习的基础内容。
提示:以下是本篇文章正文内容,下面案例可供参考
一、LLM是什么?
large language model是大语言模型, 区别于以往的算法模型, 对自然语言的语义分析效果更佳突出.
二、使用步骤
1.学习地址
【中文完整版全9集】第1集 引言-ChatGPT提示工程师|AI大神吴恩达教你写提示词|prompt engineering_哔哩哔哩_bilibili【中文完整版全9集】第1集 引言-ChatGPT提示工程师|AI大神吴恩达教你写提示词|prompt engineering是【中文完整版全9集】ChatGPT提示工程师|AI大神吴恩达教你写提示词|prompt engineering的第1集视频,该合集共计9集,视频收藏或关注UP主,及时了解更多相关视频内容。https://www.bilibili.com/video/BV1No4y1t7Zn?p=1
2.环境准备
- python3.9的环境
- pip install openai
- 能够确保你的服务器可以访问openai, 翻墙
- 已经申请了一个可用的有费用的api_key
3.chatgpt的基本结构
# coding=utf-8 import openai import argparse from dotenv import load_dotenv, find_dotenv _ = load_dotenv(find_dotenv()) # read local. env file openai.api_key = "sk-***" """ abc """ def get_completion(prompt, model="gpt-3.5-turbo"): print("开始运行 prompt= %s" % prompt) messages = [{"role": "user", "content": prompt}] response = openai.ChatCompletion.create( model=model, messages=messages, temperature=0 # this is the degree of randomness of ) m = response.choices[0].message["content"] print('问题: %s结果%s' % (prompt, m)) return m def demo2(): text = "您应该通过提供清晰明了的说明来表达您希望模型做什么尽可能具体。" \ "并减少接收不相关信息的机会这将引导模型朝向期望的输出,或错误的响应。" \ "不要混淆写用写一个简短的提示来清除提示。在许多情况下,较长的提示为模型提供了更多的清晰度和上下文,从而可以产生更详细和相关的输出 " prompt = f"将由三个反调分隔的文本汇总为一个句子```{text}```" get_completion(prompt=prompt)
常用的chatgpt分为了两部分,一部分是链接api的工具部分,一部分是prompt的问题部分
4.视频中的重点解读
重点是第二章节, 也就是书写prompt的规范和技巧
## 提示词的作用
- 指导语言模型完成不同的任务
- 提高模型的准确性和效率
## 提示词的原则
- 提供尽可能清晰和具体的指示
- 给模型时间思考
## 提示词的技巧
- 使用分隔符清楚地指示输入的不同部分
- 使用格式化和引号来突出重要的信息
- 使用主题、标题、编号等来组织提示词的结构
- 考虑潜在的边缘情况和异常输入
## 减少模型的幻觉
- 幻觉是模型虚构的想法,可能与事实不符
- 要求模型从文本中找到相关的引用,或者让模型先计算出自己的解决方案
- 有一种方法可以将答案追溯到源文档,通常有助于减少幻觉
## 总结和展望
- 回顾了提示词的指导方针和策略
- 鼓励观众进入下一个视频,学习迭代的快速开发过程
总结
其他的只能说gpt告诉我们, 需要多多练习prompt的精准描述才能更好的产生结果