目录
调prompt的方法
prompt时好时不好
大模型本质是没有记忆的
划重点:我们发给大模型的 prompt,不会改变大模型的参数
ГLet's think step by step」
一步步分析一下
自洽性,同时跑多次,来减少幻觉
逻辑,基本能力来是要有的
找相关度高的例子
多次跑,之后比较
执行任务用 0,文本生成用 0.7-0.9
用prompt工程来调优prompt能力
gpts自己优化prompt
算法题目
给定一个字符串s和一些长度相同的单词words。找出s中恰好可以由words中所有单词串联形成的子串的起始位置。你可以假设words中的所有单词长度都相同。
算法思路
-
哈希映射统计:首先使用哈希映射(HashMap)统计words数组中每个单词出现的次数。
-
滑动窗口:由于所有单词的长度相同,我们可以使用滑动窗口的方式,以单词的长度为步长在原字符串s上滑动,检查每个可能的窗口。
-
匹配验证:对于每个窗口,使用另一个哈希映射统计窗口中每个单词的出现次数,然后与words的哈希映射进行比较,看是否完全匹配。
-
记录起始位置:如果一个窗口完全匹配,记录该窗口的起始位置。
-
优化:为了减少不必要的检查,我们只需要在0到wordLength-1的范围内开始滑动窗口,其中wordLength是数组words中单词的长度。
调prompt的方法
role , system massage
prompt时好时不好
打印的形式
大模型本质是没有记忆的
超过4k
历史数据留多少,留哪些
划重点:我们发给大模型的 prompt,不会改变大模型的参数
ГLet's think step by step」
一步步分析一下
有了这个之后,对于结果效果会有很好的提升
自洽性,同时跑多次,来减少幻觉
逻辑,基本能力来是要有的
金字塔的结构化思维
找相关度高的例子
多次跑,之后比较
序列号
通过绕圈的办法
简单的思路 prompt攻击
产生破坏
被攻击了 ,如何防范呢
识别一下,看一下是否是相关的
提示工程经验总结
划重点:
1.别急着上代码,先尝试用 prompt 解决,往往有四两拨千斤的效果
2.但别迷信 prompt,合理组合传统方法提升确定性,减少幻觉
3.定义角色、给例子是最常用的技巧
4.用好思维链,让复杂逻辑/计算问题结果更准确
5.防御 prompt 攻击非常重要
seed也要固定
指定种子 temperature = 0 ,每次输出都是一样的
多样性进行降权
执行任务用 0,文本生成用 0.7-0.9
temperature高,就会说胡话
token是收钱的
高阶的技巧
用prompt工程来调优prompt能力
gpts自己优化prompt
GitHub - linexjlin/GPTs: leaked prompts of GPTs
训练围棋 ,效果比通用的要好
什么用大模型解决,什么用传统的方式解决
一样
都会问哪些问题
dudu群中
稳定 问什么问题
代码要从上往下执行
通过实验室 相当于 本地的环境
有挫败感
去匹配
实验室 所有的接口环境
就可以完成了
实验室遇到哪些问题
保证每一个人
登录上实验室 的账号
以后电脑的配置应该也不需要有多高
实验室花费的资源 资源还是ok哒
vscode更加轻量级
.env
附庸风雅