真题
真题:如何初始化OpenAI客户端
client = OpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
AI生成模拟题
一、单选题
(每题5分,共6题,30分)
- 安全存储API Key的最佳实践是?
A. 直接写在代码注释中
B. 通过环境变量和配置文件加载
C. 上传到GitHub公开仓库
D. 明文嵌入代码逻辑中答案:B
- 启用流式输出的关键参数是?
A.stream=False
B.stream=1
C.stream=True
D. 无需参数,默认支持答案:C
- 对话中,大模型的角色应如何配置?
A.{"role": "user", "content": "你叫小蜜"}
B.{"role": "system", "content": "你叫公司小蜜"}
C.{"role": "assistant", "content": "我是小蜜"}
D.{"role": "admin", "content": "系统管理员"}
答案:B
- 生成广告文案时,建议如何设置temperature?
A. 设为0.0(完全固定)
B. 使用默认值
C. 适当提高(如0.7)
D. 设为负值答案:C
- 当
top_p=0.5
时,模型会选择哪些Token?
A. 所有可能的Token
B. 累计概率超过0.9的Token
C. 累计概率达到0.5的多个Token
D. 仅最高概率的单个Token答案:D
- 直接在代码中写入明文API Key的主要风险是?
A. 提高代码可读性
B. 容易泄露密钥且难以维护
C. 加快代码执行速度
D. 增强API调用安全性答案:B
二、多选题
- 处理私有知识时,直接传入所有背景信息可能导致哪些问题?
A. 提示词长度超过模型限制
B. 模型处理效率显著下降
C. 输出结果更具创造性
D. API Key自动加密答案:A、B
- 以下哪些参数控制生成结果的随机性?
A.temperature
B.top_p
C.max_tokens
D.frequency_penalty
答案:A、B
- 缓解提示词过长的可行方法包括?
A. 使用向量数据库检索关键片段
B. 分块传入上下文信息
C. 增加temperature
值
D. 关闭流式输出答案:A、B
- 关于
temperature
和top_p
,以下描述正确的有?
A.temperature
越高,输出越固定
B.top_p=0.9
时,模型可能从多个高概率Token中随机选择
C.temperature=0
时,输出完全由概率最高的Token决定
D.top_p
和temperature
可同时设为极低值以增强确定性
答案:B、C、D
原文链接
https://github.com/AlibabaCloudDocs/aliyun_acp_learning/blob/main/%E5%A4%A7%E6%A8%A1%E5%9E%8BACP%E8%AE%A4%E8%AF%81%E6%95%99%E7%A8%8B/p2_%E6%9E%84%E9%80%A0%E5%A4%A7%E6%A8%A1%E5%9E%8B%E9%97%AE%E7%AD%94%E7%B3%BB%E7%BB%9F/2_1_%E7%94%A8%E5%A4%A7%E6%A8%A1%E5%9E%8B%E6%9E%84%E5%BB%BA%E6%96%B0%E4%BA%BA%E7%AD%94%E7%96%91%E6%9C%BA%E5%99%A8%E4%BA%BA.ipynb