LangChain-模型输入输出 (Model I/O)

news2025/4/18 21:23:33

模型输入输出是LangChain的核心组件,负责处理与各种语言模型的交互。本文档详细介绍了这些组件的功能和使用方法。

概述

模型输入输出组件负责:

  1. 连接各种语言模型:统一不同提供商的模型接口
  2. 格式化输入:将原始输入转换为模型可理解的格式
  3. 处理输出:解析和格式化模型的输出内容

这些组件构成了LangChain应用程序的基础,是构建各种AI应用的起点。

主要组件

1. 语言模型 (LLMs)

语言模型组件处理文本到文本的生成任务:

from langchain_openai import OpenAI

llm = OpenAI(temperature=0.7)
result = llm.invoke("介绍一下中国的四大发明")
print(result)

主要特点:

  • 接收文本输入,返回文本输出
  • 支持参数调整(温度、最大生成长度等)
  • 提供多种模型类型和供应商选择

支持的主要模型:

  • OpenAI - GPT-3.5, GPT-4等
  • Anthropic - Claude系列
  • 百度文心 - ERNIE-Bot系列
  • 阿里通义 - 通义千问系列
  • 本地模型 - Hugging Face模型、LLaMA等

2. 聊天模型 (Chat Models)

聊天模型组件专门处理多轮对话交互:

from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, SystemMessage

chat = ChatOpenAI()
messages = [
    SystemMessage(content="你是一位友好的AI助手"),
    HumanMessage(content="你好!请介绍一下自己")
]
response = chat.invoke(messages)
print(response.content)

主要特点:

  • 使用消息列表作为输入(系统消息、用户消息、助手消息)
  • 返回结构化消息对象
  • 支持多轮对话上下文

消息类型:

  • SystemMessage: 设置模型行为和角色的系统指令
  • HumanMessage: 用户输入信息
  • AIMessage: AI回复内容
  • FunctionMessage: 函数调用结果
  • ToolMessage: 工具使用的消息

3. 提示模板 (Prompt Templates)

提示模板用于动态构建发送给模型的提示:

from langchain_core.prompts import PromptTemplate, ChatPromptTemplate

# 文本提示模板
template = PromptTemplate.from_template("请介绍{country}的{topic}")
prompt = template.format(country="中国", topic="传统节日")

# 聊天提示模板
chat_template = ChatPromptTemplate.from_messages([
    ("system", "你是一位{role}专家,擅长解答{field}问题"),
    ("human", "请回答:{question}")
])
messages = chat_template.format_messages(
    role="历史",
    field="中国古代文化",
    question="唐朝的科举制度是怎样的?"
)

主要特点:

  • 支持变量插入
  • 支持条件逻辑
  • 允许组合多个模板

4. 输出解析器 (Output Parsers)

输出解析器将模型输出转换为结构化数据:

from langchain_core.output_parsers import StrOutputParser, PydanticOutputParser
from langchain_core.pydantic_v1 import BaseModel, Field
from typing import List

# 简单字符串解析
parser = StrOutputParser()

# 结构化数据解析
class Movie(BaseModel):
    title: str = Field(description="电影标题")
    director: str = Field(description="导演姓名")
    year: int = Field(description="上映年份")
    rating: float = Field(description="评分(1-10)")

structured_parser = PydanticOutputParser(pydantic_object=Movie)

# 在格式化指令中使用
format_instructions = structured_parser.get_format_instructions()
template = """生成一部经典电影的信息。
{format_instructions}
电影类型: {genre}"""

prompt = PromptTemplate(
    template=template,
    input_variables=["genre"],
    partial_variables={"format_instructions": format_instructions}
)

主要解析器类型:

  • StrOutputParser: 简单字符串提取
  • PydanticOutputParser: 将输出解析为Pydantic模型
  • JsonOutputParser: 将输出解析为JSON结构
  • XMLOutputParser: 将输出解析为XML结构
  • CommaSeparatedListOutputParser: 将输出解析为逗号分隔的列表

高级用法

流式处理

流式处理允许逐步接收模型生成的内容:

from langchain_openai import ChatOpenAI

chat = ChatOpenAI(streaming=True)

for chunk in chat.stream("写一首关于人工智能的短诗"):
    print(chunk.content, end="")

模型参数调整

调整模型的生成行为:

from langchain_openai import ChatOpenAI

# 创造性参数调整
creative_model = ChatOpenAI(
    model="gpt-4",
    temperature=0.9,  # 提高随机性
    max_tokens=2000,  # 设置最大生成长度
    top_p=0.95,  # 控制词汇多样性
    frequency_penalty=0.5  # 减少重复
)

# 精确模式
precise_model = ChatOpenAI(
    model="gpt-4",
    temperature=0.1,  # 降低随机性,更确定性的输出
    max_tokens=500
)

使用多模型

在不同场景使用不同模型:

from langchain_openai import ChatOpenAI
from langchain_anthropic import ChatAnthropic
from langchain_qianfan import ChatQianfan

models = {
    "general": ChatOpenAI(model="gpt-3.5-turbo"),  # 通用对话
    "complex": ChatOpenAI(model="gpt-4"),  # 复杂推理
    "creative": ChatAnthropic(model="claude-3-opus-20240229"),  # 创意写作
    "chinese": ChatQianfan()  # 中文处理优化
}

def get_appropriate_model(task):
    if task == "creative_writing":
        return models["creative"]
    elif task == "complex_reasoning":
        return models["complex"]
    elif task == "chinese_content":
        return models["chinese"]
    else:
        return models["general"]

函数调用

让模型选择并调用函数:

from langchain_core.tools import tool
from langchain_openai import ChatOpenAI

@tool
def get_weather(location: str, unit: str = "celsius"):
    """获取指定位置的天气信息"""
    # 这里应该有实际的API调用,这里用模拟数据
    weather_data = {"北京": "晴朗,25°C", "上海": "多云,28°C"}
    return weather_data.get(location, "未知地区")

@tool
def calculate(expression: str):
    """计算数学表达式"""
    return eval(expression)

# 设置模型和工具
model = ChatOpenAI()
tools = [get_weather, calculate]

# 使用函数调用
response = model.invoke(
    "北京今天的天气怎么样?另外,计算一下25乘以4等于多少?",
    tools=tools
)

print(response)

处理上下文窗口限制

处理长文本输入:

from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_openai import ChatOpenAI

# 长文本处理
def process_long_text(text):
    # 分割文本为小块
    splitter = RecursiveCharacterTextSplitter(
        chunk_size=4000,
        chunk_overlap=200
    )
    chunks = splitter.split_text(text)
    
    # 处理各个文本块
    model = ChatOpenAI()
    results = []
    
    for chunk in chunks:
        response = model.invoke(f"请总结以下内容:{chunk}")
        results.append(response.content)
    
    # 合并结果
    combined = "\n\n".join(results)
    final_summary = model.invoke(f"请将以下多个摘要整合为一个连贯的总结:{combined}")
    
    return final_summary.content

集成实例

基本链式处理

from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from langchain_core.output_parsers import StrOutputParser

# 创建基本组件
prompt = ChatPromptTemplate.from_template("请用中文回答:{question}")
model = ChatOpenAI()
output_parser = StrOutputParser()

# LCEL组合
chain = prompt | model | output_parser

# 执行链
result = chain.invoke({"question": "人工智能的发展历史是什么?"})
print(result)

使用记忆组件

from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_community.memory import ConversationBufferMemory
from langchain_core.runnables.history import RunnableWithMessageHistory

# 创建带有历史的提示模板
prompt = ChatPromptTemplate.from_messages([
    ("system", "你是一位友好的AI助手。"),
    MessagesPlaceholder(variable_name="history"),
    ("human", "{input}")
])

# 创建链
chain = prompt | model | output_parser

# 添加记忆组件
store = {}
memory = ConversationBufferMemory(
    return_messages=True,
    memory_key="history"
)

chain_with_history = RunnableWithMessageHistory(
    chain,
    lambda session_id: memory,
    input_messages_key="input",
    history_messages_key="history"
)

# 使用带历史的链
response1 = chain_with_history.invoke(
    {"input": "你好!"},
    config={"configurable": {"session_id": "user1"}}
)

response2 = chain_with_history.invoke(
    {"input": "我们刚才聊了什么?"},
    config={"configurable": {"session_id": "user1"}}
)

总结

模型输入输出组件是LangChain的基础构建块,它们提供与语言模型交互的标准接口。通过这些组件,您可以:

  1. 连接各种大语言模型
  2. 动态构建提示
  3. 解析和结构化输出
  4. 处理多轮对话
  5. 实现高级功能如流式处理、函数调用等

正确使用这些组件是构建高效且可靠的LLM应用的关键。根据不同的应用场景,组合使用这些组件,可以满足各种复杂需求。

后续学习

  • 提示模板 - 进一步了解提示工程
  • 输出解析器 - 深入学习输出处理
  • 记忆系统 - 学习管理对话历史
  • 链 - 组合多个组件构建复杂应用

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2332466.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

基于FPGA实现BPSK 调制

目录 一、 任务介绍二、基本原理三、基于FPGA实现BPSK 调制四、源码 一、 任务介绍 BPSK 调制在数字通信系统中是一种极重要的调制方式,它的抗干扰噪声性能及通频带的利用率均优先于 ASK 移幅键控和 FSK 移频键控。因此,PSK 技术在中、高速数据传输中得…

在排序数组中查找元素的第一个和最后一个位置 --- 二分查找

目录 一:题目 二:算法原理分析 三:代码实现 一:题目 题目链接: 34. 在排序数组中查找元素的第一个和最后一个位置 - 力扣(LeetCode) 二:算法原理分析 三:代码实现 c…

631SJBH中小型企业的网络管理模式的方案设计

1.1、研究现状 我国很多企业信息化水平一直还处在非常初级的阶段,有关统计表明,真正实现了计算机较高应用的企业在全国1000多万中小企业中所占的比例还不足10%幢3。大多数企业还停留在利用互联网进行网上查询(72.9%)、…

LangChain4j(1):初步认识Java 集成 LLM 的技术架构

LangChain 作为构建具备 LLM 能力应用的框架,虽在 Python 领域大放异彩,但 Java 开发者却只能望洋兴叹。LangChain4j 正是为解决这一困境而诞生,它旨在借助 LLM 的强大效能,增强 Java 应用,简化 LLM 功能在Java应用中的…

【C++算法】53.链表_重排链表

文章目录 题目链接:题目描述:解法C 算法代码: 题目链接: 143. 重排链表 题目描述: 解法 模拟 找到链表的中间节点 快慢双指针 把后面的部分逆序 双指针,三指针,头插法 合并两个链表 合并两个有…

多卡分布式训练:torchrun --nproc_per_node=5

多卡分布式训练:torchrun --nproc_per_node=5 1. torchrun 实现规则 torchrun 是 PyTorch 提供的用于启动分布式训练作业的实用工具,它基于 torch.distributed 包,核心目标是简化多进程分布式训练的启动和管理。以下是其主要实现规则: 进程启动 多进程创建:torchrun 会…

Elasticsearch:加快 HNSW 图的合并速度

作者:来自 Elastic Thomas Veasey 及 Mayya Sharipova 过去,我们曾讨论过搜索多个 HNSW 图时所面临的一些挑战,以及我们是如何缓解这些问题的。当时,我们也提到了一些计划中的改进措施。本文正是这项工作的成果汇总。 你可能会问…

图片中文字无法正确显示的解决方案

图片中文字无法正确显示的解决方案 问题描述 在 Linux 系统中生成图片时,图片中的文字(如中文)未能正确显示,可能表现为乱码或空白。这通常是由于系统缺少对应的字体文件(如宋体/SimSun),或者…

ISP--Demosaicking

文章目录 前言算法解释简单的线性插值代码实现 色差法和色比法基于方向加权的方法RB缺失的G通道的插值RB缺失的BR的插值G缺失的BR的插值代码实现 基于边缘检测的方法计算缺失的G计算缺失的RB值/计算缺失的G值 前言 人眼之所以有能感受到自然界的颜色,是因为人眼的感…

国标GB28181协议EasyCVR视频融合平台:5G时代远程监控赋能通信基站安全管理

一、背景介绍 随着移动通信行业的迅速发展,无人值守的通信基站建设规模不断扩大。这些基站大多建于偏远地区,周边人迹罕至、交通不便,给日常的维护带来了极大挑战。其中,位于空旷地带的基站设备,如空调、蓄电池等&…

模拟-与-现实协同训练:基于视觉机器人操控的简单方法

25年3月来自 UT Austin、Nvidia、UC Berkeley 和纽约大学的论文“Sim-and-Real Co-Training: A Simple Recipe for Vision-Based Robotic Manipulation”。 大型现实世界机器人数据集在训练通才机器人模型方面拥有巨大潜力,但扩展现实世界人类数据收集既耗时又耗资…

WRS-PHM电机智能安康系统:为浙江某橡胶厂构筑坚实的生产防线

以行业工况为背景 一、顾客工厂的背景 浙江某橡胶厂以电机为中心生产设备必须连续平稳运行。但由于缺乏有效的故障预警体系,电机故障就像潜伏着的“不定时炸弹”,不但不时地造成生产流程的中断,也使对生产进行管理异常艰难,对持续安全生产提…

将 CrewAI 与 Elasticsearch 结合使用

作者:来自 Elastic Jeffrey Rengifo 学习如何使用 CrewAI 为你的代理团队创建一个 Elasticsearch 代理,并执行市场调研任务。 CrewAI 是一个用于编排代理的框架,它通过角色扮演的方式让多个代理协同完成复杂任务。 如果你想了解更多关于代理…

Spring 的 IoC 和 DI 详解:从零开始理解与实践

Spring 的 IoC和 DI 详解:从零开始理解与实践 一、IoC(控制反转) 1、什么是 IoC? IoC 是一种设计思想,它的核心是将对象的创建和管理权从开发者手中转移到外部容器(如 Spring 容器)。通过这种…

ZYNQ笔记(四):AXI GPIO

版本:Vivado2020.2(Vitis) 任务:使用 AXI GPIO IP 核实现按键 KEY 控制 LED 亮灭(两个都在PL端) 一、介绍 AXI GPIO (Advanced eXtensible Interface General Purpose Input/Output) 是 Xilinx 提供的一个可…

实操(环境变量)Linux

环境变量概念 我们用语言写的文件编好后变成了程序,./ 运行的时候他就会变成一个进程被操作系统调度并运行,运行完毕进程相关资源被释放,因为它是一个bash的子进程,所以它退出之后进入僵尸状态,bash回收他的退出结果&…

Word / WPS 页面顶部标题 段前间距 失效 / 不起作用 / 不显示,标题紧贴页眉 问题及解决

问题描述: 在 Word 或者 WPS 里面,如果不是新的一节,而是位于新的一页首行时,不管怎么设置段前间距,始终是失效的,实际段前间距一直是零。 解决方案: 查询了很多方案均无法解决问题&#xff…

Linux自行实现的一个Shell(15)

文章目录 前言一、头文件和全局变量头文件全局变量 二、辅助函数获取用户名获取主机名获取当前工作目录获取最后一级目录名生成命令行提示符打印命令行提示符 三、命令处理获取用户输入解析命令行执行外部命令 四、内建命令添加环境变量检查和执行内建命令 五、初始化初始化环境…

在 Q3D 中提取汇流条电感

汇流条排简介和设计注意事项 汇流条排是用于配电的金属导体,在许多应用中与传统布线相比具有设计优势。在设计母线排时,必须考虑几个重要的因素: 低电感:高频开关内容会导致无功损耗,从而降低效率电容:管…

MySQL:事务的理解

一、CURD不加控制,会有什么问题 (1)因为,MySQL里面存的是数据,所以很有可能会被多个客户访问,所以mysqld可能一次会接受到多个关于CURD的请求。(2)且mysql内部是采用多线程来完成数…